たかきろぐ

「自動運転」「情報系大学」「雑記」をだらだらと書いています

MENU

街の移り変わり

僕は大阪の飲食街のはずれに住んでいる.一度街を離れて別の年に越したが,去年の春にまた同じ街に戻ってきて,合わせて2年をこの街で過ごしている.

街の様変わりは早く,過ごした2年間で色々な店が消えては,できた.

馴染みの店も数件あるが,今日はそのうちの一件がなくなっているのに気がついた.

 

その店は世襲制で,店名や内装を買えずに20年以上続き,雑居ビルの空中階に立地していた.

非常に落ち着いた雰囲気で,2代目の女性店主は会話していて心地の良い人だった.

ワインのうまい店だった.

 

最寄りの駅のプラットフォームから,くすんだ色の大きな看板が見えていたのだが,今日見てみると看板はビビッドな色合いの月極駐車場のものに変わっていた.

なぜ毎日見る風景にとけこんだ変化に気がつかなかったのかが不思議だ.

 

新しくできた店の看板が目に入った時,店主がどこかで新しく店を出しているのか,店に付いていた飲んだくれの客はどこに流れたのか,当時の店内の風景を思い出しながら少し立ち止まっていたのだが,思い出にふける中でカッと体が熱くなり,ドキドキとした.

 

店の中で僕が非常に気に入っていたものがある.長い一枚板のカウンターだ.木材は時間がたつと乾燥と共に形が変わる.反ったり,縮んだり,ひび割れたりすることがある.ただ,節の部分は硬くて形が変わりにくい.だから年季が入った天板の節の部分は周りに比べて少し突起していて,グラスが引っかかる.

この節の引っかかりは,店が長く続いていた歴史のようなものなのだ.

 

店が変わったことで,この天板がなくなってしまっているのでないかと不安になった.長く続くものが良いわけではないが,少し感傷的になった.

 

たまらずに店に入ってみると,中は落ち着いたオーセンティックな雰囲気から,蛍光灯で明るく照らされ,流行りのアロマの香るカジュアルな空間になっていた.

 

一瞬,不安になったが,カウンターに目をやると,一枚板のカウンターはそのままだった.

新しい店の店主も,カウンターの出す雰囲気を良いと思ったのだろう.とても嬉しかった.

 

一杯飲んで帰ろう.

 

そう思ったが,メニューに好みのものがなかったので,そのまま飲まずに帰った.

投資指標の謎

色々な銘柄をみつつ、スクリーニングを行なっているのだけど、知識不足で理解できない状況が発生する。

 

例えば、今みている株でスカラという銘柄がある。この銘柄は、予想PERという指標が5を切っている。意味合いとしては、利益ベースで見たときに株価が5年以内に開催できる、という意味だ。つまり低ければ、低いほどよい。

 

では、絶対的な意味はおいといて、この5という値が、どの程度のものなのか、他の銘柄と比較してみる。

 

PERは業種によって差が大きい。成長性が高いと判断される業種では大きくなる。また、市場の種類でも大きく異なる。例えば建設業などでは低くなる。

業種を問わなければ、14程度だ。

https://www.rakuten-sec.co.jp/web/market/opinion/stock/kubota/0809.html

 

スカラが上場している東証一部の情報・通信分野では、約14倍らしい(これは、予想PERではない。)

http://wariyasukabu.com/per/gyoshu/per52501.html

スカラに対して、非常に大きい。(リストにスカラがないのが、よくわからないが)

 

それぞれ、個々の銘柄に指標の大小が決まる事情があるのだろうが、それがみえてこない。

 

この辺りは、どう知識をつけていいものか、悩んでいる。

 

相場観を身に付けたい

タイトルの通り,株式市場の相場観を身に付けたい.

投資価値を測る尺度はすでに多く存在しているが,イマイチピンと来ないところがある.

 

例えばPERと呼ばれるメジャーな指標がある.この指標は,銘柄選定をする際に割安かどうかの判断基準に利用される.低い場合,割安と判断される.しかし,PERが低ければ低いほどよいというわけでもない.銘柄や業種,時々の情勢によって,基準は移り変わる.指標は数字として算出可能だが,その指標を利用した判断は人間が行う必要がある.

 

そのため,株式市場で行き交う数字に対して,自分でデータを触って,相場に対する感覚を養うことが重要だと思う.具体的には,簡易なスクリプトを組み分析を行う.

最初は役に立たない知見ばかりになると思うが,すこしずつ続けていこうと思う.

 

今回は,ふと気になったことを調べる.

 

「1週間の日経平均の値動きより大きな動きをした銘柄はいくつあるか」を調べる.

日経平均の変化率 は 1.89 % = (19469.17/19107.47 - 1)*100

この変化率より大きな変動をした銘柄数は1136

 

取得した株価のデータは4000銘柄程度なので,日経平均より大きく値動きした銘柄は市場の約1/4ということになる.(2/27は4001銘柄,03/03は4005銘柄)

 

決算期だったこともあり,変動率が大きい銘柄が多かったかもしれない.

 

こんな数値がわかったからといって,上手に投資ができるわけではないが,相場観を養う一歩目としては良いのでなかろうか.

自動走行2017年

くだらないことばっかりやってないで,物書きを少しはやろうという気を起こした.

去年,こんな記事を書いていた.

自動運転 -2015年と2016年の違い- - たかきろぐ

今回は,その後の話.

無理しない程度に,つらつらと書いていく.

続きを読む

pandas-APIマラソン始めました

最近業務でpythonをいじっているのだけど,優秀なパッケージが多い.

中でもpandas, matplotlib, numpy なんかは便利なんだと思う.(機会学習系のことをやりたいならscikit-learn.DNNを試したいならtheano, Kerasなんかがあるし.)

「なんだと思う」っていうのは,使い慣れていないから,それを調べたりするのに時間がかかる.pandasなんかはリレーショナルモデルのデータに対する操作を簡単に行えるのだけど,SQLほど直感的には書けない.

というわけで,これらのパッケージの使い方をさらってしまおうかと思っている.

まずはpandasから,pandasのAPIリファレンスって舌ったらずでわかりにくいんだよね.だから,やることは単純で,pandas.DataFrame型のattributeとmethod全てに関して一度サンプルコードを書き,備忘録として残しておく.要点なんかをまとめたブログはたくさんあるけど,網羅的にやってる人いないみたいだし.

APIは総数159個.今9個目を書き終わった.2ヶ月以内には完走したい.

「pandas-APIマラソン」でググってみてね.

OJT教育に関して思うこと

Yahooニュースにこんな記事が出た.新人教育をしていて思ったことを書く.

bylines.news.yahoo.co.jp

続きを読む

Qiitaを始める

ブログを書かなくなって早半年程度,自分のアウトプットが足りていない事に気がつく.アウトプットが少ないと,なんか自信が低下する.

そこを補うために,エンジニアとしてのチップスを書き溜めて,なるべくアウトプットを増やそうと思う.

 

話は変わるが,昨今,人口知能(機械学習)を適用する分野が後を立たない.ワトソンが医学論文を読み込み込んで患者の症例を当てたニュースは有名だし,自動走行がセンサで周囲を認識する際にも漏れずに利用されている.AlphaGOによる人間×人口知能の対戦も記憶に新しい.

 

技術者として私も,人口知能技術に手を出しているのだけど,利用するのに手間取る.

手間取る原因は大きく以下4つで,

  1. 利用する前の問題設定をはっきりさせる必要がある
  2. 問題設定を決めた際,人口知能の学習用データセットを準備する必要がある
  3. データセット(が発生したモデル)の複雑さ,手元のデータ量に応じた人口知能の種類を選択する必要がある
  4. 利用する人口知能のAPIの引数の使い方がよくわからない

1〜4の順序は実際に人口知能を利用する際に必要な順番(のつもり)で記述した.これから述べることは順番が前後するが,最後に私が着目したい点を述べる為なので気にしない.

まず3は理論的な,学習するモデルに対する知識が必要である.例えば線形回帰は,学習対象のデータが持つ誤差は正規分布を仮定している.自分の手元のデータが,仮定に合うかどうかを想像する力と,モデルに対する知識が必要で,それらを一致させることが肝要.(まぁ,いわゆる深層学習:ニューラルネットで構築するモデルはアーキテクチャの複雑さでいかなる表現も可能なので,それでやってしまえばいいのかもしれないけれど.データ量とアーキテクチャ設計に妙が出るが...)

4に関しては,パラメータが多い場合困る.全てのモデルを理論的に理解していれば良いのかもしれないけれど,なかなか難しい.例えば,単純な線形分離を行うSVMだけを理解している場合,ソフトマージンやカーネル関数の存在を知らない.この状態でSVMを利用しようとすると,それらの指定が何を意味するのかわからない.(基本,指定しなければデフォルトで動くが,ちゃんと性能を出したい場合,気持ち悪いだろう)

1と2はほぼ同義.帰納的にデータフィッテングをするだけであれば,問題設定が決まると,必要なデータセットは決まるはずである.しかし,ここにかなり重要な点がある.

2番で言う,データセットは自分の求める形でない場合がほとんどだし,異常値処理などが必要になる.「マエショリスト」という言葉もあるそうだ.

つまり,各種パッケージで提供されているデータを利用した機械学習の利用はバカでも(あるていど)できるが,その前段階の1,2を素早く実行できることが重要なのだ.

 

というわけで2を素早く行うために,最近行き着いていることに関してこれからQiitaでまとめていきたいと思う.

 

あんまり頑張らない程度に,これから記事を書いていく.

 

あと,ブログの方もなんとか復帰していく.