今年のここまでの振り返りと最近の興味
完全に雑記。
6月過ぎてからは無茶苦茶忙しくて、色々とここにまとめておきたい内容はあるのだけどもまとめられないっといったところ。
何もまとめてないと忘れてしまいそうなので、最近考えてることとかをしっかりまとめておこうと思う。
そういえば目標立ててたよな
今年のはじめに目標を立ててました。
こんな感じの目標だった。
機械学習をもっと研究する、もっと使ってみる
卒業研究も機械学習(特にDeepLearningと呼ばれている領域)を用いた研究をアサインされたので、がっつり研究しているところ。
視覚情報に基いて学習を行う内容の研究なので、春先にネオコグニトロンから入り、畳み込みニューラルネットワークの理論の学習、実践へと進んでいった。
今感じていることとしては、いくつか興味深いケース(問題に対するアーキテクチャの構築、どのような正則化を行うべきか、上手く分類問題が解けない場合)があるので、そういったものに対して検証をおこなっていくと面白そう。
加えて、研究では畳み込みニューラルネットワークを使っているけれども、興味自体は制約付きボルツマンマシン、ベイジアンネットワーク、自己組織化マップに移ってきてる。
これは理由が色々とあるけれども、ある程度畳み込みニューラルネットワークが分かってきて、もっと複雑なことや他の問題を解きたいということを考えた時に、こういった技術が必要そうな感じがするということ。
Deep Learningの次の世代(CNNやAE、RBMの次の学習アルゴリズム)まで考えると、やはり畳み込みニューラルネットワークばかり研究している場合でもないかな、と。
畳み込みニューラルネットワークやオートエンコーダなどについて思っていることとかも、そのうちここに書けたらいいと思う。
OpenCVを使って何かを作る
今やってる研究でもHaar-like特徴量を使ってみたり、ヒストグラムをいじってみたりしているので、たくさんプログラムは書いた。
Matの扱いやライブラリの中身のかなり理解できた気がする。でも、まだまだいじっていないクラスもあるので時間があるときにやってみたい。今年中はこれ以上は厳しいかも。
CUDAの学習をする
これは一番達成できていない目標。GPUを使ったCNNフレームワーク自体は利用しているけれども、CUDAのコーディング自体はあまりできていない。
並列処理をして高速化しておきたいコードがいくつかあるので、研究が一段落したらやっておきたい。
(k-means++とかAutoencoderとかBackPropagationとか…)
英語の再学習
2月から3月にかけてアイルランドへ語学留学へ行ってきた。
1ヶ月しか行かなかったので、急に英語力が上がったわけではないけれども、少なからずモチベーションにはなった。
英語の論文を読んだり、自分で論文を書いていると表現をあまり知らないことに悩まされているので、ちょっと何かしないと。
英語学習に使えそうなメソッドとかソフトウェアがあれば見てみようかな。
小説を読む
夏になってから移動時間に読むようになった。
小説に限らず、色々な分野の本を読みたいなと思っているので、そのうち色々なジャンルの本を読む試みをやってみる。