Google、カスタムTPUマシン、アルファ版公開――クラウドで機械学習を加速
コメント
選択しているユーザー
注目のコメント
180TFLOPSだと、NVIDIAの最新GPUであるV100 (125TFLOPS)よりも性能が高いことになります。
1TPU1時間あたり6.50ドルとのことなので、単純計算で$1=\100としても1年間丸々借りると$57,000=\570万円。いまだとちょっと割に合わないかなぁ。。。
けれども、Googleはお金儲けをしつつ余った資源をどんどん活用して学習をすすめられるので戦うためにはそれなりの知恵が必要です。
NVIDIA TESLA V100
https://www.nvidia.com/ja-jp/data-center/tesla-v100/
MSもFPGAを使った専用ハードウェアを開発しています。
Microsoftがディープラーニングを超高速化するFPGAシステムBrainwaveをベンチマーク結果と共に発表
http://jp.techcrunch.com/2017/08/23/20170822microsoft-brainwave-aims-to-accelerate-deep-learning-with-fpgas/自律で常時まわすユースケースの多い推論はエッジでまわすトレンドになるでしょうが、学習は自律的にデータをクレンジングして取り込み常時まわすようになるまでには、まだ少し時間がかかるので、学習のクラウド化はますます進む気がします。
その意味で推論に特化した第1世代はそれほど面白くなかったのに対して、学習もできるASICとしての第2世代がクラウドで安価に使えるようになる事は嬉しい人も多いはずで、副作用として研究者がテンソルフローに流れるという潮流が強まってもおかしくないですね。強い・・・機械学習に取り組むベンチャーはマシンリソースに苦心しているところが多いです。クラウドも悪くはないんだけど毎月何十万も払えるところは多くはないでしょう。うちはサーバとグラフィックボードを買い揃えて取り組んでいます。
一方で自前だと場所を取ったり電源を食ったりと管理が大変なのも確かなので、クラウドのコスパがどんどん良くなっていくことは期待したいです。