• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

Google、カスタムTPUマシン、アルファ版公開――クラウドで機械学習を加速

19
Picks
このまま本文を読む
本文を読む

コメント


選択しているユーザー

  • Google Product Manager

    アルファじゃなくてベータ…
    一般にご利用頂けるようになりました。


注目のコメント

  • badge
    東京大学 大学院情報理工学系研究科電子情報学専攻 教授

    180TFLOPSだと、NVIDIAの最新GPUであるV100 (125TFLOPS)よりも性能が高いことになります。
    1TPU1時間あたり6.50ドルとのことなので、単純計算で$1=\100としても1年間丸々借りると$57,000=\570万円。いまだとちょっと割に合わないかなぁ。。。

    けれども、Googleはお金儲けをしつつ余った資源をどんどん活用して学習をすすめられるので戦うためにはそれなりの知恵が必要です。

    NVIDIA TESLA V100
    https://www.nvidia.com/ja-jp/data-center/tesla-v100/


    MSもFPGAを使った専用ハードウェアを開発しています。

    Microsoftがディープラーニングを超高速化するFPGAシステムBrainwaveをベンチマーク結果と共に発表
    http://jp.techcrunch.com/2017/08/23/20170822microsoft-brainwave-aims-to-accelerate-deep-learning-with-fpgas/


  • GROOVE X株式会社 FOUNDER,CEO,& PRESIDENT

    自律で常時まわすユースケースの多い推論はエッジでまわすトレンドになるでしょうが、学習は自律的にデータをクレンジングして取り込み常時まわすようになるまでには、まだ少し時間がかかるので、学習のクラウド化はますます進む気がします。

    その意味で推論に特化した第1世代はそれほど面白くなかったのに対して、学習もできるASICとしての第2世代がクラウドで安価に使えるようになる事は嬉しい人も多いはずで、副作用として研究者がテンソルフローに流れるという潮流が強まってもおかしくないですね。強い・・・


  • badge
    ㈱ニューロープ CEO / PIIF 准教授 / 純文学小説家

    機械学習に取り組むベンチャーはマシンリソースに苦心しているところが多いです。クラウドも悪くはないんだけど毎月何十万も払えるところは多くはないでしょう。うちはサーバとグラフィックボードを買い揃えて取り組んでいます。
    一方で自前だと場所を取ったり電源を食ったりと管理が大変なのも確かなので、クラウドのコスパがどんどん良くなっていくことは期待したいです。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか