新着Pick
129Picks
シェアする
pick
Pick に失敗しました

人気 Picker
この辺りの処理にはNVIDIAのGPUが必須になってきましたね。今後これがさらに進むと、まさに拡大でブロックノイズが多くなった画像処理も簡単に出来るようになってきますね。弊社でもフェイク画像を見つけ出すなども出来るようになってきました。個人的にはNVIDIAのノイズ除去と弊社のフェイク画像を戦わせてみたいです。
アメリカ側のニュースで見かけた、ここではNvidia製品と五万点の画像で、と書いてあるが、それがなくてはできないわけではなく、AIは用途、アルゴリズム、訓練データ次第で小さくても大企業に勝てる、というのが今年のとあるコンテストでも証明されてる
負けるなディベロッパー
こちらでちょっとだけ詳しく載っています
https://blogs.nvidia.co.jp/2018/04/04/nvidia-deep-learning-research-gtc/
こちらに詳細な技術解説も
https://shikihuiku.wordpress.com/2018/07/04/noise2noise-learning-image-restoration-without-clean-data-%E3%82%92%E8%AA%AD%E3%82%93%E3%81%A7%E3%81%BF%E3%81%9F/

もともとの論文はこちら
https://arxiv.org/pdf/1803.04189.pdf

これまでは、例えばノイズ除去をしようと思ったら
・ノイズの乗っていないきれいな画像
・それにノイズを乗っけた画像
の2種類を用意して、ひたすらノイズ画像が元のきれいな画像に近づくようにトレーニングするしかないと思われていました。

しかし、数式をよく見ると(割愛しますが)、ノイズが平均的に0だと仮定するときれいな画像を使ってもノイズ画像を使っても、NNは実は同じものを学習しているとすることができる、というのがこの方式のポイント。

これによって、ノイズ画像だけを使って学習を進めることができます。医療画像や天体画像のように「そもそも正解が得られない」データに対しても処理できる可能性が示されました。逆に言うと、なんでも不十分なデータで学習が進むわけでもないということ。

ちなみに、ICMLは機械学習のトップ会議で、これに受かるだけでもすごいです。この手法といい、self-supervised learningといい、いろいろと面白い学習手法がでてきていて、まだまだ研究の余地はたくさんあるのだと思い知らされます。