AIは視覚障害者の目になれるか?テクノロジーで社会課題に立ち向かう「OrCam MyEye」
コメント
注目のコメント
カメラに写っている状況を自然言語で記述する研究はここ数年、特にDNNの登場で大きく飛躍しました。
私が衝撃を受けたのは下記の2つのデバイスです
オーデコ(AuxDeco):おでこで「みる」
https://ja.wikipedia.org/wiki/%E3%82%AA%E3%83%BC%E3%83%87%E3%82%B3
Ontenna(オンテナ):振動と光によって、音の特徴を髪の毛から伝える
http://ontenna.jp/記事にあるようにアクセシビリティの世界でこういった技術は生きますね!身近なところで言えば、htmlのimgのalt属性です。
ちなみに東京大学の何処かの研究室か誰かがコンテストとかで優勝だったか?したのと同じ技術使えますよね。画像に写っているモノをテキストで書き出すやつです。
要は、画像からの翻訳なんだろうと思いますが、現状、大雑把に言えば機械学習での自然言語処理は基本的には「意味を知らない」ただの単語のカバンに単語が入っていて、それを解析するのが多いです。確か少し前に話題になった東大ロボ?東大受験をAIにさせるって記事も、意味まで理解せずに確率で答えている?と思います。
というか、意味を理解するっていうのは難しい。というか出来ない気もする。そもそも意味とは哲学的で、カントの時代から対象物の理解とは何かを考え続けているぐらいですからね。人類には重い問題です。もし、それを定義するならそれは、政治でいう社会主義みたいな状況というか。。。もちろん、目の前にあるリンゴはリンゴなのですが、厳密にいうとリンゴというだけではないというか。。
ジョンケージの4分33秒ではないですが、現代芸術にも似た要素があります。
とにかく厳密に考えると面倒。。。だけど、作る側は考え続けなければいけない。。点字を読めるようになるまで時間がかかるし、服の色とか、スーパーの食品とか点字がカバーできない部分もある。
それをカバーできるようになるのは素晴らしいことだなー。
少しずれるけど、職業柄この言葉は肝に命じておきたい…
"技術は社会的に活用されてはじめて意義がある"