• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

AIは視覚障害者の目になれるか?テクノロジーで社会課題に立ち向かう「OrCam MyEye」

Ledge.ai
51
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • badge
    東京大学 大学院情報理工学系研究科電子情報学専攻 教授

    カメラに写っている状況を自然言語で記述する研究はここ数年、特にDNNの登場で大きく飛躍しました。

    私が衝撃を受けたのは下記の2つのデバイスです

    オーデコ(AuxDeco):おでこで「みる」
    https://ja.wikipedia.org/wiki/%E3%82%AA%E3%83%BC%E3%83%87%E3%82%B3

    Ontenna(オンテナ):振動と光によって、音の特徴を髪の毛から伝える
    http://ontenna.jp/


  • Onefunc CEO

    記事にあるようにアクセシビリティの世界でこういった技術は生きますね!身近なところで言えば、htmlのimgのalt属性です。

    ちなみに東京大学の何処かの研究室か誰かがコンテストとかで優勝だったか?したのと同じ技術使えますよね。画像に写っているモノをテキストで書き出すやつです。
    要は、画像からの翻訳なんだろうと思いますが、現状、大雑把に言えば機械学習での自然言語処理は基本的には「意味を知らない」ただの単語のカバンに単語が入っていて、それを解析するのが多いです。確か少し前に話題になった東大ロボ?東大受験をAIにさせるって記事も、意味まで理解せずに確率で答えている?と思います。
    というか、意味を理解するっていうのは難しい。というか出来ない気もする。そもそも意味とは哲学的で、カントの時代から対象物の理解とは何かを考え続けているぐらいですからね。人類には重い問題です。もし、それを定義するならそれは、政治でいう社会主義みたいな状況というか。。。もちろん、目の前にあるリンゴはリンゴなのですが、厳密にいうとリンゴというだけではないというか。。
    ジョンケージの4分33秒ではないですが、現代芸術にも似た要素があります。

    とにかく厳密に考えると面倒。。。だけど、作る側は考え続けなければいけない。。


  • 産業能率大学

    点字を読めるようになるまで時間がかかるし、服の色とか、スーパーの食品とか点字がカバーできない部分もある。
    それをカバーできるようになるのは素晴らしいことだなー。


    少しずれるけど、職業柄この言葉は肝に命じておきたい…

    "技術は社会的に活用されてはじめて意義がある"


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか