なぜiPhoneは人間の顔を見分けられるのか脳とコンピュータの意外な違いと共通点
コメント
注目のコメント
DNNの凄さについて補足します。
DNNの登場以前は、この記事で書かれている画像の特徴量は人間が計算方法を考えていました。
例え話をします。りんごとバナナを見分けるAIを作りたいと考えます。あなただったらどんな特徴を使いますか?そう、色を使いたくなりますよね。赤ければりんご、黄色ければバナナです。
それでは、青りんごと熟してないバナナがきたら?今度は色では無理です。多くの人が形状をみればいいとお考えになるでしょう。
これをどんどん突き詰めていったのがDNN以前の画像認識でした。DNNのすごいところは特徴量を人間ではなくNNそのものが与えられた学習データから自動的に抽出するようにした点です。
例を変えて、犬と猫を分類するAIを作ることを考えましょう。みなさんはどんな特徴に注目しますか?これはちょっとむずかしいですね。できれば読み進めずにここで止まって考えてみてください。
AIは鼻を重点的に見ているということがわかっています。鼻が長ければ犬、短ければ猫と答えているようです。もちろん、パグみたいな例外もいますが、あくまでも統計的な話です。AIの特徴を表す現象として、背景も見ているようです。芝生が写っていれば犬と答えているようです。もちろん、芝生を駆け回る猫がいないとは言いませんが、統計的に考えると圧倒的に犬の確率が高い。
一部の人は「犬と猫を見分けろと言ったのに背景をヒントにするのは卑怯ではないか」と思われるかもしれません。これがまさに人の発想の限界なのです。私は一言も「背景を使うのはNGです」と申し上げていませんので、犬と猫を見分けるのに、動物の領域ではなく背景を使っても当然いいわけです。これがAIと人間の大きな違いで、まさに将棋や囲碁でも衝撃を与え続けているのは先入観がないからこそです。
ただ、AIは常に賢いのかと言うとそんなことはありません。私が実際に経験した例だと皮膚病の種類を判定するAIを研究していたときにどうしても上手く行かないことがありました。どうしてだろう?と思っていると、皮膚科医が写真を撮るときに見やすいようにと皮膚上にマジックで描いた点や矢印を見ていたのです。人間はそんなものを無視して病巣そのものをみるわけですが、AIは矢印をヒントにしてしまったのでそれ以外の画像には無力になってしまったという実例。そして、これがAIのバイアスの正体。iPhoneのFace IDは応答速度が超早くて快適。
いまさら物理ボタンのTouch IDに戻れない。
画面全体が広く使えるメリットも大きい。
どうしてもTouch ID復活させるなら、Androidみたいなサイドボタンで良いです。デザイン壊さず、ユーザビリティを損ねない範囲で。
ただ、Face IDも風呂入って顔が濡れまくりだとまったく無反応と言う弱点笑
最終的には生体認証チップしかないかな。
あるいは、体全体の生体情報そのものを暗号化して、センサーで読み取らせるなら、チップ埋め込みも不要?