顔から感情をリアルタイムで読み取り分類 深層学習技術で
コメント
選択しているユーザー
音声でもこういう分析出来ます。メンタルのコンディションも分かったりするとの研究成果があったはず。
あとはこれがどのように使われるかだと思います。性善の方向に使われるようにして欲しいなぁ。
注目のコメント
画像から表情を認識する技術は従来から開発が行われていますが (Microsoft FaceAPIなど https://azure.microsoft.com/ja-jp/services/cognitive-services/face/ など)、深層学習によってその精度は上がっていくでしょう。
また、感情が表情を形成するだけではなく、表情が感情を喚起することも知られています(嬉しいから笑顔になるのではなく、笑顔になるから嬉しくなる、という「表情フィードバック仮説」)。笑顔を作るように努力すると、実際にポジティブな感情が生まれてきます。私の研究室で HapinessCounterという笑顔認識フィードバックの情報家電を作っていたことがあります:
https://lab.rekimoto.org/projects/happinesscounter/
その一方で、表情は完全に非接触で計測できてしまうので、Zoom面接のときにいつのまにか機械で表情を読み取られていた、ということも出てくるでしょう。個人情報保護の観点から、表情は個人情報なのか、ということも議論になるとおもいます。倫理的には「この遠隔面接ではあなたの表情をAIによって分析記録しますが、よろしいですか」みたいなことを合意していく必要があると思います。
ただし、このニュースでは映画俳優の表情が例として挙げられているように、感情とは切り離してテクニックとして表情だけを作る(俳優は演技技術として表情をコントロールしている)ことも可能なので、そのためのツールとして使われる可能性があります...感情の研究にはそもそもEkmanの基本6感情に代表されるようなカテゴリに分類するものと、 Valence Arousal Dominance (VAD)モデルなど連続値で表現するものとが存在します。
人間の5つの基本感情(46種類)|ラマ氏とエクマン氏の感情地図
https://swingroot.com/emotion-type/
2年前、日本人の感情の表出は欧米人のそれとは違うという論文がでて話題になりました。
日本人の表情がエクマンの理論とは異なることを実証 -世界で初めて日本人の基本6感情の表情を報告-
https://www.kyoto-u.ac.jp/ja/research-news/2019-02-14-1
個人的には、このニュースが衝撃的でした。
焦点:世界初、AIで日銀総裁の表情解析 政策予想に応用も
https://jp.reuters.com/article/ai-facial-expression-kuroda-idJPKBN1CP0GHさまざまな感情は、快/不快(Valence)と覚醒度(Arousal)の二軸の円環によって分類するのが、世界各地で行われる脳科学研究の主流のようです。(ラッセルの感情円環モデル)
ただ、感情と表情の関係は、文化によって異なるという研究も出てきており、海外のモデルをそのまま日本に適用できるかは、検証が必要だと思います。
そもそも、人間ですら、顔の表情だけで感情を読み取ることは困難であり、文脈を考慮しなければ判断できないという認知科学の研究もあります。表情による感情分析は、半信半疑くらいで捉えるのが良さそうです。