191Picks
Pick に失敗しました

選択しているユーザー
さまざまな感情は、快/不快(Valence)と覚醒度(Arousal)の二軸の円環によって分類するのが、世界各地で行われる脳科学研究の主流のようです。(ラッセルの感情円環モデル)

ただ、感情と表情の関係は、文化によって異なるという研究も出てきており、海外のモデルをそのまま日本に適用できるかは、検証が必要だと思います。

そもそも、人間ですら、顔の表情だけで感情を読み取ることは困難であり、文脈を考慮しなければ判断できないという認知科学の研究もあります。表情による感情分析は、半信半疑くらいで捉えるのが良さそうです。
人気 Picker
画像から表情を認識する技術は従来から開発が行われていますが (Microsoft FaceAPIなど https://azure.microsoft.com/ja-jp/services/cognitive-services/face/  など)、深層学習によってその精度は上がっていくでしょう。

また、感情が表情を形成するだけではなく、表情が感情を喚起することも知られています(嬉しいから笑顔になるのではなく、笑顔になるから嬉しくなる、という「表情フィードバック仮説」)。笑顔を作るように努力すると、実際にポジティブな感情が生まれてきます。私の研究室で HapinessCounterという笑顔認識フィードバックの情報家電を作っていたことがあります:

https://lab.rekimoto.org/projects/happinesscounter/

その一方で、表情は完全に非接触で計測できてしまうので、Zoom面接のときにいつのまにか機械で表情を読み取られていた、ということも出てくるでしょう。個人情報保護の観点から、表情は個人情報なのか、ということも議論になるとおもいます。倫理的には「この遠隔面接ではあなたの表情をAIによって分析記録しますが、よろしいですか」みたいなことを合意していく必要があると思います。

ただし、このニュースでは映画俳優の表情が例として挙げられているように、感情とは切り離してテクニックとして表情だけを作る(俳優は演技技術として表情をコントロールしている)ことも可能なので、そのためのツールとして使われる可能性があります...
感情の研究にはそもそもEkmanの基本6感情に代表されるようなカテゴリに分類するものと、 Valence Arousal Dominance (VAD)モデルなど連続値で表現するものとが存在します。

人間の5つの基本感情(46種類)|ラマ氏とエクマン氏の感情地図
https://swingroot.com/emotion-type/


2年前、日本人の感情の表出は欧米人のそれとは違うという論文がでて話題になりました。

日本人の表情がエクマンの理論とは異なることを実証 -世界で初めて日本人の基本6感情の表情を報告-
https://www.kyoto-u.ac.jp/ja/research-news/2019-02-14-1


個人的には、このニュースが衝撃的でした。

焦点:世界初、AIで日銀総裁の表情解析 政策予想に応用も
https://jp.reuters.com/article/ai-facial-expression-kuroda-idJPKBN1CP0GH
顔の表情をリアルタイムに読み取る技術はCrimson Global Academy でも導入準備を進めています。先生も表情を確認しながら授業のファシリテーションを進める事ができるので効果が期待できます。オンライン教育ならでの発展です。
表情が豊かな欧米人と違って、日本人は相対的に喜怒哀楽の表情変化が少ないので、日本人の表情データセットもたくさんAIに食べさせた方が良いですね。心理学研究で著名なエクマン博士の理論と、日本人の基本6感情の表情が食い違っているという研究結果を、以前に京都大学も発表していましたし。
バラエティ番組でも全ての発言にテロップがついたことで、各々が汲み取る能力が衰えてしまったように、
オンラインでないと、人の表情がわからない、となったら怖いですね…
エクマン流の感情カテゴライズというアプローチは、「本質主義」(つまり、感情には本質があって、その要素に分解できる)と呼ばれる落とし穴に落ちていて、どれだけ精度を上げようとしても、そもそも正解データすらないという壁を永遠に超えることはできません。

文化差はさることながら(例えば、公共の場で嬉しくても笑わない、苛ついたらむしろ笑顔で対応するなど、気持ちを隠そうとする度合い等)、感情は経験や時系列などの文脈にも大きく依存するので、そもそも顔からわかることは限られているし、それどころか実際の感情を表していないことが多いです。

また、このシステムはリアルタイムを標榜していますが、例えば驚いた顔が2.5秒継続すると、実際には驚いていないことが多いことが知られていますが、そういった時系列変化や、逆に意図的に動かしにくい内側前頭筋が動いている瞬間か否かを判断するということは行っているのでしょうか。

特殊な環境下における判断や、多数に対する傾向を知ることはできても、個人の感情をリアルタイムに表情から判定するなどということが、本当にできるとは私には思えません。

毎日一緒に過ごしている嫁の表情を読み取ることだって相当に難しい。
音声でもこういう分析出来ます。メンタルのコンディションも分かったりするとの研究成果があったはず。
あとはこれがどのように使われるかだと思います。性善の方向に使われるようにして欲しいなぁ。
表情から感情を読み取る研究では、エクマンが第一人者です。

数年前の研究結果では、表情から「嘘を言っているか否か」をAIが84%(?)の確率で正答したと聞きました。

嘘だけでなく、様々な感情もAIで読み取れる時代がやってきたのですね〜。

「感情表現は文化的な影響を受けない」というのがエクマンの考えだと記憶していますが、どうやらそれも違っているようです。
自社の技術の限界を熟知している、すばらしい企業と開発者だと思います。

以下の文面は、この技術の限界を明確に示しており、これだと使えないという印象もありますが、それを敢えて、直球で記載しています。

(以下、記事中から引用)
 留意点は、顔の表面に現れる表情のみから分析するため、見た目は笑っているけど心では怒っているといった隠れた感情を解析できないこと。また感情表現は普遍的ではなく、文化的背景によって解釈が異なるため、訓練データによっては偏りが出ることが挙げられた。

※個人的な見解であり、所属する会社、組織とは全く関係ありません