今日のオリジナル番組


詳細を確認
タブーに切り込め!ここがおかしい「日本の保険」
本日配信
93Picks
Pick に失敗しました

人気 Picker
表情分析といえば、エクマンのFACSが有名ですが、感情の分類や検出点からすると、バージョンにもよりますがFACSとは別にそれぞれ独自のやり方でやっているようにも見えます(googleはかなりFACSに近い?)

人間による感情の分類だと、ダーウィンが1872年に考案した幸福、悲しみ、軽蔑、恐怖、嫌悪、驚き、怒り、の7分類に加え、羞恥、罪悪感、畏れ、誇り、などもあります。幸福を、楽しみ、快楽、安堵、満足、などに更に分類する場合もあります。認知負荷が高い時の顔というのもあります。

しかし、こうした分類は便宜的なもので、必ずしも普遍的で適当なものではないでしょう。文化によっても表情の意味は変わります。この研究のような言語化して見える化するアプローチは、人間にとってはわかりやすいですが、重要な情報を取捨している可能性が高いです。

「大笑い」しているからハッピーとも限らないので、判別は難しそう。感情が高ぶると笑っても怒っても悲しんでも似たような筋肉が動くので、判別が難しくなります。

また、モデルさんによる表情の場合、実際の感情が伴わない演技なので、内側前頭筋など意識的に動かすのが難しい表情筋は殆ど動かないなどの問題もあるでしょう。

感情を推定しているというよりは、あくまで、「モデルがどの様な感情を意識してこの顔を作っていると、見ている人間が受け取る可能性が高いか」を推定しているに過ぎないと言ってもいいかもしれません。

これらの分析は、静止画によるものですが、表情は本来的に動的なものです。静止画からでもかなりの感情を類推することは可能で、人間がどのように受け取るかまではわかるかもしれませんが、例えば、驚きの表情は1秒以上続くと、呆然を意味していたり、感情をごまかすための意図的な表情の可能性が高いです。

既に多くの研究がありますが、時系列の高解像度高フレームデータで、表情筋だけでなく、瞳孔半径、眼球振動、瞬き頻度、心拍変動、ジェスチャー、なんかも非接触で計測できると、もう少し性格な情動状態評価が可能になるかも知れませんね。
こういった実際にやってみた系記事、大好き!
結果は記事を見て欲しいが、感情・表現の言語化をどれだけできるかが、正確な結果にもつながると思う。
外資の大手メーカーに勤務する友達が以前言っていて記憶に残っているのが「日本は市場としては競争も激しく、規模も中国などが大きい。だけど、開発した製品を試すという点では、消費者の品質へのこだわりと、それを表現する言葉が多いから、いまだに強い」と言っていたこと。
各社によって表現も違うが、表現のパラメータをどれだけ上手く定義できるかも認識精度に影響しそう。

なお、本特集、昨日は「双子を見分けられるか」だった。
https://newspicks.com/news/3130416
不謹慎上等のwebメディアに渡してむちゃくちゃやって欲しい
人の感情のデータか、すごい