EU、初のAI規制案 公共空間の顔認証「原則禁止」
コメント
選択しているユーザー
MITの研究員時代、同じ建物の同じフロアに、この分野の世界的権威であるTomaso Poggio博士のラボがあったので、自分の専門外でしたがよくセミナーを聞いていました。顔認証システム(Face recognition system)の進化は、確かに犯罪防止の観点である一定の成果を上げてきましたし、DARPAやARLといった軍事関係グラントが私たちの生活に直結した一つの例かもしれません。
深層学習と組み合わせて、さらに機能が向上してきた中で、EUがこのような決定をしたのは、非常に興味深いです。「犯罪抑止力」という目の前の実利よりも、「法的正当性をもう一つ落ち着いて問いただそう」という、ある種、極めてEUらしいディレクションのように思います。
一方で、詳細を追い切れていませんが、「原則禁止」の中にどの程度、個人と切り離した情報が許可されるのかも気になりました。例えば、「男性や女性の解析」は許されるのか、「笑ってるか、泣いているかといった表情の解析」は許されるのか。ゲノム情報の取り扱い経緯を考えれば、表情情報は可変であり、個人と紐づけられない限りにおいては、本件には抵触せず、マーケティング価値の大きい情報といえます。
今後の他国(特にUS)の動きに注目しています。
ーーーーーーーーーーーー
余談ですが、2020年4月のScience誌に人工知能を使ってマウスの表情を解読し、さらに特定の感情と相関して活動する神経細胞が明らかになったという研究が発表されました。痛い時、苦いものでウェーっとなってる時、甘いもので嬉しくなってる時などで、微妙に表情が違うのが面白いです(Figure1)。
Facial expressions of emotion states and their neuronal correlates in mice
https://science.sciencemag.org/content/368/6486/89
注目のコメント
2001年の同時多発テロ以降、欧米ではとにかく人権よりもテロ対策が最優先されてきたが、それも一段落付き、今後は人権や個人情報重視の方に振り子が戻るのだろう。ただし今後も中国は国民の顔データを収集し続けるようなので、顔認証等の技術は中国が独占していく可能性はある。
EUのAI規制案によると、顔認証をはじめとする生体認証技術は、公共空間における警察などによる法執行目的での利用を原則禁止するとのこと。テロを初めとする犯罪の未然防止対策を実施するとき、マイナスになることはないのか心配になる。人権を保護することは重要だけど、同時に大規模なテロを大都市の混雑にまぎれて準備するグループを事前に発見する上では有効なのだから。
この問題でいつも思い出すのは、AIの人格や人権です。
人工知能が発達し、将来人間がコントロール出来ない状態に陥り“暴走”したりしないか… 日本の人工知能学会の倫理委員会が、AIの倫理指針を2017年にまとめています。
http://ai-elsi.org/report/ethical_guidlines
最後の項目に「(人工知能への倫理遵守の要請)人工知能が社会の構成員またはそれに準じるものとなるためには、上に定めた人工知能学会員と同等に倫理指針を遵守できなければならない」とあります。
AIが、“社会の構成員”となる日は、近付いているのだと思います。