新着Pick
434Picks
シェアする
pick
Pick に失敗しました

人気 Picker
大げさ、セキュリティホールはつぶしあい。
見つかって潰してまた見つかって潰す、そのためのセキュリティ発表。
こういうリスクは想定内のものと思います。これからハッカーとの間でずっとイタチごっこが繰り返されるのでしょうね。
視覚的にDNNを騙すAdversarial Example (敵対的データ)となる画像を生成する技術は研究が進んでいますが、その音声版。これはセキュリティホールなどとはちょっと概念が異なります。

技術としてはいたちごっこで、騙す画像を生成する技術とだまされないようにする技術が交互に開発されています。ただ、現状ではどんなにだまされないようにしても、騙すほうが勝利しているようです。

下記はAdversarial Examplesに関するまとめ論文。

Adversarial Examples: Attacks and Defenses for Deep Learning
https://arxiv.org/abs/1712.07107
攻殻機動隊みたいな世界ですね。笑
例えば高額な時計を100個注文するとか、そういう明らかな異常値は検知して回避できるとして、自動運転のハックはなかなかに厄介そうな問題。
100%の精度が求められる自動運転実現までの課題は山積みですね。
コレはスマートスピーカーに限らない話。
機械学習させるならどれでも起きうるハナシです。
なるほどー
IOT はどれだけIOT 的じゃないものにするかが重要だとは思います。
確かに。サブリミナルで催眠術かけられたりもしそう。。。


ブラジルではまだそれなりに怪しい事故が政治家や事業家に起きたりしますし。
セキュリティで大切な事は、多重防御する事です。
これをDifference in Depth と言います。
安全性に関わる事をアレクサの音声コマンドだけで
認証してはいけません。

航空機設計ではこの考えは、全てに応用されて
います。

センサーが間違った信号出していた場合、どうやって
判断するのか?です。

だから多重化をするのです。
これはSiriの登場時からずっと言われてきた事です。

Siriも含めメジャーどころの音声アシスタントは発話者の声紋認識をしません。仮に精度が高い声紋認識を認証に取り入れたとしても、ランダムな発話から任意のフレーズを発話を生成させることはAdobe MAXで既にプレビューされてますから、精度の問題をクリアされれば乗り越えられてしまう話です。要は音声のみによって命令可能発話者を特定する事は技術的には長期的な展望は望めないという事です。

以前からずっと思ってたんですが、音声アシスタント技術にはアイトラッキングや顔認証の技術を盛り込むべきだと思ってます。
https://newspicks.com/news/1363389?ref=user_228865

アイトラッキング以外にももっと小さな認証デバイス(例えば指輪型とか)等との連携によって複数要素認証を実現する案はいくらでもあると思いますが、複数のデバイスを持ち込む時点で利便性が急激に落ちるので現実味がないです。
AIスピーカー、使ってみたいのですが、こういう話を聞くと、やはりかなりリスクがありそうですね。
Amazon.com, Inc.(アマゾン・ドット・コム)は、アメリカ合衆国・ワシントン州シアトルに本拠を構えるECサイト、Webサービス会社である。アレクサ・インターネット、A9.com、Internet Movie Database (IMDb) などを保有している。 ウィキペディア
時価総額
96.7 兆円

業績