• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

話題のAIスピーカー「アレクサ」に思わぬ弱点があった

431
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

注目のコメント

  • badge
    東京大学 大学院情報理工学系研究科電子情報学専攻 教授

    視覚的にDNNを騙すAdversarial Example (敵対的データ)となる画像を生成する技術は研究が進んでいますが、その音声版。これはセキュリティホールなどとはちょっと概念が異なります。

    技術としてはいたちごっこで、騙す画像を生成する技術とだまされないようにする技術が交互に開発されています。ただ、現状ではどんなにだまされないようにしても、騙すほうが勝利しているようです。

    下記はAdversarial Examplesに関するまとめ論文。

    Adversarial Examples: Attacks and Defenses for Deep Learning
    https://arxiv.org/abs/1712.07107


  • 文教大学 准教授

    たしかにAIスピーカーをハッキングされると、ただの盗聴器になってしまう。家中にAIを仕込むという取り組みもあるようなので、サイバーセキュリティには十分に注意すべきだろう。


  • 富士通フューチャースタディーズ・センター 主任研究員

    大げさ、セキュリティホールはつぶしあい。
    見つかって潰してまた見つかって潰す、そのためのセキュリティ発表。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか