• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

「ロボットの犯罪」裁けるか 米ロースクールの先進講義 宮本和明 米ベンチャークレフ代表

日本経済新聞
55
Picks
このまま本文を読む
本文を読む

コメント


選択しているユーザー

  • CARDANO Labo Vietnam Co., Ltd. System Engineer & Group Relation Div. manager

    ロボットが罪を償うために、プログラマが罪を償うロジックを組むのかな。


注目のコメント

  • 慶應義塾大学 准教授 (SFC/総合政策)


    自動運転の最大の障壁である法と倫理の議論。
    技術的なボトルネックよりも、こちらのほうがはるかに重要で、解決が難しい。


  • badge
    弁護士(スマートニュース株式会社/法律事務所ZeLo/NPO法人Mielka)

    命題は「ロボット自身に責任を問えるか」ということですが、これが民事なのか刑事なのかで話は変わってくるのではないかと。コンテクストからすれば刑事責任のことを言っていると思います。

    民事責任であれば、結局は賠償責任なので、このロボットを製造した自動車メーカーが責任を問われ(製造物責任)、あとは反論として、「犯罪が起きることをロボットには予見できず、それを阻止できる状態にはなかった」ということを言って賠償責任を免れさせることを認めるかどうかだと思います。
    (とはいえ、人工知能というのは単なるロボットとは違い、自分で学習し、思考するので、そこから生じることに製造者が全ての責任を負うということにすれば、それをおそれて開発するメーカーいなくなってしまう可能性もあります。)

    刑事責任を問えるかですが、刑罰は刑務所に入れるとかそういう話ではなく、そのロボット本体を潰すなどということか、あるいは罰金刑なのでしょう。罰金刑の場合はやはり製造者が支払うという構図になります。ロボット本体を潰すというのは、ありえるのやもしれません(再犯防止のために)。しかし、同じプログラミングシステムで動くロボットが何台もいるのであれば、それだけを潰したところでっていう感じですよね。

    本文で、メキシコ湾岸油田の事故の際に、企業であるBPが刑事責任を負うということで、「Moral Agentは意識を持った生命体でなく、企業にも適用されるという解釈がなされた」ということをおっしゃっています。とはいえ、企業についても、中身は取締役会のある自由意思をもった行動主体なので、人工知能と異なることもないのではないかと思います。

    核心はやはり、人工知能が「善悪を判断できる能力がある存在」といえ、規範意識を持てるかだろうと思います。
    これが肯定されれば刑事責任も問えますし、無理なら従来のロボットと同じく刑事責任は問えないということになるのではないでしょうか。

    いやー、難しい。書いていて、自分でもわからないことがたくさんあります。


  • スタートアップ リーダー

    社会的に何を求めどこまで受け入れるかによっても、議論は大きく変わると思う。色々考えさせられる内容ではある。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか