「ロボットの犯罪」裁けるか 米ロースクールの先進講義 宮本和明 米ベンチャークレフ代表
コメント
選択しているユーザー
ロボットが罪を償うために、プログラマが罪を償うロジックを組むのかな。
注目のコメント
命題は「ロボット自身に責任を問えるか」ということですが、これが民事なのか刑事なのかで話は変わってくるのではないかと。コンテクストからすれば刑事責任のことを言っていると思います。
民事責任であれば、結局は賠償責任なので、このロボットを製造した自動車メーカーが責任を問われ(製造物責任)、あとは反論として、「犯罪が起きることをロボットには予見できず、それを阻止できる状態にはなかった」ということを言って賠償責任を免れさせることを認めるかどうかだと思います。
(とはいえ、人工知能というのは単なるロボットとは違い、自分で学習し、思考するので、そこから生じることに製造者が全ての責任を負うということにすれば、それをおそれて開発するメーカーいなくなってしまう可能性もあります。)
刑事責任を問えるかですが、刑罰は刑務所に入れるとかそういう話ではなく、そのロボット本体を潰すなどということか、あるいは罰金刑なのでしょう。罰金刑の場合はやはり製造者が支払うという構図になります。ロボット本体を潰すというのは、ありえるのやもしれません(再犯防止のために)。しかし、同じプログラミングシステムで動くロボットが何台もいるのであれば、それだけを潰したところでっていう感じですよね。
本文で、メキシコ湾岸油田の事故の際に、企業であるBPが刑事責任を負うということで、「Moral Agentは意識を持った生命体でなく、企業にも適用されるという解釈がなされた」ということをおっしゃっています。とはいえ、企業についても、中身は取締役会のある自由意思をもった行動主体なので、人工知能と異なることもないのではないかと思います。
核心はやはり、人工知能が「善悪を判断できる能力がある存在」といえ、規範意識を持てるかだろうと思います。
これが肯定されれば刑事責任も問えますし、無理なら従来のロボットと同じく刑事責任は問えないということになるのではないでしょうか。
いやー、難しい。書いていて、自分でもわからないことがたくさんあります。