人工知能は「第2の核兵器」になるかもしれない──「自動化された戦争」を避けるためにすべきこと
コメント
選択しているユーザー
注目のコメント
AIの問題と自律ロボットの問題は別。
兵器の自律化は、既に随分前から進められている。
戦闘機もF35が最期と言われている。
人を載せない方が安くて確実だからである。
何でもAI問題にしてしまうのには、違和感がある。AIや自律ロボットなどは戦争を大きく変えてしまう。核爆弾や化学兵器と変わらない。開発や保有に関しては国際社会で規制していかないと取り返しがつかないことになる。
人工知能の中身は依然としてブラックボックスに近い。計算の道筋はわかるが、なぜそういう結果になったのかを説明するのは難しい。マシンは人間の考える枠組みで動く訳ではないので、人間がうまく理解できない領域でもお構いなしに踏み込んでいく。だから説明しては「結果としてそうなった」としか言いようがない。人を殺す理由もおそらくうまく説明できないであろうから困難な問題だ。人間と人工知能の間の翻訳機があればいいのにと思う。