有料コンテンツの購読
現在、Web上での有料コンテンツ購読機能は準備中です。 ご不便をおかけしますが、有料コンテンツを購読希望の方は モバイルアプリ上で購読の手続きを行ってください
認証方法を選んでください
ご協力いただきありがとうございます。 いただいた情報は実名認証のみに使用いたします。
利用可能になる機能
コメントの公開範囲が すべてのユーザーまで開放されます
フォロー中トピックスの投稿にコメント・返信ができるようになります
Facebookで認証を行う
LinkedInで認証を行う
名刺・学生証で認証を行う
お名前の変更には 再度実名認証が必要です
Facebookで認証を行う
LinkedInで認証を行う
名刺・学生証で認証を行う
名刺または学生証を利用して 実名認証を行いましょう
名刺または学生証をアップロード
※ 名刺等の情報は照合にのみ利用します
※ アップロードされた資料は公開されません
入力された情報に虚偽があった場合、認証が取り消されることがあります。 これに同意の上、下記のチェックボックスにチェックして登録を完了してください。
実名認証を行う
を利用して 実名認証を行いましょう
入力された情報に虚偽があった場合、認証が取り消されることがあります。 これに同意の上、下記のチェックボックスにチェックして登録を完了してください。
実名認証を行う
実名認証が完了しました
ご協力いただきありがとうございました。 一層のコミュニティ活性化に取り組んで参ります。引き続きNewsPicksをご活用ください。
利用をつづける
実名認証をして コメントを発信しよう
現在あなたのコメント公開範囲は フォロワーのみに限定されています
信頼性の高いコメントコミュニティをつくっていくために、実名認証にご協力をお願いします。設定を行うことでコメントの公開範囲が「すべての利用ユーザー」 に開放されます。
実名認証を行う
あとで
学割プラン継続確認
学割プランは毎年 月に更新の確認を行っております。
月以降も学割プランを継続されたい方は、 学生情報を更新してください。 学生情報を更新されない場合、 次回更新時に自動解約となります。 卒業される方等、プレミアムプランに移行される方には 1ヶ月無料期間をサービスいたします。
学割プランを更新されない場合
学生の場合
学生の間であれば、またいつでも学割プランにお申込み頂けます。
社会人になる場合
いま、アンケートに答えてプレミアムプランに移行すると1ヶ月無料の特典が受けられます。 ここで「更新しない」を選択すると、後からは1ヶ月無料の特典は受けられなくなりますのでご注意ください。
メール認証をしてください
ご登録いただいたメールアドレス宛に届くメールから URLをクリックし本人確認をお願い致します。 届いてない場合、見つからない場合は下記から再送と認証をお願い致します。
再送設定する
閉じる
新しいトップページへの フィードバックのお願い フィードバックを受けて改善いたしますので、ご意見・ご要望をいただけませんか?
ご意見・ご要望はこちらまで 閉じる
今後、法的拘束力のある国際的なルール作りを求める声が、さらに高まると予想されます。
これまでも無人機による攻撃はありましたが、操縦員による遠隔操作で、対象設定などにヒトが介在していました(Human in the loop)。
今回は、AIによる識別機能により、操縦者の指令なしで、目標を認識・対象設定・追尾・攻撃したとされています。記事中で岩本誠吾教授がおっしゃる通り、技術的には比較的簡易な構造であるものの「世界初のケースで一線を越えたといえる」。
特定通常兵器使用禁止制限条約(Convention on Certain Conventional Weapons:CCW)での議論など、これまでの経緯については、外務省サイトなどを参照ください。
https://www.mofa.go.jp/mofaj/dns/ca/page24_001191.html
なお、(LAWS以外の)AIと安全保障の全般については、人工知能学会倫理委員会が2018年に企画セッション「AIに関わる安全保障技術を巡る世界の潮流」を実施しており、その記録が参考になると思います。
http://ai-elsi.org/archives/725
国によって主張する定義が異なり、また「人間の関与がない」ということが何を指すのか(目標捕捉から実際に攻撃を行う間に人間が操作を行うという段階がなければ駄目なのか、人間が遠隔で監視できている状態ならいいのか、等)についても議論が多くあります。
AIを備え、自動的に目標を攻撃する兵器、あるいはAIで自律的に行動するロボットは、既に米中イスラエルなど有していますが、問題はAIの汎用性や人間の関与が求められる程度、攻撃目標がヒトかモノかで扱いを分けられるのか、などといった点かと思われます。
さらに、少子化と省人化が進む中で、自衛隊の犠牲を出す恐れがあっても人間が敵を攻撃しに向かうべきなのか、人間は機械より人道的・合理的な判断ができるのか、というような難しい問題もはらんでいます。
現在はLAWSについて外務省HPにあるように
「人間の関与なしに自律的に攻撃目標を設定することができ、致死性を有する「完全自律型兵器」を指すと言われているものの、定義は定まっていません。」
という状況のはずなので、そこだけ強調しておきます。
https://www.mofa.go.jp/mofaj/dns/ca/page24_001191.html
本件は、河野大臣の関心の高い領域ですね。
https://undocs.org/Home/Mobile?FinalSymbol=S%2F2021%2F229&Language=E&DeviceType=Tablet
STM Kargu-2
https://youtu.be/Oqv9yaPLhEk
それを、5月にニューサイエンティストが「世界初の自律攻撃か?」というタイトルで書いたために、それをNYTなど米一般紙が「AI兵器」「ロボット兵器」だのと煽り記事を書き、それが今になって日本に広がってきたものです。
https://www.newscientist.com/article/2278852-drones-may-have-attacked-humans-fully-autonomously-for-the-first-time/
Fukatsuさんご指摘の通りLAWSはCCWのGGE(専門家会合)で6年前から議論されていますが、定義が曖昧で、どこまで人間の関与がなければそう言えるのかは微妙なラインです。言葉通りであれば、地雷もLAWSに入ってしまいますし、画像認識を用いてターゲットを識別する誘導ドローンは、一般的にLAWSとみなされません。
Neil Davisonによれば、「人間の関与(human control)なしに 探査や探知、特定、追尾又は選定し、ターゲットに対し自律的に武力を行使し、ターゲッ トを無力化、損耗又は破壊する全ての兵器システム」ですが、これがまあしっくり来ますね。
専門家の間でも、国連の報告書で指摘されているリビアで使われたドローンに関して、LAWSとは言えなかったのではないかという評価が多いです。