AIを搭載した「自律型致死兵器システム(LAWS)」とは?
自律型致死兵器システム(LAWS)とは、AI(人工知能)を搭載し、自ら敵を殺傷するAI兵器システムのことです。
つまり、人が命令を下さなくとも、自ら敵を殺傷するAI兵器システムのことです。
LAWSとは、「Lethal Autonomous Weapons Systems」の略です。
AI兵器などを規制する国際会議での報告書
AI兵器などを規制する国際会議がスイス・ジュネーブで行われ、2019年8月22日に報告書をまとめました。
報告書の一部を抜粋すると
・攻撃の判断は人間が責任を持つ
・ロボットが人を自律的に殺傷することは認めない
・戦時の民間人らの保護を定めた国際人道法を順守する
・再び会議を開いてルールに関する議論を深める
今回は、残念ながら、法的拘束力を持つ条約などには至りませんでした。
ですから、報告書に従わなくても、何の罰則もありません。
いったん多額のお金を使って殺人ロボット兵器が大量に作られてしまうと、殺人ロボット兵器を持つ国は新しく作られたルールに従わない可能性があり、迅速にルールを作る必要があります。
AI兵器の推進派
AI兵器の開発を進めるアメリカ、イスラエル、ロシア、イギリス、韓国などは、規制に後ろ向きです。
推進派は、高度な自律能力で誤爆が避けられ、無差別攻撃がなくなると主張しています。
AI兵器の規制派
オーストリア、中南米諸国、アフリカなどの国は、法的な拘束力のある規制を求めています。
規制派は、「AIに人を殺す権限を与えていいのか。テロにも使われかねない。」と主張しております。
人間の知らないところで攻撃を始めて、紛争をエスカレートさせる危険性はあります。
サイバー攻撃などで、AI兵器が暴走することも考えられます。「仮面ライダーゼロワン」第1話でも、サイバー攻撃により、AIロボット腹筋崩壊太郎が暴走してました。
日本政府は、AI兵器の推進派それとも規制派?
日本政府は、部分的規制派であります。
日本政府は、規制の対象範囲は「完全自律型の致死性を有する兵器」との立場です。
自律型兵器システムには、間違えて民間人を殺すといった人間のエラーを減少させ、部隊の省力化・省人化といった安全保障上の意義があると、日本政府は考えているようです。
自律型致死兵器システム(LAWS)に関する政府専門家会合に対する日本政府の作業文書の提出 | 外務省
これに関しては、僕も日本政府と同じ考えです。
お金はかかりそうですが、万が一戦争が始まってしまった時に、民間人や自衛隊員の死傷者を1人でも減らすために、この立場を選ぶべきだと思います。
「殺人ロボット」阻止へ、AI研究者によるボイコット事件
2018年2月に、KAIST(大韓民国の国立大学)と韓国の防衛関連企業のハンファシステムと共同で「国防人工知能融合研究センター」設立し、人工知能を組み込んだ国防に関する研究を推進すると発表しました。
これに対して、世界30カ国のAI・ロボット研究者たちは、「KAISTのような権威ある機関が、AI兵器を開発することで、軍備競争を加速することは残念」と公開書簡で表明し、KAISTの関わるあらゆる研究プロジェクトに貢献することはないと宣言しました。
これに対して、KAISTのシン・ソンチョル学長は「学術機関として、我々は人権と倫理基準を非常に重んじています。KAISTは世界に貢献する研究を進めており、意味のある人間のコントロール下にない自律兵器を含む、人間の尊厳に反する研究活動をしないと再確認します。」と回答しました。
しかし、これを鵜呑みにできない理由があります。
ハンファシステムは、国際条約で禁止する方向で進んでいるクラスター爆弾の生産に関係しているハンファグループの子会社なのです。
また、ハンファグループのハンファテックウィンは、自律型殺人兵器「SGR-A1」の開発にも取り組んでいます。
僕自身は反韓をあおる気持ちは全くなく、むしろ韓国人とは仲良くなれると思っているのですが、韓国政府と韓国財閥企業が企んでいることを、我々はきちんと理解しておく必要があると思います。
今回の記事は以上になります。
最後までお付き合いいただき、ありがとうございますm(_ _)m