社説

社説[殺人ロボット兵器]開発を禁止にすべきだ

2019年9月3日 08:29

 人工知能(AI)を備え、自動で標的を識別して攻撃の判断を行う「殺人ロボット兵器」の規制に関する国連公式専門家会議がスイス・ジュネーブで開かれ、2017年11月から続いてきた同会議の報告書をまとめた。

 報告書は兵器運用にあたって、戦時の民間人らの保護を定めた国際人道法を順守することや、兵器使用の判断には人間が責任を持たなければならないことなどの指針を盛り込んだ。国際ルールづくりの土台となるとみられ、一定の前進と評価したい。

 だが、兵器開発を進める米国やロシア、イスラエルなどは規制に後ろ向きのため、中南米諸国や非政府組織(NGO)が求める法的拘束力を持つ条約などによる規制方針の明記には至らなかった。

 殺人ロボット兵器を巡っては、対人地雷などを禁止してきた特定通常兵器使用禁止制限条約(CCW)の枠組みで13年から議論を重ねている。

 殺人ロボット兵器が人間を殺りくする判断をし実行することは倫理上許されるはずがない。実際に出現してからでは遅く、その前に歯止めをかける必要がある。

 CCWは全会一致が原則のため法的拘束力を持つ形式を取るのは困難との見方もある。報告書は、来年から2年間さらに協議を続け、21年のCCW再検討会議に向けて「規範・運用枠組み」の策定を目指すとしている。

 感情のない殺人ロボット兵器が何のためらいもなく標的を攻撃する悪夢のような世界にしないためにも、非人道的な殺人ロボット兵器の開発を禁止にするよう粘り強く取り組んでもらいたい。

    ■    ■

 AIの判断だけで人を殺傷する兵器は「自律型致死兵器システム(LAWS)」と呼ばれる。軍事的観点からみれば、銃、核兵器に次ぐ「第三の革命」といわれ、戦争の在り方を根本的に変える。

 アフガニスタンやイラクで米軍が使用している無人攻撃機などは人間が遠隔操作をするが、殺人ロボット兵器には人間が介在しない。

 人類はこれまでに経験したことがない問題に直面することになる。倫理的問題に加え、殺人ロボット兵器の投入で自国兵士の死傷が避けられるため、戦争を始めるハードルが低くなるのではないかとの懸念が現実味を帯びる。

 テロリストや独裁者の手に渡った場合は、大虐殺が起こりかねない。殺人ロボット兵器が故障や誤作動を起こし、サイバー攻撃によって乗っ取られる恐れも消えない。

    ■    ■

 米軍キャンプ・ハンセンで17年5月、無人機やロボットなど戦闘地に投入する最新兵器の実用性を試験する実戦部隊が展開したことがある。殺人ロボット兵器との直接の関連は不明だが、無人化やハイテク化が共通していた。

 日本は殺人ロボット兵器を開発する意思はないが、民生ロボットやAIの技術革新を阻害することがあってはならないとの立場である。

 人道上も倫理上も重大な問題をはらむ殺人ロボット兵器の開発を進める国に対し、日本は禁止する方向へ導く積極的な働き掛けをしてほしい。

前の記事へ 次の記事へ
沖縄関連、今話題です(外部サイト)
JavaScriptをOnにしてください
アクセスランキング
ニュース 解説・コラム
24時間 1週間
注目トピックス