The Green Catalyst
The Green Catalyst
Creating futures we can believe in

戦闘行為/戦争における人工知能の未来の役割について

Yoko Marta
20.04.22 01:58 PM Comment(s)

REITH LECTURE 2021より

AI (Artificial Intelligence - 人工知能)について、イギリスの国営放送BBCのStuart Russel(スチュアート・ラッセル)さんが行った講義の2回目。

人工知能は、すでに中近東の戦争でも兵器に搭載され、殺人に使われています。
例えば、原子力の場合は、良い方向に使えば人類にとって有用ですが、核兵器として大量に人々を殺すことも可能なため、核兵器不拡散条約等の国際条約で核兵器として生産しないよう取り決めがあります。

しかし、人工知能は、まだ新しい領域で核兵器不拡散条約のような国際条約は今のところ存在しません。

ラッセルさんは、「Lethal Autonomous Weapons (自律型殺傷兵器)」を国際条約として一刻も早く規定することを呼びかけています。

まず、最初に、「Lethal Autonomous Weapons (自律型殺傷兵器)」とは具体的に何を指すのでしょう?

国連の規定では、簡単にいうと以下となります。

人間の監視なしで、人間の標的を見つけ、選択し、Engage(「殺す」ということの婉曲表現)する
なお、ここでは、人間が操作するドローンは含みません

イメージとしては、テレビシリーズの「Black Mirror」に出てくる、多くのロボット蜂が人間を殺す場面でしょう。

ここでは、ロボット蜂は、ある一人のひとによって、38万人ほどの特定の人を探して、頭に穴をあけて殺すようプログラムされ、与えられた目的を果たします。

これは、テレビの中の架空の物語ですが、実際には、ここまで高度でない自律型殺傷兵器は既にウェブサイトで売られています。

テレビの中に出てきたような高度な自律型殺傷兵器は、1年半ぐらいで開発可能という意見から10年ぐらいかかるとする意見までさまざまですが、確実に可能だという点では異を唱える人はいません

そのため、国際的な規約が早急に求められます

ラッセルさんが、他の会社と大学で共同で作ったビデオでは、イギリス政府のやりかたに反対する学生たちが秘密裏に集まって平和的に活動していますが、(恐らく政府の命令により)小さな蜂のような自立型殺傷兵器が数百匹放たれ、大学の構内でこれらの学生を顔認識し、あっという間に射殺していきます。
Youtubeのここから視聴可能です。
英語のみで約8分。

核兵器の恐ろしさは日本人にはよく知られていると思います。
人工知能を使った自律型殺傷兵器は、いくつかの点で核兵器よりパワフルです。
例えば、ターゲット認識ができるので、ユダヤ人に見えるイスラエルに住んでいる男性の12歳~60歳の間の人々のすべてを殺す、という標的を細かく絞ることが可能です。
また、核兵器とは違って、規模を一気に大きくすることが可能です。
紛争は10人から1000人にエスカレートし、10万人の犠牲者にあがる可能性があります。

日本に住んでいると、それは自分には関係のない話だと思うかもしれません。
しかし、国々や内戦中の大きな反乱軍等の大きな組織だけでなく、個人が悪用して、多くの人々を殺傷することも十分可能であることに留意しておく必要があります。

兵器の使用については、現時点では、国際規約で「市民を攻撃してはならない。その延長で、本質として無差別で、間違って市民をターゲットとして攻撃するような兵器は使ってはならない」と決まっています。

2014年に国連のThe Convention on Certain Conventional Weapons (CCW)にて、はじめて「自律型殺傷兵器」についての議論があり、ラッセルさんは2015年にこの会議に招聘されたそうです。

2014年の時点では、「自律」という点で混乱があったそうです。

例えば、「人工知能が自意識を学び、発展させる能力をもたない限りでは問題ないはずだ」

これは、今でもよく聞く誤解ですが、人工知能は自意識を持ちません。

先述した「Balck Mirror」に出てくる「自律型殺傷兵器」のロボット蜂は、人間や誰かを憎んでいるわけでもなく、悪意があるわけでもなく、自意識もありません。
彼らはただ単に、人間にプログラムされたように動いているだけ
です。

ラッセルさんは、チェスプログラムと同じだという例えを使い、「自律型殺傷兵器」を定義しています。

「私たちは、チェスプログラムを書きますが、どのような動きをするかは決めません。私たちがスタートボタンを押すと、チェスプログラムが決定をします。それは、誰もが以前には見たこともなかったようなボードポジションを取り、それが何を見たかによって、自身の不透明で複雑な計算を行い、どのピースをどこに動かし、どの敵のピースを殺すかを決定します。。。。何を機械のカメラがとらえたかにより、複雑な計算を行いますーそれは、人間のオペレーターにはアクセスできない情報です」

ここには、上記のように悪意も自意識もありません

「自律型殺傷兵器」には、以下の4つの要素が必要ですが、現時点で全てそろっています。

  1. モバイル・プラットフォーム
    既に複数のオプションあり。趣味サイズのパッケージ配送飛行機、ミサイルを搭載したフルサイズの飛行機等

  2. 環境/周りの状況を認識する
    すでに自立運転車で、動いている対象物(人間や車)を搭載しているビデオから認識できる。
    2021年時点で、自律ロボットが家の中をめぐって詳細な見取り図を作ることができる。

  3. 戦略的な決定を行う
    すでに自立運転車で決定を行っている。

  4. ターゲットにEngageする/殺す
    既に起こっている。

私たちは、自律型殺傷兵器を開発・使用するのか、それとも禁止するべきなのでしょうか?

良い面と悪い面を考えてみましょう。

良い面としてよく上がるシナリオは以下です。

  • ロボット同士での争いとなり、人間は殺傷されない

現実の世界では、戦争は、どちらか、あるいはどちらもが、死者の数や破壊のレベルがどうしようもなく高くなるまでやめません。そのため、このシナリオは現実的ではないでしょう。

  • 精密なターゲティングで、市民が巻き込まれて殺傷される可能性がとても低くなる

2015年時点では、人工知能がターゲットを認識することが人間よりも優れているとはいえなかった事実があります。ただ、機能は進化しており、どこかの時点でターゲット認識は人間を越える可能性はあるでしょう。

また、「自律殺傷兵器」を禁止する必要のない理由として、「自律殺傷兵器は、人間が持ち運ぶライフルのようなのだ」とする説がありますが、これは完全な間違いです。
自律殺傷兵器が、異なる部隊・集団によって使用され、異なる標的をもち、異なるゴールをもち、明確でないセッティングの場合、どんな推定の利点も、意味をなさなくなります。

悪い面としてあがるシナリオは以下です。

  • サイバー侵入

オーナーに対して殺傷行為を行う可能性。

  • 偶発的な敵対行為のエスカレーション

防衛システムが過剰反応することにより、本当の戦争が勃発する可能性。

世界最大武器メーカーのBAEシステムのチーフでさえ、「人間を殺傷する決定権を機械に委ねるのは、完全に間違っている」と発言してしています。

未来の自律殺傷兵器は、さらに小さく、安く、もっと敏捷なものとなるでしょう。

クワッドコプターは、靴磨きの缶(直径7cmくらい)より小さく、3グラムの爆発物を搭載して近距離でひとを殺すことが可能で、大量生産可能、(普通の市民が買えるぐらい)とても安いでしょう。通常の輸送コンテナの1つに百万機以上の自律殺傷兵器を積むことができ、人間の介入はいらないので、輸送コンテナに積んで送り込んでしまえば、一気に大量に人間を殺すことができます。数百万回飛ばすことも可能です。

生物兵器については、1966年に生物学者や化学者による働きかけで、禁止となりました。

人工知能にも殺人に使うことを禁止するよう、規定が必要です。

「自律型殺傷兵器」の禁止条約を作るということに対しては、政治的な面も大きく影響します。

自国の軍事的優位性を、潜在的な「敵」から維持しようとするために、「自律型殺傷兵器」を研究する権利を手放したくないとする意見もありますが、化学兵器・生物兵器・核兵器を禁止した理由を考えれば、「自律型殺傷兵器」を禁止することに反対するのは意味をなさないでしょう。

現在、「自律型殺傷兵器の開発・生産禁止」に賛成している国は、30か国ほどと国連、EUです。
禁止に反対している国は、イギリスやアメリカ、ロシアです。

禁止に反対している国の主張としては、「自律殺傷兵器の開発を制限することは、市民人工知能のリサーチャーの研究を深刻に阻害する可能性がある」ですが、人工知能のリサーチャーから、この意見は全く出ていません。
化学兵器や生物兵器の開発・生産は完全に禁止されていますが、化学者・生物学者の研究は、どんどん進化しています。
人工知能のリサーチャーは、同様に人口知能が子供たちの殺人やひとを殺すために使われたくはありません。

また、「どこかの国が禁止に署名したのに、嘘をついて開発する可能性 がある」という主張もあります。
これに関しては、十分ありうるので、化学兵器禁止条約のように、検証と実施 (条約を守らない国には守るようにいろいろな形で罰やプレッシャー、経済封鎖等を行う)をきちんと行うことが必須となるでしょう。

Yoko Marta