2018年1月8日月曜日

AIロボット兵士の是非


https://www.newscientist.com/article/mg23631512-900-letting-robots-kill-without-human-supervision-could-save-lives/amp/

Google翻訳で読んでみても大体のことは分かるが、まあ興味深いことだ。将来導入されるであろう、人間の指示を待たずに自分で判断して敵を殺す軍事ロボットの脅威に関し、人(兵士)が判断して殺すよりも信頼できるのではないか、自動運転の方が人の運転より信頼できるように、というのが主旨のようだ。

確かに、裏切りやら極限の精神状態での判断やらといったヒューマンエラーの要素をロボットが持つことはないので、一見正しいように見える。おそらくこれは、建物が入り組んだ市街地で、敵兵士と民間人が入り乱れているような状態において、敵のみを殺す用途には向いている、との主張だろう。

だが、これには二つの問題点がある。第一は、そもそも敵を定義する人間の間違いや恣意悪意を正すことはできない、ということ。二つ目は、ロボットは人間よりも安価で大量に導入できる、ということだ。

敵をどう定義するかをAI的に考えてみると、自分(ロボット)を攻撃してきたら敵、と単純に言えるだろうか。あるいは爆弾を抱えていたら敵か。何れも判断は単純ではない。ロボットが民間人の見方とは限らないし、人質爆弾の可能性もある。相手が持っているものが武器かどうかの判断も、やはりそう簡単ではない。よって当分の間、敵の定義は一律ではなく、都度インプットすべきものだ。

例えば人質救出作戦において、人質の情報が曖昧だった場合、犯人と人質をどう区別すればよいのか。間違って人質を殺してしまったら問題だし、犯人をかばってもやはり問題になる。人質の重要度によって判断基準を変えることも考えられる。

その判断基準を打ち込むのはAIプログラマだ。なぜならその基準設定は単純にスイッチやボリュームで設定できるような単純なものではないからだ。その結果作戦が失敗したとして、プログラマに責任を押し付けることができるのか。

また、市街地でのゲリラ戦において、一人のAIプログラマが千台のロボットに同じ命令を与えて町全部を攻撃したとする。結果として数千人のゲリラと数百人の民間人を殺したとする。そのプログラマ一人の判断が全ての(成功と)間違いの原因を作ったわけだ。つまり、一人の間違いが、ロボットの投入数に比例して増大する。

白兵戦であれば、どんな歴戦の勇士でも、一回の戦闘で何百人も殺すことは不可能だ。だがロボットならそれができてしまう。戦争を単純にゲームとして見れば効率の高さは善だが、それは核ボタンを持ち歩くような重責にもなる。

それでも、ロボットの判断システムが素晴らしく優秀になってくれれば話は別だ。テロ集団が人間の盾を使ったり民間人に偽装していたりしても、全て見つけ出して綺麗に殺してくれるのなら、民間人は安心して日常生活を続けることができる。遥か遠い将来のことではあるが、そこに行き着く過程として、上のような過渡期は存在せざるを得ない。その狭間で(試行錯誤の糧として)殺される人は、たまったものではない。

技術的には正論だが心情的に受け付けない。こんなところも戦争のまどろっこしいところだ。

0 件のコメント:

コメントを投稿

注目の投稿:

ダイナミック租税とその指標

今の法律では、税率は一定の計算式で表されるが、そのパラメータは固定である。需要と供給のバランスによって商品の価格を変えるダイナミックプライシングというのがあるが、あれを租税にも適用してはどうかと考えてみた。 納税者の声をベースにして様々な租税や補助金を自動調節して、どこか一箇所...

人気の投稿: