2018年1月8日月曜日

AIロボット兵士の是非


https://www.newscientist.com/article/mg23631512-900-letting-robots-kill-without-human-supervision-could-save-lives/amp/

Google翻訳で読んでみても大体のことは分かるが、まあ興味深いことだ。将来導入されるであろう、人間の指示を待たずに自分で判断して敵を殺す軍事ロボットの脅威に関し、人(兵士)が判断して殺すよりも信頼できるのではないか、自動運転の方が人の運転より信頼できるように、というのが主旨のようだ。

確かに、裏切りやら極限の精神状態での判断やらといったヒューマンエラーの要素をロボットが持つことはないので、一見正しいように見える。おそらくこれは、建物が入り組んだ市街地で、敵兵士と民間人が入り乱れているような状態において、敵のみを殺す用途には向いている、との主張だろう。

だが、これには二つの問題点がある。第一は、そもそも敵を定義する人間の間違いや恣意悪意を正すことはできない、ということ。二つ目は、ロボットは人間よりも安価で大量に導入できる、ということだ。

敵をどう定義するかをAI的に考えてみると、自分(ロボット)を攻撃してきたら敵、と単純に言えるだろうか。あるいは爆弾を抱えていたら敵か。何れも判断は単純ではない。ロボットが民間人の見方とは限らないし、人質爆弾の可能性もある。相手が持っているものが武器かどうかの判断も、やはりそう簡単ではない。よって当分の間、敵の定義は一律ではなく、都度インプットすべきものだ。

例えば人質救出作戦において、人質の情報が曖昧だった場合、犯人と人質をどう区別すればよいのか。間違って人質を殺してしまったら問題だし、犯人をかばってもやはり問題になる。人質の重要度によって判断基準を変えることも考えられる。

その判断基準を打ち込むのはAIプログラマだ。なぜならその基準設定は単純にスイッチやボリュームで設定できるような単純なものではないからだ。その結果作戦が失敗したとして、プログラマに責任を押し付けることができるのか。

また、市街地でのゲリラ戦において、一人のAIプログラマが千台のロボットに同じ命令を与えて町全部を攻撃したとする。結果として数千人のゲリラと数百人の民間人を殺したとする。そのプログラマ一人の判断が全ての(成功と)間違いの原因を作ったわけだ。つまり、一人の間違いが、ロボットの投入数に比例して増大する。

白兵戦であれば、どんな歴戦の勇士でも、一回の戦闘で何百人も殺すことは不可能だ。だがロボットならそれができてしまう。戦争を単純にゲームとして見れば効率の高さは善だが、それは核ボタンを持ち歩くような重責にもなる。

それでも、ロボットの判断システムが素晴らしく優秀になってくれれば話は別だ。テロ集団が人間の盾を使ったり民間人に偽装していたりしても、全て見つけ出して綺麗に殺してくれるのなら、民間人は安心して日常生活を続けることができる。遥か遠い将来のことではあるが、そこに行き着く過程として、上のような過渡期は存在せざるを得ない。その狭間で(試行錯誤の糧として)殺される人は、たまったものではない。

技術的には正論だが心情的に受け付けない。こんなところも戦争のまどろっこしいところだ。

0 件のコメント:

コメントを投稿

注目の投稿:

超音波モーターの原理によるVR用トレッドミル

  VRにおけるリアリティ問題の一つに、その場で動くのではなく移動する場合、つまり歩いたり走ったりすることが挙げられる。実際にはその場にいるので、歩いたかのように足場を調節してやる必要がある。 これを実現する方法として、すり鉢状の滑りやすい足場を作っておく方法と、トレッドミルを使...

人気の投稿: