2018年8月29日水曜日

優しいAI兵器


https://japan.cnet.com/article/35122701/

AI殺人兵器は開発しない、という誓約に、多数の人や団体が署名した、というニュース。
まあ、守られないだろうし効果は薄いだろう。何れはそうなる。多少の時間稼ぎにしかならないのは明白だ。人工知能は、もはやラズパイでも動くほど普及しており、技術の陳腐化は著しい。部分的にでもAIを使わない兵器は、それこそ皆無になるのではないかとすら思う。

まあもっとも、この誓約はAI全てを否定しているわけではなく、「自律的」つまりAIが最終判断をする兵器のことなので、部分的に使うことについては許されるわけだ。要は最後のボタンは人に渡す、というだけ。その意味でも殆ど効力はない。

なぜAIを忌み嫌うのかというと、「人を殺す最終判断は人間がすべき」ということらしいのだが、どうも納得できない。既にある意見だが、AIの方が恣意や間違いが少ないのであれば、AIに任せた方がより人道的なのではないか、という反論ができる。

それに、じゃあコンピュータは許されるのか、材料工学は許されるのか、原子力は、武道は。そういうものと何が違うのだろうか。量?じゃあ機関銃は?爆弾は?やっぱり意味は同じではないのか。

それに、そもそも兵器自体が人を殺すものなのであって、AIが判断する前に、ジェネラルには人が戦争の開始継続を判断しているのだから、戦争をしたことそのものが悪ではないのか、とはなぜならないのだろう。目の前の人一人多く殺したからといって、その悪は許されるのだろうか。

結局、AIも単に「(過去にも兵器に適用され批判されてきたのと同様の)新しい技術」の一つに過ぎないのだ。問題の本質は技術ではなく、戦争行為をする判断そのものである。
この署名は、「AIは人を生かす目的に使う」という署名であるべきだろう。それなら最終判断も自動化できる。どうするのかと言うと、逆のことをするのだ。即ち、
  • 銃を向けた相手が敵でない可能性が高いと警告を発し、自動でロックする。ロックを外さないと撃てない。
  • 敵でない可能性が高い標的をマークし、そこに被害が及ばないような撃ち方をする。
  • 敵であっても行動不能化を優先し、主に手足や相手の武器を狙う。
  • 大きな爆弾一発ではなく、小さな爆弾を多数、ピンポイントで使用する。
  • 相手の力量に応じて兵器をリアルタイムで選び、無用に殺さない。
なんだかヘンな気分になるが、「使わない」という選択肢をもう一方に見た場合、これはこれでアリなのではないか、と思う。

0 件のコメント:

コメントを投稿

注目の投稿:

超音波モーターの原理によるVR用トレッドミル

  VRにおけるリアリティ問題の一つに、その場で動くのではなく移動する場合、つまり歩いたり走ったりすることが挙げられる。実際にはその場にいるので、歩いたかのように足場を調節してやる必要がある。 これを実現する方法として、すり鉢状の滑りやすい足場を作っておく方法と、トレッドミルを使...

人気の投稿: