2018年8月29日水曜日

優しいAI兵器


https://japan.cnet.com/article/35122701/

AI殺人兵器は開発しない、という誓約に、多数の人や団体が署名した、というニュース。
まあ、守られないだろうし効果は薄いだろう。何れはそうなる。多少の時間稼ぎにしかならないのは明白だ。人工知能は、もはやラズパイでも動くほど普及しており、技術の陳腐化は著しい。部分的にでもAIを使わない兵器は、それこそ皆無になるのではないかとすら思う。

まあもっとも、この誓約はAI全てを否定しているわけではなく、「自律的」つまりAIが最終判断をする兵器のことなので、部分的に使うことについては許されるわけだ。要は最後のボタンは人に渡す、というだけ。その意味でも殆ど効力はない。

なぜAIを忌み嫌うのかというと、「人を殺す最終判断は人間がすべき」ということらしいのだが、どうも納得できない。既にある意見だが、AIの方が恣意や間違いが少ないのであれば、AIに任せた方がより人道的なのではないか、という反論ができる。

それに、じゃあコンピュータは許されるのか、材料工学は許されるのか、原子力は、武道は。そういうものと何が違うのだろうか。量?じゃあ機関銃は?爆弾は?やっぱり意味は同じではないのか。

それに、そもそも兵器自体が人を殺すものなのであって、AIが判断する前に、ジェネラルには人が戦争の開始継続を判断しているのだから、戦争をしたことそのものが悪ではないのか、とはなぜならないのだろう。目の前の人一人多く殺したからといって、その悪は許されるのだろうか。

結局、AIも単に「(過去にも兵器に適用され批判されてきたのと同様の)新しい技術」の一つに過ぎないのだ。問題の本質は技術ではなく、戦争行為をする判断そのものである。
この署名は、「AIは人を生かす目的に使う」という署名であるべきだろう。それなら最終判断も自動化できる。どうするのかと言うと、逆のことをするのだ。即ち、
  • 銃を向けた相手が敵でない可能性が高いと警告を発し、自動でロックする。ロックを外さないと撃てない。
  • 敵でない可能性が高い標的をマークし、そこに被害が及ばないような撃ち方をする。
  • 敵であっても行動不能化を優先し、主に手足や相手の武器を狙う。
  • 大きな爆弾一発ではなく、小さな爆弾を多数、ピンポイントで使用する。
  • 相手の力量に応じて兵器をリアルタイムで選び、無用に殺さない。
なんだかヘンな気分になるが、「使わない」という選択肢をもう一方に見た場合、これはこれでアリなのではないか、と思う。

0 件のコメント:

コメントを投稿

注目の投稿:

ダイナミック租税とその指標

今の法律では、税率は一定の計算式で表されるが、そのパラメータは固定である。需要と供給のバランスによって商品の価格を変えるダイナミックプライシングというのがあるが、あれを租税にも適用してはどうかと考えてみた。 納税者の声をベースにして様々な租税や補助金を自動調節して、どこか一箇所...

人気の投稿: