https://japan.cnet.com/article/35122701/
AI殺人兵器は開発しない、という誓約に、多数の人や団体が署名した、というニュース。
まあ、守られないだろうし効果は薄いだろう。何れはそうなる。多少の時間稼ぎにしかならないのは明白だ。人工知能は、もはやラズパイでも動くほど普及しており、技術の陳腐化は著しい。部分的にでもAIを使わない兵器は、それこそ皆無になるのではないかとすら思う。
まあもっとも、この誓約はAI全てを否定しているわけではなく、「自律的」つまりAIが最終判断をする兵器のことなので、部分的に使うことについては許されるわけだ。要は最後のボタンは人に渡す、というだけ。その意味でも殆ど効力はない。
なぜAIを忌み嫌うのかというと、「人を殺す最終判断は人間がすべき」ということらしいのだが、どうも納得できない。既にある意見だが、AIの方が恣意や間違いが少ないのであれば、AIに任せた方がより人道的なのではないか、という反論ができる。
それに、じゃあコンピュータは許されるのか、材料工学は許されるのか、原子力は、武道は。そういうものと何が違うのだろうか。量?じゃあ機関銃は?爆弾は?やっぱり意味は同じではないのか。
それに、そもそも兵器自体が人を殺すものなのであって、AIが判断する前に、ジェネラルには人が戦争の開始継続を判断しているのだから、戦争をしたことそのものが悪ではないのか、とはなぜならないのだろう。目の前の人一人多く殺したからといって、その悪は許されるのだろうか。
結局、AIも単に「(過去にも兵器に適用され批判されてきたのと同様の)新しい技術」の一つに過ぎないのだ。問題の本質は技術ではなく、戦争行為をする判断そのものである。
この署名は、「AIは人を生かす目的に使う」という署名であるべきだろう。それなら最終判断も自動化できる。どうするのかと言うと、逆のことをするのだ。即ち、
- 銃を向けた相手が敵でない可能性が高いと警告を発し、自動でロックする。ロックを外さないと撃てない。
- 敵でない可能性が高い標的をマークし、そこに被害が及ばないような撃ち方をする。
- 敵であっても行動不能化を優先し、主に手足や相手の武器を狙う。
- 大きな爆弾一発ではなく、小さな爆弾を多数、ピンポイントで使用する。
- 相手の力量に応じて兵器をリアルタイムで選び、無用に殺さない。
0 件のコメント:
コメントを投稿