2017年11月17日金曜日

AIのIQ


https://srad.jp/story/17/10/11/0517233/

まさに「AIのIQ」とも言うべき指標が登場したようだ。この指標の原理や正しさ加減については評価しないが、原理的には人間が受けるIQテストと同じで、テストを受ければよいのだから、たとえ今は不完全でも、そのうち信頼性のあるテストが出現するはずだ。

従来はここが曖昧だった。つまり、どの程度賢くなれば仕事に使えるのか、あるいは他社比較で自社のAIが優れていることをどう示すか、などだ。この手の指標がまず出てきたことを歓迎すると共に、次のステップで何が起こるのかを考える楽しみが出てきた。

過去にPCやスパコンで起こったように、ランキングが出て、そのテストに特化した(卑怯な)学習方法が出ては批判され、そのうちIQよりもその効率(学習効率やコスト効率など)が重要視され、…ということは必ず起こるだろう。

一方で、AIに特殊な事情として、初期はともかく、そのテスト問題は人間がやるようなものとはかなり異なってくるはずだ。問題数が異常に多かったり、極端に複雑だったり、正解のない問題まで出てきてもおかしくない。恐らくテストの作成にもAIが使われ、人間の頭脳の限界を超えた空中戦(テストを作成する側と解く側のバトル)が繰り広げられるのではないか。

その究極の問題は、地球シミュレーションではないかと思うわけだ。従来の、気象に関するものだけではなくて、その上には人類や動植物まで居て、テロや戦争や経済封鎖まで起こるように作ってある。そうしておいて、地球にとって望ましい状態を多要素で定義しておき、それに近づくために何をすれば良いのかを当てる(探す)、というゲームだ。

もちろん禁止パラメータもあるだろうが、単純に戦争や殺人を全面禁止してしまうと直ぐに行き詰まる可能性もある。このため、ある程度そのルールは緩くなる(今でも国家元首は戦争を始める判断が可能だ)ことも十分に考えられる。

もしそうだとしても、AIが人類抹殺なんて極端なことに走るとは思えないのだが、例えばバカな大統領を選んだ国民が個別に行方不明になるとか、環境破壊が著しい企業の幹部の首が飛ぶとか、極端なサイコパスが世間から隔離されるとかいった、要所を押さえることで持続性を目指すようなことは、もしかしたら起きるのかもしれない。

あるいは、今の人道的な政策を否定する可能性もある。例えば弱者救済や医療の進歩で救える命であっても、敢えて見捨てる方が理に適っている、という判断をするようなことだ。

今の神は基本的に何もしないが、究極のAIもやはり何もしないものになるのかも知れない。もしそうなら、やはり神は居るのかもしれない。

0 件のコメント:

コメントを投稿

注目の投稿:

ダイナミック租税とその指標

今の法律では、税率は一定の計算式で表されるが、そのパラメータは固定である。需要と供給のバランスによって商品の価格を変えるダイナミックプライシングというのがあるが、あれを租税にも適用してはどうかと考えてみた。 納税者の声をベースにして様々な租税や補助金を自動調節して、どこか一箇所...

人気の投稿: