2017年11月17日金曜日

AIのIQ


https://srad.jp/story/17/10/11/0517233/

まさに「AIのIQ」とも言うべき指標が登場したようだ。この指標の原理や正しさ加減については評価しないが、原理的には人間が受けるIQテストと同じで、テストを受ければよいのだから、たとえ今は不完全でも、そのうち信頼性のあるテストが出現するはずだ。

従来はここが曖昧だった。つまり、どの程度賢くなれば仕事に使えるのか、あるいは他社比較で自社のAIが優れていることをどう示すか、などだ。この手の指標がまず出てきたことを歓迎すると共に、次のステップで何が起こるのかを考える楽しみが出てきた。

過去にPCやスパコンで起こったように、ランキングが出て、そのテストに特化した(卑怯な)学習方法が出ては批判され、そのうちIQよりもその効率(学習効率やコスト効率など)が重要視され、…ということは必ず起こるだろう。

一方で、AIに特殊な事情として、初期はともかく、そのテスト問題は人間がやるようなものとはかなり異なってくるはずだ。問題数が異常に多かったり、極端に複雑だったり、正解のない問題まで出てきてもおかしくない。恐らくテストの作成にもAIが使われ、人間の頭脳の限界を超えた空中戦(テストを作成する側と解く側のバトル)が繰り広げられるのではないか。

その究極の問題は、地球シミュレーションではないかと思うわけだ。従来の、気象に関するものだけではなくて、その上には人類や動植物まで居て、テロや戦争や経済封鎖まで起こるように作ってある。そうしておいて、地球にとって望ましい状態を多要素で定義しておき、それに近づくために何をすれば良いのかを当てる(探す)、というゲームだ。

もちろん禁止パラメータもあるだろうが、単純に戦争や殺人を全面禁止してしまうと直ぐに行き詰まる可能性もある。このため、ある程度そのルールは緩くなる(今でも国家元首は戦争を始める判断が可能だ)ことも十分に考えられる。

もしそうだとしても、AIが人類抹殺なんて極端なことに走るとは思えないのだが、例えばバカな大統領を選んだ国民が個別に行方不明になるとか、環境破壊が著しい企業の幹部の首が飛ぶとか、極端なサイコパスが世間から隔離されるとかいった、要所を押さえることで持続性を目指すようなことは、もしかしたら起きるのかもしれない。

あるいは、今の人道的な政策を否定する可能性もある。例えば弱者救済や医療の進歩で救える命であっても、敢えて見捨てる方が理に適っている、という判断をするようなことだ。

今の神は基本的に何もしないが、究極のAIもやはり何もしないものになるのかも知れない。もしそうなら、やはり神は居るのかもしれない。

0 件のコメント:

コメントを投稿

注目の投稿:

超音波モーターの原理によるVR用トレッドミル

  VRにおけるリアリティ問題の一つに、その場で動くのではなく移動する場合、つまり歩いたり走ったりすることが挙げられる。実際にはその場にいるので、歩いたかのように足場を調節してやる必要がある。 これを実現する方法として、すり鉢状の滑りやすい足場を作っておく方法と、トレッドミルを使...

人気の投稿: