2018年4月15日日曜日

AIの次のアーキテクチャ的進化


脳はニューラルネットワークなので、今のニューラルネットの次のアーキテクチャというのがにわかには思いつかない。なぜAIは未だに自分で考えることができないのかは分からないが、いわゆるAGIの構造を考えるに当たっては必要な検討だ。

まず一つ考えられるのは、巨大な(本来なら無用の)大量巨大なネットワークを先に作ってしまう、というものだ。

もう一つ考えられるのは、専用AIを結合して総合的AIを作るというものだ。このアーキテクチャは、小さい脳同士を抽象化(カプセル化)してそれ全体をニューロンとみなす、いわば階層型のニューロンネットワークになる。

ただ、例えば、カメラにつながるニューロンは一塊になっていて、その塊の中には大量のニューロンがあるが、そこから先につながるのはごく少数のニューロンだけ、というような形にするのが望ましいだろう。また、I/Oと直接はつながらないニューロンの塊も複数配置し、各々をまた疎結合させるようにするのがよい。

どちらかと言えば、後者が実際の脳に近いと思われる。この場合でも、学習は全体に対して行われ、塊毎に行うなどということはない。

理想は、人間と同じに教育することだ。すなわち、脳にあらかじめ全ての感覚と臓器を与えてしまう。もちろん全部シミュレータだ。そして実生活のデジタルツインの中に住まわせる。そしてしばらく放っておく。そうすると人間が出来上がる。

だがさすがにそれば無理だろうから、最初は画像だけ、音声だけで行うことになるだろう。そうすると、例えばカメラを2台使ったニューロンネットワークでは立体の認識ができるのではないか、とか、脳内に自然と言語野や視覚野ができるのではないか、とかいうことが想像できる。

最初は静止画だが動画も見せるようにしたり、何もないときでもカメラを付けっ放しにしておくということも考えられる。当然教師なし学習になるが、親が無表情だと子供が不安になって泣く、というようなことは期待できないかもしれない。アウトプットを例えば声としておいて、「ママと言ったら喜ぶ」というような反応をしてやることと共に、何らかのベースとなる知識は入れてやる必要があるように思う。

もし上手くいけば、芸術性評価や感情評価といったものができるかもしれない。そうすればいよいよ人間の脳に対する理解は深まっていくだろうし、そういった曖昧な評価軸も定量化できるかもしれない。

0 件のコメント:

コメントを投稿

注目の投稿:

超音波モーターの原理によるVR用トレッドミル

  VRにおけるリアリティ問題の一つに、その場で動くのではなく移動する場合、つまり歩いたり走ったりすることが挙げられる。実際にはその場にいるので、歩いたかのように足場を調節してやる必要がある。 これを実現する方法として、すり鉢状の滑りやすい足場を作っておく方法と、トレッドミルを使...

人気の投稿: