2016年にGoogleが発表した有名な猫の画像認識で用いられたのは、コンピュータ千台で3日間だという。画像は一千万枚、ノード数は画素数×9階層で、画素数は200×200ドット、RGB。ノード数は36万ということになる。
21億のニューロンに比べれば数の差は6千倍だが、人間の脳は正確な階層をなしていないから、複雑さはそれ以上だろう。この「36万」という数は、その学習に適切だから出されたわけではない。階層が多いと不具合が色々と出ることは分かっているが、それはあくまでその学習に対してであって、汎用のAI(AGI)を想定したときには、実は必要な不具合なのかもしれない。
何を言いたいのかというと、人間の脳と同等、あるいはそれ以上の規模のニューロンネットワークができれば、それだけでAGIとして成立するのではあるまいか。脳の記憶の仕組みは、セル単位で見れば意外に単純で、網の複雑さこそが記憶の本質なのではないか、ということだ。
「AIにできない」とされていることの一つに「少ない情報からの判断」というのがある。だが、これと比較されるべき人間は「少ない情報」の状態にはない。生まれてからその判断をするまでの間、視覚触覚味覚、あらゆる情報を(その判断とは関係ないとはいえ)何十年も得てきているのだ。AIと同じ比較をするなら赤ん坊(それでも胎内での経験があるから不公平だ!)とすべきで、当然勝ち負けは成立しないだろう。
肉体がないから脳と同じ経験をするわけにはいかないし、ネットに溢れる情報が人間の何十年かの体験と同等かどうかは分からないけれども、充分にセル数が多いニューロンネットワークにそういった情報をブチ込んだら、理由は分からないがAGIが出来てしまった、などということがないとは言えない。
それをどうやったら検証できるのだろうか、考えあぐねている次第である。
0 件のコメント:
コメントを投稿