2018年4月25日水曜日

AIの三階層アーキテクチャ


シンギュラリティ後のAIは何処に行くのかは興味があるところなのだが、そもそも無目的にAIを作る人間は居ないはずだから、何らかの仕事をしようとするはずだ。そしてそこにはライバルがいるから、AI同士の競争になり、そこで勝つために、AIそのものではなくその指示者である人間を殺そうとする、などというような段階になるのだろう。

これはもちろん防がなければならない。一方で、以前「ご隠居AIとお局AI 」で提案したように、緩いルールも考えられる。例えば、ある新興国では実は賄賂の習慣があって、法は絶対ではない、ということも考えられるからだ。

シンギュラリティ後のAIは、三階層のアーキテクチャが必要になる。第一階層は絶対守るルール。第二階層は緩いルール(パラメータ間の優先度など)。第三階層は、目的量の最大化をする、本来の意味でのAIだ。これはこれからのAIの基本アーキテクチャとして定着するべきと考える。

第一階層、第二階層には、第三階層の結論を評価する仕掛けがあって、それが各々の階層の条件を満たしているかどうかを判定する。第一階層はYes/Noであり、第二階層はアナログ値(0~1)となる。第一階層がYesである条件で、第三階層は多数の提案を行い、それと第二階層とのマトリクスが形成される。

そのマトリクスを見て、必要なら各々をドリルダウンして分析し、経営者がどれを選ぶか判断する、というのが基本的な手順になる。

ただ、概念的にはともかく、実装は難しい。まず第一の階層。ここは言わばチェスのルールなのだが、大きな問題が二つある。第一は、チェスのように明確な指示ができないところだ。「人を殺してはいけない」だけではない、様々なルールを明文化して書かなければならない。それも人間のルールを応用するのではダメで、AI向きに書き直さなければならない。

例えば、人を殺したら死刑または無期懲役または懲役云々、というのは、こうしたらこうなる、というルールである。だから、例えば詐欺をしても罰金より儲かれば可、などという判断をしかねない。法ギリギリの不誠実な方法もダメだろう。

二つ目は、そのルールをAIが認識できたとしても、何をしたらそのルールを破ったことになるのかが明確にならなければならない。例えば「人を殺してはならない」ことが分かったとしても、飛行機のオートパイロットを弄るのと大量の失業者を生み出すこととのどちらが人を殺すことになるのかは明確ではない。それをAIが知覚できなければ、ルールを守ろうにも守りようがない。

「人間が確認した後に実行する」では足りない。そのうち作業が複雑になって人が理解不可能になったり、判断すべきことが膨大になって面倒になって放置する、といったことが起こるのは明白だ。

更には、最終的にはこのルール遵守は法で強制しなければならず、対応できているかどうかは確認可能でなければならない。国の審査対応APIのようなものができて、オンラインで監査できるような仕掛けが必要であり、監査対象のAIは大手企業しか作れない、などとなる。

このアーキテクチャの実現は相当困難なので、初期には法で強制するところは飛ばして、また汎用ではなく特定目的に限って適用されることになる。それは、その時点(技術レベル)において、ルールとその確認手段が明確に判断できるものに限って適用される、という形になる。

こう見ると、AGIの安全装置的なシステムの実現はまだ先が長いと言える。シンギュラリティが安全装置の開発より先に来てしまう可能性は十分にあり、ここの早急な理論構築と開発や義務化が期待される。

0 件のコメント:

コメントを投稿

注目の投稿:

超音波モーターの原理によるVR用トレッドミル

  VRにおけるリアリティ問題の一つに、その場で動くのではなく移動する場合、つまり歩いたり走ったりすることが挙げられる。実際にはその場にいるので、歩いたかのように足場を調節してやる必要がある。 これを実現する方法として、すり鉢状の滑りやすい足場を作っておく方法と、トレッドミルを使...

人気の投稿: