2018年4月25日水曜日

AIの三階層アーキテクチャ


シンギュラリティ後のAIは何処に行くのかは興味があるところなのだが、そもそも無目的にAIを作る人間は居ないはずだから、何らかの仕事をしようとするはずだ。そしてそこにはライバルがいるから、AI同士の競争になり、そこで勝つために、AIそのものではなくその指示者である人間を殺そうとする、などというような段階になるのだろう。

これはもちろん防がなければならない。一方で、以前「ご隠居AIとお局AI 」で提案したように、緩いルールも考えられる。例えば、ある新興国では実は賄賂の習慣があって、法は絶対ではない、ということも考えられるからだ。

シンギュラリティ後のAIは、三階層のアーキテクチャが必要になる。第一階層は絶対守るルール。第二階層は緩いルール(パラメータ間の優先度など)。第三階層は、目的量の最大化をする、本来の意味でのAIだ。これはこれからのAIの基本アーキテクチャとして定着するべきと考える。

第一階層、第二階層には、第三階層の結論を評価する仕掛けがあって、それが各々の階層の条件を満たしているかどうかを判定する。第一階層はYes/Noであり、第二階層はアナログ値(0~1)となる。第一階層がYesである条件で、第三階層は多数の提案を行い、それと第二階層とのマトリクスが形成される。

そのマトリクスを見て、必要なら各々をドリルダウンして分析し、経営者がどれを選ぶか判断する、というのが基本的な手順になる。

ただ、概念的にはともかく、実装は難しい。まず第一の階層。ここは言わばチェスのルールなのだが、大きな問題が二つある。第一は、チェスのように明確な指示ができないところだ。「人を殺してはいけない」だけではない、様々なルールを明文化して書かなければならない。それも人間のルールを応用するのではダメで、AI向きに書き直さなければならない。

例えば、人を殺したら死刑または無期懲役または懲役云々、というのは、こうしたらこうなる、というルールである。だから、例えば詐欺をしても罰金より儲かれば可、などという判断をしかねない。法ギリギリの不誠実な方法もダメだろう。

二つ目は、そのルールをAIが認識できたとしても、何をしたらそのルールを破ったことになるのかが明確にならなければならない。例えば「人を殺してはならない」ことが分かったとしても、飛行機のオートパイロットを弄るのと大量の失業者を生み出すこととのどちらが人を殺すことになるのかは明確ではない。それをAIが知覚できなければ、ルールを守ろうにも守りようがない。

「人間が確認した後に実行する」では足りない。そのうち作業が複雑になって人が理解不可能になったり、判断すべきことが膨大になって面倒になって放置する、といったことが起こるのは明白だ。

更には、最終的にはこのルール遵守は法で強制しなければならず、対応できているかどうかは確認可能でなければならない。国の審査対応APIのようなものができて、オンラインで監査できるような仕掛けが必要であり、監査対象のAIは大手企業しか作れない、などとなる。

このアーキテクチャの実現は相当困難なので、初期には法で強制するところは飛ばして、また汎用ではなく特定目的に限って適用されることになる。それは、その時点(技術レベル)において、ルールとその確認手段が明確に判断できるものに限って適用される、という形になる。

こう見ると、AGIの安全装置的なシステムの実現はまだ先が長いと言える。シンギュラリティが安全装置の開発より先に来てしまう可能性は十分にあり、ここの早急な理論構築と開発や義務化が期待される。

0 件のコメント:

コメントを投稿

注目の投稿:

ダイナミック租税とその指標

今の法律では、税率は一定の計算式で表されるが、そのパラメータは固定である。需要と供給のバランスによって商品の価格を変えるダイナミックプライシングというのがあるが、あれを租税にも適用してはどうかと考えてみた。 納税者の声をベースにして様々な租税や補助金を自動調節して、どこか一箇所...

人気の投稿: