2018年6月20日水曜日

AIにおける「低評価」ボタン


「いいね!」ボタンに対する「悪いね!」ボタンというのは、幾つかのソーシャルメディアには存在している。これによって極端な発言が表示されなくなり、また「いいね!」が多いものが上位に表示されるようになれば、質の向上が図れる、ということになっている。

MicrosoftのAI「Tay」が、初期のフェーズで悪意に満ちた発言を学習して閉鎖した問題からもう結構経つが、こういった好ましくない学習をしてしまった場合に、今のAIではリセットするしか道はないのだろうか、というのが疑問に思う。

Tayの場合は初期ユーザの悪ふざけが原因だったのだが、サンプル数が少ない状態ではこういうことは起こり得る。しかしある程度対象者が増え、更に低評価ボタンでその人たちに監視されているとすれば、極端なことは確実に避けられるはずだ。これはエントロピーの法則にも似ていて、確実性が高い。

正解あり学習の「正解」「間違い」とは異なり、低評価=間違いではないので、実装が同じではいけない。もちろん高評価=正解でもない。ただ、それほどアーキテクチャ的な困難さはないと思う。既にそういったソーシャルメディアが行っていることとさほど変わらないからだ。

つまり、既にあるソーシャルメディアに対してAIが投稿する、その評価を見てAIが投稿内容を修正する(低評価が出ないように、高評価が出るように)、という構図になるのだろう。漫然と雑談をするのではなく、Q&Aサイトのようなものにこれを適用すれば、それは「良い教師」のように疑問に答えてくれるAIになっていくのだろう。

Googleアシスタントに既にあるではないか、というのはある種正しいのだが、Q&Aサイトには回答がいくつもあって、高評価も低評価もする人を選べる。つまりGoogleアシスタントにも様々な知識・性格のAIがあって、一つの質問に対して何人(何体?)ものAIが答えを返し、それを評価する、というのがあっても良いように思う。

0 件のコメント:

コメントを投稿

注目の投稿:

砂の船

  免震構造については過去いくつか提案しているが、これの新しい版である。 以前、難燃性の油の上に浮かべた船の構造を提案したことがある。あれの砂版である。つまり、砂のプールを作っておいて、その上に浮かべるというものだ。砂が抵抗となって振動を軽減する。 ただし、油や水と違って砂の...

人気の投稿: