2018年6月20日水曜日

AIにおける「低評価」ボタン


「いいね!」ボタンに対する「悪いね!」ボタンというのは、幾つかのソーシャルメディアには存在している。これによって極端な発言が表示されなくなり、また「いいね!」が多いものが上位に表示されるようになれば、質の向上が図れる、ということになっている。

MicrosoftのAI「Tay」が、初期のフェーズで悪意に満ちた発言を学習して閉鎖した問題からもう結構経つが、こういった好ましくない学習をしてしまった場合に、今のAIではリセットするしか道はないのだろうか、というのが疑問に思う。

Tayの場合は初期ユーザの悪ふざけが原因だったのだが、サンプル数が少ない状態ではこういうことは起こり得る。しかしある程度対象者が増え、更に低評価ボタンでその人たちに監視されているとすれば、極端なことは確実に避けられるはずだ。これはエントロピーの法則にも似ていて、確実性が高い。

正解あり学習の「正解」「間違い」とは異なり、低評価=間違いではないので、実装が同じではいけない。もちろん高評価=正解でもない。ただ、それほどアーキテクチャ的な困難さはないと思う。既にそういったソーシャルメディアが行っていることとさほど変わらないからだ。

つまり、既にあるソーシャルメディアに対してAIが投稿する、その評価を見てAIが投稿内容を修正する(低評価が出ないように、高評価が出るように)、という構図になるのだろう。漫然と雑談をするのではなく、Q&Aサイトのようなものにこれを適用すれば、それは「良い教師」のように疑問に答えてくれるAIになっていくのだろう。

Googleアシスタントに既にあるではないか、というのはある種正しいのだが、Q&Aサイトには回答がいくつもあって、高評価も低評価もする人を選べる。つまりGoogleアシスタントにも様々な知識・性格のAIがあって、一つの質問に対して何人(何体?)ものAIが答えを返し、それを評価する、というのがあっても良いように思う。

0 件のコメント:

コメントを投稿

注目の投稿:

超音波モーターの原理によるVR用トレッドミル

  VRにおけるリアリティ問題の一つに、その場で動くのではなく移動する場合、つまり歩いたり走ったりすることが挙げられる。実際にはその場にいるので、歩いたかのように足場を調節してやる必要がある。 これを実現する方法として、すり鉢状の滑りやすい足場を作っておく方法と、トレッドミルを使...

人気の投稿: