2018年6月20日水曜日

AIにおける「低評価」ボタン


「いいね!」ボタンに対する「悪いね!」ボタンというのは、幾つかのソーシャルメディアには存在している。これによって極端な発言が表示されなくなり、また「いいね!」が多いものが上位に表示されるようになれば、質の向上が図れる、ということになっている。

MicrosoftのAI「Tay」が、初期のフェーズで悪意に満ちた発言を学習して閉鎖した問題からもう結構経つが、こういった好ましくない学習をしてしまった場合に、今のAIではリセットするしか道はないのだろうか、というのが疑問に思う。

Tayの場合は初期ユーザの悪ふざけが原因だったのだが、サンプル数が少ない状態ではこういうことは起こり得る。しかしある程度対象者が増え、更に低評価ボタンでその人たちに監視されているとすれば、極端なことは確実に避けられるはずだ。これはエントロピーの法則にも似ていて、確実性が高い。

正解あり学習の「正解」「間違い」とは異なり、低評価=間違いではないので、実装が同じではいけない。もちろん高評価=正解でもない。ただ、それほどアーキテクチャ的な困難さはないと思う。既にそういったソーシャルメディアが行っていることとさほど変わらないからだ。

つまり、既にあるソーシャルメディアに対してAIが投稿する、その評価を見てAIが投稿内容を修正する(低評価が出ないように、高評価が出るように)、という構図になるのだろう。漫然と雑談をするのではなく、Q&Aサイトのようなものにこれを適用すれば、それは「良い教師」のように疑問に答えてくれるAIになっていくのだろう。

Googleアシスタントに既にあるではないか、というのはある種正しいのだが、Q&Aサイトには回答がいくつもあって、高評価も低評価もする人を選べる。つまりGoogleアシスタントにも様々な知識・性格のAIがあって、一つの質問に対して何人(何体?)ものAIが答えを返し、それを評価する、というのがあっても良いように思う。

0 件のコメント:

コメントを投稿

注目の投稿:

労働生産性向上策私案

  https://www.newprinet.co.jp/日本生産性本部 「労働生産性の国際比較2024」を こちらの統計によると、日本の一人当たりの労働生産性は、1990年頃には13位だったところ、その後落ち込み、1998年から20位前後で推移していた。だが2018年から急...

人気の投稿: