スマホにAIチップが入ることが増えてきている。それにより、従来は遠隔サーバで行っていたAIによる各種認識が、ローカルでできるようになってきた。例えば顔認識、音声認識だ。これで音声アシスタントやロック解除が素早く、正確にできるようになってきた。
スマホに入るのならPCにだって入るだろうし、そのうちIoTにも入ってきておかしくない。あらゆるレベルでAIチップが埋め込まれることは、何を生み出すのだろう。
AIチップがローカルに入ることで得られるメリットは、
- 処理のスピードが速くなることが期待される
- ネットに余計なデータを出さないため、セキュリティが高い
- 同じ理由により、トラフィックが少なくて済む
- その機器に即したデータでのみ学習するため、精度向上が期待される(馴染みの客の顔は良く覚えているが、時の人には疎い)
考えられる第一のことは、今までは明確であるべきだった機械への指示が、多少あいまいさが許されるようになるだろう、ということ。例えばスイッチやキーボードなどだ。
例えば、キーボードの打ち間違いだ。どのキーを打ち間違えるかは、人によって癖がある。物理キーボードとタッチパネルではそれが違ったりする。打ち間違え、訂正する様を見ていれば、それを見越した予測変換が可能になるのではないか。
音声認識の精度向上は勿論だが、その指示キーワードにも学習が可能になる。例えば、指示が分からないと何回も聞きなおしてから実行した経験があれば、次は最初の指示キーワードと最後の実行に関連性が付けられる。
更には、キーワードですらなく、その時の状況や声、顔の向きなどの微妙な差で、指示を聞き分けるようになる。
これ、何か聞いた気がする、と思って考えてみると、「阿吽の呼吸」だ。長年連れ添った夫婦なら、「あれ、お願い」で言いたいことが分かる。最初には分からなくても、極端な話手の振り方で分かる。同じ「あれ」でも、たくさんの意思伝達が可能だ。
スマホや音声アシスタントは、現在ではマジックワードで起動することになっているが、そのうち学習によって呼ばれているかどうかをより厳密に判断し、内容も曖昧なまま伝えられる、ということが起こるのではないだろうか。
こうなるともう、人間よりも都合の良い存在になる。人はますます語彙が減っていき、AIは賢くなる、そんな時代も想像できる。なんだか良いことなのか悪いことなのか分からなくなってきた。
0 件のコメント:
コメントを投稿