2017年11月19日日曜日

ジェスチャー入力


Googleが「Teachable Machine」というサイトを公開しているのだが、これが秀逸だ。3つの違った状態を表す画像を、PCカメラから入力することができるようになっている。アウトプットは3つの違った画像を表示するだけとか音声を流すとかだけなのだが、入力が自分のPCのカメラ(TV電話で使うあれだ)なので、手近なものを映して学習させることができる。例えば、怒った顔はウサギ、普通の顔はカメ、笑った顔は狸の画像を表示することができる。

単に「画像による学習」と言われると何に使っていいものかと悩むが、この、言わば「自撮りカメラ」と機械へのインプットを結びつける技術は、簡単な応用がある。ジェスチャー入力だ。

もちろん遊びでも使えるが、実用も侮れない。整理するとこのようになる。
  1. 手近にキーボードがなく、(遠くの)カメラから映されている状態で、そのカメラ経由で情報を伝える。
    1. イベントの雑踏の中で、怪我人が出たことを通報する。
    2. お化け屋敷でお化け役が次のアクションのタイミングを図る。
    3. 飛行機の誘導員のボディサインを飛行機自身が認識する。
    4. 信号が故障したときの誘導員や警官のジェスチャーを自動車が認識して信号と同等に扱えば、自動運転車でも速やかに動ける。
  2. 目の前に顧客が居て、キーボードをカチャカチャさせるのは失礼な状態で入力する。
    1. 保険や銀行窓口などでの相談で使用する。
    2. 病院での問診に使用する。
  3. キーボードの苦手な人がジェスチャーで入力する。
    1. 重役による稟議をうなづきと首振りで識別する。
    2. 高齢者、幼児、障害者などの意思確認に使う。どちらかといえばエビデンスで使うのかもしれない。
  4. 銀行強盗に「動くな」と脅されているときに「目で合図する」。
  5. 手話ができる人が手話で入力する。
Googleが既にフリーソフトにして配ったり、無償のデモサイトを作っているような技術である。それほど高価なものにはならないはずだ。安価なソフトでも、広い応用が期待できる。

0 件のコメント:

コメントを投稿

注目の投稿:

超音波モーターの原理によるVR用トレッドミル

  VRにおけるリアリティ問題の一つに、その場で動くのではなく移動する場合、つまり歩いたり走ったりすることが挙げられる。実際にはその場にいるので、歩いたかのように足場を調節してやる必要がある。 これを実現する方法として、すり鉢状の滑りやすい足場を作っておく方法と、トレッドミルを使...

人気の投稿: