ロボットに耳〜日経サイエンス2013年10月号より
人の会話以外の音も理解できる賢いロボットを目指す新たなアプローチ
iPhoneに搭載されたSiri(シリ)などの音声認識ソフトウエアのおかげで,ロボットは人間の発話を聞き分けて反応できるようになっている。だがそうした“賢い”機械も,他のほとんどの音にはまだ苦戦中だ。ボストンにあるリシンク・ロボティクスのロボット工学者ロマーノ(Joseph Romano)は「環境音の認識はある意味で音声認識よりも単純な問題なのだが,あまり研究が進んでいない」という。「ロボットのフィードバックループに環境音認識は組み込まれてこなかった」。
ロマーノは現在,ロボットに人間の会話以外のものを聞かせている。ペンシルベニア大学の共同研究者とともに,ROAR(「ロボット用音響認識オープンソース・オペレーティングシステム」を意味する英語の頭文字を取ったもの)というソフトウエアを作成した。音声よりもはるかに広範囲の音に反応するようロボットを訓練できる。最近のAutonomous Robots誌に述べられているように,これに必要となる主な装備はマイクロホンだけだ。
音を聞かせて特徴を教え込む
訓練を始めるには,まずロボットがマイクロホンによって周囲の音を捕捉する。ROARはそれらを背景雑音としてそぎ落とす。次に,オペレーターが特定の動作を繰り返してROARに重要な音を教え込む。例えばドアを閉めたりスマートフォンのアラーム設定を切ったりして,その音をロボットに聞かせながら音の特徴に標識をつける。最後に,ROARは一連の訓練音をもとに,各動作に対応する音の一般的モデルを作り出す。(続く)
続きは現在発売中の10月号誌面でどうぞ。