日経サイエンス  2017年3月号

「ノー」と言えるロボット

G. ブリッグズ(米海軍研究所) M. シューツ(タフツ大学)

知恵をつけたロボットが人間の命令を聞かずに反乱を起こし,逆に人間を支配する──古典的なSF物語だが,人工知能(AI)の急進展で絵空事とも思えなくなってきた。しかしこの記事の著者は,当面その心配はない代わりに,もっと切実な問題があるという。人間がロボットに不適切な指示を出し,ロボットがそれを“バカ正直”に実行して事故を起こす恐れだ。著者たちは初歩的な言語機能とAIを備えたロボットに,人間の命令に対していつどのように「ノー」というかを教え込む研究を進めている。いわゆる「適切性条件」をロボットの推論機構に組み込むと,人間から命じられた指令を実行すべきかどうかを判断するのに役立つという。

著者

Gordon Briggs / Matthias Scheutz

ブリッグズはタフツ大学でコンピューター科学と認知科学のPh. D. を先ごろ取得,現在は米研究評議会(NRC)のポスドク研究員として米海軍研究所で研究している。シューツはタフツ大学のコンピューター科学と認知科学の教授。同大学ヒューマン・ロボット・インタラクション研究所の所長として,この記事で述べられている研究を行っている。

関連記事
爆発的に進化するディープラーニング」 Y. ベンジオ,2016年9月号
完全な自動運転車はできるか」 S. E. シュラドーバー,2016年9月号
スーパーAI 恐るべし?」 S. ラッセル,2016年9月号
AIベンチャー プリファード・ネットワークスの挑戦」 吉川和輝,2016年9月号

原題名

The Case for Robot Disobedience(SCIENTIFIC AMERICAN January 2017)

サイト内の関連記事を読む

キーワードをGoogleで検索する

ロボット工学三原則適切性条件