AIボットへの信頼〜日経サイエンス2020年4月号より
人間は機械をなかなか信用しない
電話によるレストラン予約申し込みを受け付けるAI(人工知能)の合成音声や,消費者の質問にオンラインで応答するチャットボット(自動会話プログラム)など,人間を装うAI製品は着実に進歩している。そんななか,自分が話しかけている相手が機械なのか人間なのか不明という落ち着かない状況が今後ますます増えるだろう。だが,そうしたAI製品が自分の正体を明かすと,効力が弱まるかもしれない。人間とコンピューターのやり取りでは透明性と協力が二律背反となることが最近の研究でわかった。
この研究では単純だが微妙な判断が求められるゲームを利用した。ペアになったプレーヤーが,相手に協力するか相手を裏切るかを同時に決定するプレーを何度も繰り返すゲームだ。長期的には協力し続けるほうが両者にとって得になるのだが,寝返って相手の犠牲のうえに短期的に追加点を稼ぐという誘惑が常に存在する。
研究チームは,人間を装っている間は人間のパートナーが提示する協力戦略よりも有利な協力戦略を提案するAIアルゴリズムを使った。人は機械を信用しない傾向が以前の研究で示されており,このAIが自分の正体を明かした場合にどうなるかを調べようと考えた。
根深い先入観
相手がAIだと知ったプレーヤーはその協力能力を認識し,ついには不信感を克服するだろうと研究チームは期待していた。「残念ながら,そうはならなかった」と,昨年11月のNature Machine Intelligence誌に発表された研究論文の上席著者となったニューヨーク大学アブダビ校のコンピューター科学者ラーワン(Talal Rahwan)はいう。「このAIがどんな戦略を提示しようとも,人は最後までボットに対する先入観を捨てなかった」。
ボットであることを隠さずにプレーしたAIは,たとえそれが提示した戦略が明らかに両者にとってより有益なものであっても,人間に比べると協力を引き出す確率が低かった(実験でボットは150人以上を相手に各50回プレーした)。また,「AIを人間のように扱ったほうがよい結果になることがデータから示されている」とプレーヤーに伝えたうえでゲームをする追加実験を行ったが,何の効果もなかった。(続く)
続きは現在発売中の2020年4月号誌面でどうぞ。