Spying on Your Emotions


By John McQuaid J. マックエイド
English 日本語 日本語
In Liverpool, England, at a February 2020 conference on the rather unglamorous topic of government purchasing, attendees circulated through exhibitor and vendor displays, lingering at some, bypassing others. They were being closely watched. Around the floor, 24 discreetly positioned cameras tracked each person’s movements and cataloged subtle contractions in individuals’ facial muscles at five to 10 frames per second as they reacted to different displays. The images were fed to a computer network, where artificial-intelligence algorithms assessed each person’s gender and age group and analyzed their expressions for signs of “happiness” and “engagement.”  2020年2月に英リバプールで開かれた政府調達に関する地味な会議で,参加者たちが出展者や業者のブースを見て回った。彼らが一部のブースに長居し,別のブースを素通りする様子は注意深く監視されていた。会場のあちこちに設置された24台のカメラが各人の動きを追跡し,それぞれの展示に反応して顔の筋肉が微妙に収縮する様子を毎秒5〜10フレームで記録していたのだ。画像はコンピューターネットワークに送られ,人工知能(AI)が各人の性別と年齢層を判定するとともに,表情を分析して「満足」や「関心」を示すしるしを探した。
About a year after the Liverpool event, Panos Moutafis, CEO of Austin, Tex.–based Zenus, the company behind the technology, was still excited about the results. “I haven’t seen lots of commercial systems getting this level of accuracy,” he said to me during a video call, showing me a photograph of the crowd, the faces outlined with boxes. Zenus engineers had trained the system to recognize emotions by having it examine a huge data set of facial expressions with labels describing relevant feelings. The company validated the program’s performance in various ways, including live tests when people reported how they felt when an image was taken. The system, Moutafis said, “works indoors, it works with masks, with no lighting, it works outdoors when people wear hats and sunglasses.”  リバプールでの会議から約1年後,この技術を開発したゼヌス社(テキサス州オースティン)のCEOムタフィス(Panos Moutafis)は結果に興奮冷めやらぬ様子だった。彼はビデオ通話による私の取材に答えて「これほど精度の高い商用システムはまずないと思う」と話し,顔の部分が四角で囲まれた群衆の写真を見せてくれた。同社の技術者は,感情のラベルが付いた顔の表情の膨大なデータセットをシステムに与えて訓練し,顔写真から感情を認識できるようにした。そして,撮影されている人たちに現在の気持ちを自己申告してもらうライブ試験など,様々な方法でプログラムの性能を検証した。このシステムは「屋内で人々がマスクをしていても,照明がなくても機能する。屋外で帽子やサングラスをしていても機能する」とムタフィスは語る。
The Zenus setup is one example of a new technology—called emotion AI or affective computing—that combines cameras and other devices with artificial-intelligence programs to capture facial expressions, body language, vocal intonation, and other cues. The goal is to go beyond facial recognition and identification to reveal something previously invisible to technology: the inner feelings, motivations and attitudes of the people in the images. “Cameras have been dumb,” says A.C.L.U. senior policy analyst Jay Stanley, author of the 2019 report The Dawn of Robot Surveillance. “Now they’re getting smart. They are waking up. They are gaining the ability not just to dumbly record what we do but to make judgments about it.”  ゼヌス社のシステムは「感情認識AI」あるいは「感情コンピューティング」と呼ばれる新技術の1つで,カメラなどの機器とAIを組み合わせて表情や身振り,声の抑揚などを記録する。目標は顔認証や本人確認を超えて,人々が内に秘めている感情や動機,物事に対する考え方など,以前は技術的に不可視だったものを可視化することだ。「カメラはこれまで何も語らなかった」と,2019年の報告書「The Dawn of Robot Surveillance」の著者で,アメリカ自由人権協会(ACLU)の上級政策アナリストのスタンレー(Jay Stanley)は言う。「現在は賢くなりつつある。覚醒中だ。私たちの行動を黙々と記録するだけでなく,それを判断する能力を獲得しつつある」。