AIフェイクの攻防〜日経サイエンス2022年6月号より
ロシアのウクライナ侵略において,「ディープフェイク」技術の懸念が現実のものに
ロシアの侵略行為によってウクライナ国内に戦火が広がるなか,インターネット上の情報空間でも戦争に関連した様々なフェイク情報の拡散が起きている。なかには,機械学習などのAI技術で作られたとみられるフェイク情報もある。AIで作る精巧なフェイク情報は選挙や国民投票などの機会に悪用される可能性が指摘されてきたが,その懸念が現実のものとなった。背景にはAIの学習方法の進展がある。その一方で,AIを用いてフェイク情報を自動検出する試みも盛んになっている。フェイク情報をめぐる攻防は新たな段階に入った。
3月16日にウクライナの複数のウェブサイトがハッキングを受け,同国のゼレンスキー大統領が降伏を呼びかける1分程度の映像が表示された。フェイスブックを運営する米メタなどがネット上に拡散する映像の削除に乗り出したが,米シンクタンクのアトランティック・カウンシルによれば,映像は依然としてロシアのSNSサービス「VKontakte(フコンタクテ)」などで拡散中だ。
Image:Atlantic Council’s Digital Forensic Research Lab 問題となったディープフェイク映像の一場面。テレビ局のウクライナ24で放送された映像を |
顔を入れ替えるディープフェイク
この映像はAIの機械学習技術を用いて作られたと考えられている。機械学習の一種である「オートエンコーダー」のアルゴリズムを応用すれば,事前に誰かが話した映像を改変するだけで,ゼレンスキー大統領自身があたかもその内容を話しているかのような映像を作れる画面上の“顔の入れ替え”が可能だ。こうした技術はディープフェイクと呼ばれる。2017年に米国のインターネット掲示板「Reddit(レディット)」でディープフェイク技術を用いた映像が投稿されたのをきっかけに,著名な芸能人や政治家のフェイク映像がいくつも作られ,ネット上に出回った。
「圧縮と復元」でフェイクを作る
オートエンコーダーは,映像中の各画像の情報を圧縮して特徴量を取り出すエンコーダーと,特徴量から元の画像を復元するデコーダーの2つの計算処理で構成されている。ここでいう「特徴量」とは,わかりやすくいえば顔の輪郭や目鼻口の配置などの基本的な情報だ。ただ特徴量は自動的に計算されるため,必ずしも人間にとって解釈可能なデータになるとは限らない。
デコーダーの出力結果が元の画像になるべく近づくようにエンコーダーとデコーダーを学習させ,後から異なる人物の画像データで学んだエンコーダーとデコーダー同士を接続することで,顔の入れ替わった動画を作ることができる。これが2017年に登場したディープフェイクの仕組みだ。(続く)
続きは現在発売中の2022年6月号誌面でどうぞ。