英語で読む日経サイエンス

SCIENTIFIC AMERICAN September 2023

An AI Mystery

オウム以上フクロウ未満? 生成AIの“思考力”

By George Musser G. マッサー
English 日本語 日本語
No one yet knows how ChatGPT and its artificial-intelligence cousins will transform the world, and one reason is that no one really knows what goes on inside them. Some of these systems’ abilities go far beyond what they were trained to do—and even their inventors are baffled as to why. A growing number of tests suggest these AI systems develop internal models of the real world, much as our own brain does, although the machines’ technique is different.  ChatGPTや同種の生成AI(人工知能)が世界をどう変えることになるのか,まだ誰にもわからない。これらAIの内部で何が起こっているのかを誰も理解していないのが一因だ。これらのシステムのなかには学習・訓練した範囲をはるかに超えた能力を発揮するものがあり,なぜそうなるのかについて当のAIを発明した人々も困惑している。これらのAIシステムが人間の脳と同様に,実世界のモデルを内部に作り出していることを示す試験結果が増えている。モデル構築の仕方は異なるものの,私たちの脳に通じるところがあるのだ。
“Everything we want to do with them in order to make them better or safer or anything like that seems to me like a ridiculous thing to ask ourselves to do if we don’t understand how they work,” says Ellie Pavlick of Brown University, one of the researchers working to fill that explanatory void.  「これらのAIがどう機能しているかを知らずに,AIをよりよく,より安全なものにするために何かの工夫をしようというのは,馬鹿げていると思う」。AIが示す説明のつかない能力に説明をつけようと取り組んでいる研究者のひとりであるブラウン大学のパヴリック(Ellie Pavlick)はそう話す。
At one level, she and her colleagues understand GPT (short for “generative pre-trained transformer”) and other large language models, or LLMs, perfectly well. The models rely on a machine-learning system called a neural network. Such networks have a structure modeled loosely after the connected neurons of the human brain. The code for these programs is relatively simple and fills just a few screens. It sets up an autocorrection algorithm, which chooses the most likely word to complete a passage based on laborious statistical analysis of hundreds of gigabytes of Internet text. Additional training ensures the system will present its results in the form of dialogue. In this sense, all it does is regurgitate what it learned—it is a “stochastic parrot,” in the words of Emily Bender, a linguist at the University of Washington. (Not to dishonor the late Alex, an African Grey Parrot who understood concepts such as color, shape and “bread” and used corresponding words intentionally.) But LLMs have also managed to ace the bar exam, write a sonnet about the Higgs boson and make an attempt to break up their users’ marriage. Few had expected a fairly straightforward autocorrection algorithm to acquire such broad abilities.  あるレベルでは,パヴリックら研究者たちはGPT(「事前訓練ずみの生成的トランスフォーマー」を意味する略号)や他の大規模言語モデル(LLM)を完全に理解している。大規模言語モデルはニューラルネットワークという機械学習システムに基づいている。ニューラルネットは人間の脳の神経細胞の接続を大雑把にモデル化した構造だ。ニューラルネットのプログラムは比較的簡単で,コンピューター画面に表示して数画面にすぎない。
 これが一種の「自己修正アルゴリズム」を構成し,文中で次に出現する確率が最も大きそうな単語を,インターネット上にある数百ギガバイトのテキストから膨大な統計解析に基づいて選び出す。さらに訓練を加えることで,システムはこの選択結果をユーザーとの対話の形で提示できるようになる。
 つまりこの意味で,AIは学習したことを単に吐き戻しているだけだ。ワシントン大学(シアトル)の言語学者ベンダー(Emily Bender)の言葉を借りれば,AIは「確率論的なオウム」である(ヨウムの「アレックス」のような例もあったわけで,この表現はオウムを侮辱するのが本意ではない。アレックスは色や形,「食パン」の概念を理解し,それに対応する単語を意図的に話した)。
 だが大規模言語モデルはなぜか司法試験でも優秀な成績を取り,ヒッグス粒子についての詩を書き,ユーザーの婚姻関係をぶち壊すたくらみまで考案する。単純な自己修正アルゴリズムがこんな広範な能力を獲得すると予想していた人はほとんどいなかった。