
難問を解きたいなら,人間の脳を使うのがよいようだ。
ChatGPTをはじめとする人工知能 (AI) は,医療診断やIQテスト制覇,科学論文の要約などで見事な成果を上げてきた。しかし本誌としては,ChatGPTが,本誌に長年にわたって人気コラム「数学ゲーム」を連載した大御所ガードナー(Martin Gardner,2010年死去)と対決したらどうなるかが気になる。そこで私は以下の4つの文章題をChatGPTに投げて確かめてみた。これらの問題は,ガードナー自身のものと,2014年の本誌「数学ゲームは終わらない マーチン・ガードナー生誕100年」(日経サイエンス2015年1月号)の中にある数学者ムルカイ(Colm Mulcahy)と計算機科学者リチャーズ(Dana Richards)によるものである。
満足できる結果もあったが,まるでダメなものも。しかしChatGPTや類似のAIがどのように動作しているかは推測できた。
オープンAIという会社が開発したChatGPTは大規模言語モデル(LLM)に基づいている。LLMとは,巨大なテキスト情報(書物やウェブサイトなどからAI開発者が入手したもの)を与えられた深層学習システムのことである。ChatGPTは応答を作成するときに,どの単語の次にどの単語が最も来やすいかをしっかり学習する。その後,ユーザーのいろいろな質問に対してどう応答するのが最善か,特に慎重に扱うべき質問にどう応答するかについて,人間がシステムを訓練する。
要は,それだけだ。
「AIは論理的な推論能力を持たないし,文脈も理解していない。システムにすでに組み込まれたものに依存したもの以外は何も持っていない」とミシガン大学のデータサイエンス倫理学者ヒコック(Merve Hickok)は言う。「AIが推論しているように見えるかもしれないが,実のところデータセットに縛られているのだ」。
以下に示すのは,シリコン半導体と灰色の脳細胞の情報処理がどのように違うかを際立たせる,どちらかというと簡単なパズルである。
著者
Meghan Bartels
原題名
You Can Probably Beat ChatGPT at These Math Brainteasers. Here’s Why(scientificamerican.com May 25, 2023)