
「観測した現象を,シンプルな法則とかコンパクトな数式とか,人間が把握可能なサイズのものに押し込めることを僕らは『理解』と呼び,そういう説明を見いだすことを『現象を理解した』と思ってきましたが,それは人間の脳や,その上に実装されている知性に課せられている制限条件のもとで物事を把握するうえで都合がよいからです」
──瀧雅人
大規模言語モデルの登場で,AIは急速に賢くなったように見える。どんな質問に対しても人間と区別がつかないほどの自然な受け答えをし,文章や画像を人間以上にうまく作れる。さらに,学習量が増えると,それまでできなかったことが突然できるようになる能力の創発現象が見いだされた。将来,AIが科学者を代替する可能性はあるのだろうか?
素粒子物理学から機械学習の研究に転じた立教大学准教授の瀧雅人氏は,人間の理解は人間の脳のサイズや機構に縛られた1つの方法にすぎず,AIには新たな理解の仕方があると語る。
瀧 雅人(たき・まさと)
立教大学准教授。東京大学大学院理学系研究科物理学専攻修了。博士(理学)。京都大学基礎物理学研究所で素粒子物理学,弦理論を研究する。その後,深層学習の研究に転じ,基礎研究と教育および社会実装に携わっている。著書に『これならわかる深層学習入門』(講談社,2017年)がある。
サイト内の関連記事を読む
キーワードをGoogleで検索する
説明モデリング/予測モデリング/Transformer/スケーリング則/能力の創発/オッカムの剃刀/エピクロスの多説明原理/アンサンブル学習法