英語で読む日経サイエンス

SCIENTIFIC AMERICAN January 2019

The Particle Code

素粒子探索の新数学 アンプリチュードロジー

By Matthew von Hippel M. フォン・ヒッペル
English 日本語 日本語
The Large Hadron Collider, or LHC, is the biggest machine humans have ever built. Pooling the resources of more than 100 countries, it accelerates protons to within a millionth of a percent of the speed of light. When they collide, the protons break into their component parts (quarks and the gluon particles that glue them together) and create particles that were not there before. This is how, in 2012, the LHC achieved the first detection of a Higgs boson, the final missing particle predicted by the Standard Model of particle physics. Now physicists hope the LHC will find something genuinely new: particles not already in their current theory—particles that explain the mystery of dark matter, for instance, or offer solutions to other lingering questions. For such a discovery, scientists must pore through the 30 petabytes a year of data the machine produces to identify tiny deviations where the results do not quite match the Standard Model.  大型ハドロン衝突型加速器LHCは人類が作った史上最大のマシンだ。世界の100カ国以上からの共同出資で建設されたこの加速器で陽子が光速の99.999999%まで加速される。超高速の陽子どうしを正面衝突させると,それらは構成要素であるクォークと,クォークを結びつける“のり”の働きをするグルーオンに分解され,続いて起こる反応でクォークやグルーオンから別の粒子が生成される。2012年にLHCで発見されたヒッグス粒子(素粒子物理学の標準モデルが予言した粒子の中で最後まで見つかっていなかった粒子)もこのようにして生成されたものだった。
 物理学者はいま,LHCで本当に新しい何か,例えば標準モデルに組み込まれていない未知の粒子(暗黒物質など長年の未解決問題に対する解答を提供する粒子)を発見することを目指している。そのためには,LHCが生み出す1年あたり30ペタバイト(ペタは10の15乗)もの膨大なデータを解析し,その中から標準モデルの予言と合致しないほんのわずかなずれを見いだす必要がある。
Of course, all of that effort will be useless if we do not know what the Standard Model predicts.  当然ながら,そういった努力は標準モデルの予言を正確に計算できなければ無駄に終わる。
That is where I come in. The questions we want to ask about the LHC come in the form of probabilities. “What is the chance that two protons bounce off each other?” “How often will we produce a Higgs boson?” Scientists compute these probabilities with “scattering amplitudes,” formulas that tell us how likely it is that particles “scatter” (essentially, bounce) off each other in a particular way. I am part of a group of physicists and mathematicians who work to speed up these calculations and find better tricks than the old, cumbersome methods handed down by our scientific forebears. We call ourselves “amplitudeologists.”  標準モデルに基づく理論計算こそが私の専門分野だ。LHCのデータを解析するにあたって私たちが計算しておくべきものは確率の言葉で表現される。「2個の陽子がまったく壊れずに跳ね返る確率は?」 「ヒッグス粒子が生成される確率は?」 こうした確率は「散乱振幅」から計算される。粒子がある特定の仕方でどれくらい散乱されるか,どれくらい別の粒子を生成するかを教えてくれる式だ。私は多くの物理学者と数学者が参加するグループの一員として,その計算をスピードアップし,従来の方法ではとても面倒な計算を簡単に行えるようにするトリックを見つける研究を行っている。私たちはこの分野を「アンプリチュードロジー(振幅学)」と呼び,自分たちのことを「アンプリチュードロジスト(振幅学者)」と呼んでいる。
Amplitudeologists trace our field back to the research of two physicists, Stephen Parke and Tomasz Taylor. In 1986 they found a single formula that described collisions between any number of gluons, simplifying what would ordinarily be pages of careful case-by-case calculations. The field actually kicked off in the 1990s and early 2000s, when a slew of new methods promised to streamline a wide variety of particle physics computations.  振幅学は2人の物理学者パーク(Stephen Parke)とテイラー(Tomasz Taylor)による研究に端を発している。1986年,彼らは本来ならば何ページも費やして慎重かつ個別に計算しなければならないグルーオン衝突における散乱振幅を,(ある特殊なものに限っては)散乱されるグルーオンの数によらず統一的に書き下す一般公式を発見した。その公式と新たに開発された計算テクニックを組み合わせると様々な散乱振幅の計算を効率化できることがわかり,1990年代から2000年代初期に振幅学が本格的に幕を開けた。