統計力学がもたらしたAIの基礎
2024年のノーベル物理学賞はジョン・ホップフィールド教授(プリンストン大学)とジェフリー・ヒントン教授(トロント大学)の2人に贈られるというニュースが大きな驚きを持って迎えられたのは、それがAIの分野での功績が授賞理由だったからだ。一報を伝えるNHKの取材で樺島は、「コンピューターのアルゴリズムの研究はこれまでの常識ではノーベル物理学賞の範ちゅうではない分野なので、ひじょうに驚いています」と語っていたが、このときの樺島が我が事のように喜んでいたのは、ニューラルネットワーク、機械学習、ディープラーニングという現代のAIの基礎を、統計力学を駆使して物理学の側から構築したこの二人の科学者が、同じテリトリーで研究を続ける樺島のいわばヒーローでもあったからだ。
樺島がホップフィールドを最初に知ったのは大学院に入った頃だったという。
「ホップフィールド博士が、ニューラルネットワークは磁性体のイジングモデルそのものだと言ったのが1982年ごろ。私が大学に入ったのが1985年で、大学院に入ったのが1989年ですが、そのころにはすでにニューラルネットワークの研究にスピン系の考え方が使えるらしいという話が統計力学の中では広がっていました。」
つまり、若き樺島が研究者となった時にはすでに、統計力学の世界ではニューラルネットワークの話題が飛び交っていたのだという。
「どんどん研究が進むにつれ、どうやら情報の世界の根本の仕組みのところはすべて共通しているようだ、情報の理論はベイズの定理*で書ける問題が多いぞということがわかってきたのですね。一方で、真鍋淑郎博士とともに2021年のノーベル物理学賞を受賞したのがジョルジョ・パリージ博士という方ですが、1980年代半ばまでに彼はスピングラスという物質を解析するための方法を作り上げていました。私が1997年に半年ほどイギリスに滞在した時、情報の世界にはこのスピングラスの解析法を用いれば一網打尽にできる問題がたくさんあることに気づきました。情報の問題をスピングラスに見立てれば、そこにはとてもリッチなフィールドが広がっているのではないだろうかと思ったことを覚えています」
樺島はそう回想する。
それでは、これから耳慣れない用語の解説をしつつ、樺島の先端的にしてユニークな研究とその夢をたずねてみることにしよう。まずは、統計力学とは何かからスタートだ。
〝たくさんあるから起こること〟の不思議
たとえば摂氏0度に温度が下がると水は氷に変わり、摂氏100度に上がれば水は水蒸気という気体に変身する。あるいは、磁石は熱していくと、ある温度に達した時に突然磁力を失う(たとえばネオジム磁石は摂氏312度で)。そんなふうに性質が不連続に、つまり突然変わってしまうこと。これを相転移という。
「不思議ですよね。いったい、そんなことがなぜ起きるのか。それを調べるのが統計力学のメインテーマです。そしてその答えは……たくさん集まっているから」
たくさん集まっているから? 何が?
「たとえば空気だと、22.4リットル中には約6.02×10の23乗個もの分子があるわけです。これが分子1個、2個だったら、相転移みたいな性質は出てきません。だけど、アボガドロ数ほどたくさんの分子があるとなぜか不思議な性質が出てくる。たとえば世論が──世論調査の世論ですね──ワーッと沸騰するのも人がたくさんいるからですね。2、3人だったらちょっと仲間はずれが起こるぐらいなものが、膨大な人数がいるから世論が熱狂的になってしまう。あるいは、行き交う人でごったがえしている道路です。最初はみんな好き勝手に歩いていますが、そのうち人がさらに増えていくと、右側と左側とに人の流れが自然に分かれていきますよね。だから、簡単な答えとしては〝たくさんあるから〟なのです」
そう言って樺島は笑うが、ポイントは〝たくさんあると何が起こるのか〟であり、その不思議である。
「その不思議の中にある数式のようなものをなんとかして知りたい。それが我々のモチベーションになっているのです」
ニュートン力学は、物体の運動は「F=ma(力=質量×加速度)」という運動方程式に支配されているという。だから、分子一つ一つもこの運動方程式に従って動いているわけだ。だが一方で、別の法則も成り立っていることが熱力学でわかっていて、その代表的なものが「pV=nRT(気圧×体積=物質量×気体定数×温度)」という気体の状態方程式で表される関係である。
「つまり、同じ空気を見ているのだけど、ミクロに粒子を見ると〝F=ma〟で、マクロに集合体で見ると〝pV=nRT〟になっていると。この両者がどう関係しているのかを考えるのが統計力学なのですね。言い換えれば、ミクロから出発してマクロな振る舞いを説明するのが統計力学なわけです」
「量は質を変える」
more is different──「多は異なり」。あるいは、「量は質を変える」とも。これは1977 年のノーベル物理学賞受賞者フィリップ・アンダーソン教授の言葉で、樺島が大好きなフレーズである。
「たくさんの要素(分子などの一つ一つの対象のこと)があると、組合せがどんどん増えてしまってややこしくなる。つまり、ミクロのまま見ていくと、組合せの爆発みたいなことが起きてしまうので、何が起きているのか見えてこなくなるのですが、反対に〝上からの視点〟というか、たとえば顕微鏡の倍率を下げるようにマクロで見ると別の法則性が成り立っていて単純になるというのが経験的にわかっています」
人でごったがえしている道のたとえでいえば、ミクロな視点とは、一人一人の人間の都合(どこに向かっているのか、歩く速度はどれくらいか、考えごとをしてボンヤリしているか、一緒に歩いている友人とおしゃべりに夢中か……etc.)のことだ。この大量のパラメーターから一人一人がどう歩いて行くのかを予測し、それを千人分、あるいは1万人分考え合わせて計算し……などということはもちろん不可能である。これが組合せの爆発だ。だが、ドローンで上から観察すれば、いつの間にか大人数の集団の中に人の流れという規則性が生まれている……。
つまり、これが「多は異なり」ということ。あまりにもたくさんすぎるがゆえに計算不可能となるミクロの分子の運動の爆発的な組合せも、「多」をまるごと上から見ると、それは「異なる」法則に従うものとして計算可能になるということなのである。そのメカニズムを、統計力学を用いて調べるのである。そしてそれは確率論によって表現される。
「ほとんどの物理現象はその法則がわかっていても、将来何が起こるのかを予想するのはとても難しいのです。それを確率の方法を使って、そのマクロな性質を予言しようというのが統計力学です。もちろん、それは簡単なことではありませんが、ある特別な性質を備えたモデル(扱いやすくするために理想化した模型のようなもの)化をすることで、ミクロからマクロへの階層の移動(ミクロで起きていることがマクロでどのような現象として現れるか)というものが見えてくるのです」
そのモデルの一つが、冒頭に登場したイジングモデルである。
イジングモデルとは?
イジングモデル(図)は、もともとは磁石の磁性というものがなぜ出てくるのかを説明しようとして生まれた考え方のことである。
電子はスピンと呼ばれる磁気モーメント──小さな磁石のような性質を持っている。普通の物質では、原子内の電子のスピンの向きはてんでバラバラになっているのだが、外から磁場をかけるとそのスピンの向きが一定方向に揃う。するとその物質は磁性を帯びて磁石に引きつけられるようになる。ちなみに、もともと常温の状態でスピンが揃っているものが永久磁石というわけだ。
「ある温度になると突然磁力が無くなるという相転移が、なぜ磁石に起きるのか。それを説明しようとすると、膨大な数の電子が互いに引き合うような相互作用を考えに入れなくてはならず、あまりに複雑すぎて難しいのです。そこで、なるべく簡単にして考えようと、スピンの向きを単純に上か下かで表します。磁力も1か−1で表します。そのスピン一つ一つを立方格子──碁盤の目のようなマス目に配置します。このときスピンは相互作用の力が弱いので隣としか相互作用しません。すると、非常に簡略化された数理モデル、数理オモチャのようなものができあがるのですね。それがイジングモデルです。簡単にしたとはいえ、実際にはなかなか解きにくくはあるのですが、それでもなんとか手に負えるようになって、相転移がどうしておこるかがちゃんとわかるようになりました」
スピンがおのおの隣にならって向きを揃えようとする働きから磁石が生まれる。それならば、そのスピンの「隣にならう」性質のみに単純化すれば、そのスピンの数がいかに大量であっても、計算の対象としてマクロな視点で扱えるようになるということだ。つまり、気体のように。
このイジングモデルは、スピンに限らず、ミクロで相互作用しあう膨大な数の〝何か〟が、マクロでどのように振る舞うのかを分析する際の模範的なモデルとされている。このモデルが、物理学以外の分野でも使えるのではないかという発想から生まれたのが、冒頭のホップフィールドの発見なのだ。
「脳の神経細胞(ニューロン)は発火しているか、発火していないかの二つの状態のいずれかです。つまり、1か−1かで表すことができる。こうした素子をたくさんつなげることで、一種の人工脳、〝ニューラルネットワーク〟を作ることができます。つなぎ方にはいろいろありますが、70年代初めに複数のパターンを記憶し、想起することができるニューラルネットワーク、〝連想記憶モデル〟が相次いで提案されました。このモデルの提案には、中野馨博士、甘利俊一博士など日本人も大きな貢献を果たしています。それらの先行研究を吟味し、その本質はイジングモデルだと見破ったのがホップフィールド博士の最大の功績です」
ここにおいて、統計力学という物理学が、情報の世界に接続したというわけだ。
ちなみに樺島が90年代に出会ったスピングラス理論とは、相互作用が場所ごとにランダムに定まる磁性体ではスピンの向きがバラバラの状態のままで固まるという現象を説明するために考えられた理論である。ちなみに「グラス」は「ガラス」のこと。向きがバラバラなスピンの様子が、急激に冷やされて結晶化できなかったガラスに似ていることから「スピングラス」と呼ばれるようになったのだ。
自由で面白い情報の世界
いま、ありとあらゆる領域でAIによる大革命が進行中だ。その革命の大元には、ホップフィールドがイジングモデルをニューラルネットワークに持ち込んだことで始まった、機械学習の飛躍的な発展がある。つまり、統計力学がAIの進化を大きく加速させたのだ。樺島の仕事は、そのうねりをさらに大きく、さらに多様な領域へと広げていくことである。
「私の取り組んでいるのは、ChatGPTのようなきらびやかなのではなくて(笑)、機械学習においてのさまざまな重要なタスクの研究です。たとえば、〝分類をする〟という機械学習のタスクのアルゴリズムを作ることとか、いろいろな学習のシナリオを作るとかですね。学習のさせ方というのはいろいろあり、先生と生徒がいるとすれば、生徒がいい質問をすると学習はどんどんうまく進んでいくわけですね。データをうまく活用してそのような学習をさせれば、データの数に対して〝賢くなる率〟がグッと上がるはずなのですね。そのためのモデルを立ててみたりなど、いろいろな研究をしています」
CDMAといった携帯電話などで使われる無線通信方式もまた樺島のターゲットである。
「携帯電話の電波はまず一番近い基地局に送られますが、基地局は一人の携帯電話だけでなく、その周囲にいる大勢の携帯電話の面倒を見ているわけです。その時何が起こっているのかというと、たくさんの携帯電話の電波が混じり合うのです。その複数の電波が重なり合ったものから、どうやって元のそれぞれの電波を復元するか。このタスクでも、実はスピングラスの解析が使われているのですね」
そんなふうに、いまや通信の問題の多くが統計力学の対象だと樺島は言う。誤り訂正という、通信ネットワーク上で発生したエラー符号(ノイズ)を発見して訂正する技術においても同様だ。
「これがちょうどイジングモデルで相互作用を作ることに対応していて、ノイズが加わったとしても、統計学における推定というものをすることでちゃんと元に戻すことができるのですね。これは連想記憶モデルでも基本的には同じ仕組みなのです。統計学における確率分布で書ける現象ならば、みな統計力学の対象になるということですね。暗号などもそうですね」
はたまた、生物系のデータから情報を読み取るという研究もまた現在進行中だというのだから、いかに樺島のターゲットが広大なのかがわかる。
物理学では相互作用する3個以上の粒子(あるいはユニット)の動きを考えることを多体問題という。樺島から見れば、情報もまたビットという粒子の多体問題だ。
「情報というのは目には見えないですよね。抽象的な世界なのです。そんな抽象的な世界で扱う問題のほとんどは多体問題になっているのですが、物理と違って、情報の世界は次元の制約を受けません。3次元空間だと〝近い・遠い〟があって、上下左右もある。でも、情報の世界だと、〝みんながみんなの隣〟ということもあるのですね。たとえば飛行機の路線図みたいなものを考えれば、ハブ空港にはたくさんの路線がある、つまり〝お隣がたくさんいる〟。でも、路線が1本しかないローカル空港には〝お隣さんが一つしかない〟。これを空間と見なせば、場所ごとに隣の数が違っている空間になっているわけです。そんなふうに情報の世界では、いろいろなことを自由に考えられるので身動きしやすいというか、面白い問題を見つけやすいのですね。そういうのが好きです、私は」
AIに新発見はできない
統計力学の可能性を「コトの問題にモノの考え方を当てはめる」と樺島は表現する。通信から生物の行動まで、モノに還元できない、複雑極まりない世界の出来事(コト)に、自然科学的アプローチであるモノの方法論で挑む、それが統計力学だという意味だ。あるいは、むしろ、それができる学問こそが統計力学だということなのかもしれない。
いま推し進めている〝機械学習と物理学の融合〟を旗印にした「学習物理学領域」という新しい動きもまた、「コトの問題にモノの考え方を当てはめる」一環と言えるかもしれない。
「近代科学というものは、仮説を作り、それを実験で検証することを繰り返して発展してきたわけで、それはこれからも変わりません。学習物理学領域とは、それを機械学習の力を借りて加速しようということです。いままで10年かかっていたものが、たった1日で終わるということが、可能になる分野も出てくるのではないかと思っています」
天文学、素粒子物理学、物性物理学──さまざまな領域で機械学習、つまりAIによる研究の加速を目指すのだという。
それにしても、樺島はAIをどんなふうに考えているのだろうか。
「AIが得意な対象は、組み合わせ爆発です。理系の分野には、膨大な数の組合せを短時間に探索することができたなら飛躍的に伸びるだろうものがたくさんあります。たとえば材料設計とか高性能電池の開発などです。そういう分野でどんどんAIを使って伸ばしていけばいい。組合せ爆発があったり、データが膨大すぎて人間の目ではとても手に負えないとか、そういうところでは機械学習を積極的に使えばいいのです」
一方で、AIには新しい法則を見つけるようなことはできないだろうとも樺島は言う。
「AIは道具であるというのが私の立場です。一時期、シンギュラリティ云々と騒がれましたが(AIが人間の知能を超えてしまうと由々しき事態が起こるとした未来予想)、AIは道具なので人間が悪いことに使わない限り大丈夫です。便利に使えばいいのです。我々は自動車よりも速く走れないし、飛行機のようには飛べません。それと同じことが知識の面でも起きているということです。もういろいろなことは暗記しなくてもたぶんいいのだろうと思いますから、うまく使えばいいのですね。私も、プログラムを書く時に〝ファイルの入出力はどうするんだっけ?〟なんてAIに聞いていますよ(笑)。ただ、新しい発見であるとか、そういうことはAIにはおそらくできない。誰も考えたことがないようなことは、AIにはできないのです」
つまり、発見と創造──それこそが人間の仕事なのだということだ。
〝この手があったか〟を探そう
「大学の学部生だったころから、人がやらないような新しいことをしたいなと思っていたのですが、それができそうなフィールドが統計力学でした。実際、自由なんですね、統計力学は。対象がきまっていないから、縛りがない。だからすごく自由にやっていけると。非常に気に入っていますね」
そう言って樺島は楽しそうに笑う。そしてその大好きな自由を若者たちにも楽しんでほしいと、こんなふうに語る。
「いまはどうしても、決まったゴールに速く到達するということに力を入れがちなのではないでしょうか。あるいは、難問を解いたほうがエラいとか。でも、私は反対にそういうところをわざと避けているので(笑)、若い人には〝そういう手があったか〟を目指してほしいのですね。あまり競争しないで、自分が勝てるフィールドを見つけることに注力してほしいなと思います。決められた道筋を走ったり、同じ問題をみんなで競争して解くのではなく、ちょっとしたものでいいから新しい問題を見つけるとか、新しい視点を提供するとか、そういう自分なりの面白さを探す方面にもっと努力してほしい」
理学の魅力も、面白さを追求するところにあると樺島は言う。
「工学などにくらべて、理学の場合は制約ごとが少なく、自分の好きにやっていけるところがあります。そうすることで新しい発見、いままで考えてもみなかったようなことが出てくる。それが楽しいのです。理学は長いタイムスケールでしっかりしたものを見つけるもの。ところで、最近の若者には〝人の役に立ちたい〟と言う人が多いように感じます。人の役に立たなくてもいいのです。自分の好きなようにしていいのです」
そういう樺島に研究のモチベーションを訊ねるとこう答えた。
「楽しいことをしたい、ですね。人が気づいていないような、〝この手があったか〟というのをしたいのです」
ちなみに、〝この手があったか〟を見つけたことは過去に三度あったそうである。そのときは一日中にやにやしていたという。
「この手があったか、これでいけるか、とね。ほんとうに楽しいです」
*ベイズの定理:事象に関連する可能性のある条件についての事前の知識に基づいて、その事象の確率を記述するもの
※2025年取材
文/太田 穣
写真/貝塚 純一