2026年1月16日金曜日

Associatron(アソシアトロン)とは何か?

1972年に東大の中野馨先生が、脳のように「記憶が引き出される仕組み」を発表しました。(連想記憶ニューラルネット)
( 中野博士は1969年、人工知能の国際会議(初期のIJCAI系)でP.B.P(Pattern-by-Pattern)という連想記憶モデルを発表しています。)

ニューロン(神経細胞)を真似てプログラムを開発するという試みです。


 人間の脳は140億個の神経細胞(ニューロン)があります。この神経細胞をさらに細かくみていくと、神経は核から軸索(axon)がいくつものびており、これがほかの神経細胞と結合してネットワークを形成するのですが、神経細胞へ入力刺激が入ってきた場合に、活動電位を発生させ、他の細胞に変化する情報を伝達させて記憶させています。

人の神経細胞は主に3つの部分に区分けされ、細胞核のある細胞体、他の細胞からの入力を受ける樹状突起、他の細胞に出力する軸索に分けられます。
細胞の軸索終末と後ろの細胞の樹状突起の間の情報を伝達する部分には、微小な間隙を持つシナプスと呼ばれる化学物質による伝達構造が形成されています。




このシナプス結合が面白いのは、脳の記憶が「細胞の中にしまってあるデータ」みたいなものではなく、ニューロン同士の“つながり方”そのものとして成立している点です。つまり、脳の中のどこかに「記憶ファイル」が置かれているというより、ニューロンとニューロンを結ぶ無数の道の強さが変化して、その結果として「思い出せる」状態になる。そう考える方が正確に近いのだと思います。

そして、ここがプログラム開発の入口は・・・

ニューロンそのものの構造を完全に真似するのは無理だとしても、「つながりが変化すると記憶が変化する」という仕組みなら、コンピュータ上で再現できる可能性がある。たとえば、ニューロンiとニューロンjの結合が強いなら大きな数値、弱いなら小さな数値、興奮させる結合ならプラス、抑制する結合ならマイナス……というように、結合の性質を数字で表現するわけです。

こうして無数の結合を全部まとめると、ニューロン同士の関係は「数字の表」になります。数学的には行列です。ここで初めて、脳の話がプログラムに降りてきます。つまり、脳の連想記憶の本体は、ニューロンという粒を作ることではなく、ニューロン同士の結びつきを数値化した“装置”として表現することになる。そして実は、この装置を一度作ってしまうと、次の現象が起きます。



95年「Cで作る脳の情報システム」をJavaScriptにアレンジしたもの
中野博士の神がかってると思ったのは、ヒント(cue)。ヘッブの法則に
なかったスプリアス・アトラクタが前提でそれを排除しようとしなか
 った事。   既に連想記憶の中にエピソード記憶という一文もあった。


入力が少し欠けていたり曖昧だったりしても、ネットワーク全体が勝手に計算を進めて、ある状態に落ち着いていく。


ニューロンと軸索(axon)が、いや、黒い●達が

「こうだった筈だよ」
「いや、違うべ」
「みんな、どう思うよ」


と云って多数決で決めた結果、復元されたということです。

2014年に僕はそういう表現を使いました。

まるで「思い出す」みたいに。人間も、記憶を呼び出すときに完全な情報を持っていないことが多いのに、匂いや音や手触りのような断片をきっかけに、全体が急に戻ってくることがあります。あれとよく似たことを、数学とプログラムの中で起こせる可能性があるわけです。

この「記憶パターンを入れる → つながりの装置を作る → 少しの入力から思い出す」という方向を、かなり早い時代から真正面に考えていた研究者がいます。
中野馨博士です。
中野博士は、学習して当てる機械ではなく、記憶を持ち、思い出す機械を作ろうとした。そしてその発想を、神経細胞の結合のモデルとして組み立てたものが、アソシアトロン(Associatron)という連想記憶モデルです。


Associatronというと今や古典的な研究かと思われがちです。現に皆からはそう言われていますが、実は多くの可能性を秘めています。

AI(人工知能)と聞くと、多くの人はこう思うはずです。
ChatGPTみたいに文章を書く。画像を見て猫か犬か当てる。先生(正解データ)を大量に食べて賢くなる。こういうAIは、ここ十数年で爆発的に伸びた「学習型AI」であり、現在の主役はTransformer(トランスフォーマー)と呼ばれる仕組みによって支えられています。

Transformerは一言で言えば、「たくさんの文章や画像を読んで、次に来そうな単語や答えを予測する装置」です。文章なら、前後関係から次の単語を確率的に選ぶ。画像なら、学習したパターンと照らし合わせて分類する。つまり、Transformer系AIは徹底して“予測”の機械です。しかも賢さの多くは、大量のデータと巨大な計算資源(GPU)に依存しています。とにかく膨大な知識を取り込み、「統計的に最もそれらしい答え」を出す方向に進化しました。

ところが、アソシアトロンが狙ったものは、そこではありません。アソシアトロンは「正解を当てる」ことよりも、「思い出す」ことに焦点を当てています。人間の脳は、何かを思い出すときに、必ずしも正解データを参照しているわけではありません。むしろ、断片や曖昧な刺激(匂い・音・手触り・風景など)から、過去の記憶が勝手に立ち上がってくる。この現象を、数学とプログラムで再現しようとしたのが連想記憶であり、その代表例がアソシアトロンです。

Transformerが得意なのは「文章を続きを書く」「それっぽい答えを生成する」「分類する」ことです。一方、アソシアトロンが得意なのは「壊れた情報から元を復元する」「ノイズがある入力でも、記憶のどれかに吸い込まれて落ち着く」という、いわば“想起”です。Transformerが“図書館”だとすれば、アソシアトロンは“記憶の谷”です。少し似た刺激が入ると、谷に転がり落ちるように、過去の記憶へ戻っていく。

もう少しだけ言い方を変えると、Transformerは学習した世界の中で「推測して答える」AIですが、アソシアトロンは記憶した世界の中で「回復して思い出す」AIです。目指している方向が違うのです。だから、必要なものも違います。Transformerはデータと計算量をどこまで増やせるかの競争になりました。しかしアソシアトロンは、巨大化して何でも知る装置というよりも、限られた記憶を“思い出す”ための機械として、別の美しさを持っています。

そして何より面白いのは、アソシアトロンの発想がかなり古い時代にすでに存在していたことです。世の中がAIを「正解を当てる機械」として発展させるずっと前に、中野馨博士は「思い出す機械」を作ろうとしていた。現代のAIブームの外側に、もう一本の太い流れがあります。その入口に、アソシアトロンというモデルが存在しています。





0 件のコメント:

コメントを投稿

アソシアトロン論文 the Associatron paper by Nakano (1972)

  中野馨先生の論文 Kaoru Nakano(中野馨) “Learning Process in a Model of Associative Memory” Nakano, K. (1971). Learning Process in a Model of Associati...