2026年1月16日金曜日

Associatron(アソシアトロン)とは何か? その3

 Transformerは「次に来そうな単語」を当てるのが得意で、世界の知識を統計的に圧縮したような巨大モデルです。これによって、文章生成や会話は信じられないレベルに到達しました。ここだけ見れば、たしかに「もうアソシアトロンなんて古典だ」と言いたくなる気持ちも分かります。

でも私は、アソシアトロンにはTransformerとは違う意味があると思っています。Transformerは賢くなるほど巨大化し、学習データが増え、GPUが必要になり、クラウドに依存しやすくなりました。言い換えると、Transformerは「世界をまるごと飲み込む方向」のAIです。だから、何でもできるように見える。しかしその一方で、私たちが日常で求めている知能は、必ずしも“世界中の知識”ではありません。

たとえば、目から見る映像はカメラのように数百万画素を動画で記憶しているわけではありません。もしそれが可能だとしたら、何処に何という虫が何匹居て、鳥が何羽空に飛んでいて映し出す山の木々の本数も後で数えることが出来るということです。そんなことは人間の脳でもTransformerでも量子コンピューターでも不可能です。たぶん、一枚の静止画がやっとではないでしょうか。人間の脳は蓄積型ではありません。どこかで記憶が曖昧になったり忘れたり、何かの拍子で思い出したりします。


人間の脳は「記録装置」ではなく「意味の圧縮装置」

たとえば、目から入ってくる映像はカメラのように数百万画素の動画として保存されているわけではありません。もし本当に動画を画素単位で保存できるなら、

  • どこに何という虫が何匹いたか

  • 空に鳥が何羽飛んでいたか

  • 山に木が何本立っていたか

まで、あとから「数え直す」ことが出来るはずです。しかし実際の人間はそうではありません。私たちは「映像の記録」をしているのではなく、もっと違うことをしています。

脳は映像を 丸ごと保存する代わりに、

  • 重要な特徴だけを抜き出し

  • 自分の過去の経験と結びつけ

  • “意味の形” に圧縮して覚える

つまり脳は蓄積型(ストレージ)ではなく、圧縮型の連想装置です。

だから記憶は、

  • どこかで曖昧になったり

  • 忘れたり

  • 何かの拍子で復元されたり

する。

ここが「記録メディア」と決定的に違う点です。


圧縮の本質:「全部を覚えない」ことが賢さ

記憶の圧縮とは、単にデータ量を小さくすることではありません。

ポイントは、

“重要なものだけ残して、残りは捨てる”

という設計思想です。

数百万画素の中の画像の中の虫や飛ぶ鳥、行き交う人々を全て記憶しているわけではないのです。


そしてその「重要なもの」とは多くの場合、

  • 形(輪郭)

  • 配置(関係)

  • 動きのクセ

  • 自分の感情・痛み・匂い・経験

などであり、
画素そのものではありません。


アソシアトロンは「画像」を保存しない。「結びつき」を保存する?

アソシアトロンがやっていることは、写真の保存ではありません。

アソシアトロンが保存するのは

記憶パターン(刺激)から
結びつきの行列T を作り、
それを蓄えることです。

データではなく谷=アトラクタのような地形に記憶させる

つまり、

  • 入力パターン v(例:顔の25×25の点)

  • それを何枚も見せる(学習)

  • すると T が更新されていく

この T は、記録画像ではなく

「こういう特徴が来たら、こういう特徴が続いて出やすい」

という 脳内の配線図(クセ) です。



人間の生活に必要な記憶は、もっと局所的で自分の過去、経験、顔、匂い、思い出、土地の空気、店の常連の癖、そういうものです。そして、それらは膨大なデータとして学習した結果ではなく、「ある刺激で勝手に立ち上がる」ことが多いのです。つまり、人生の記憶は“検索”より“想起”に近い。私はここに、アソシアトロンの未来があると思っています。


Transformer

そういえばさ、この前話したコーヒー豆の件だけどさ

というと、この前までの膨大なログから探さなくてはいけなくなります。

そう、彼の最も苦手な分野です。

しかし、AssociatronLLMと連携することにより

あぁ、成城石井のフレンチローストが特売になってたって話でしょ

と答えれるようになる可能性を秘めているという事です。

この前の話を最初から説明する必要がなくなる。

奥さんの話に賛同するけどね・・・


アソシアトロンは知識を増やす装置ではなく、記憶を持ち、少しの入力から元の状態に戻す装置です。ハードディスクも必要ない。作り方によってはGPUに極端な付加をかけずにつくれる。データベースのように取り出すのではなく、谷に落ちるように戻ってくる。だから、学習や分類や生成とは別の領域を担える。たとえば、ローカルで動作する小さな記憶装置、個人の経験を蓄積して思い出す装置、身体感覚に近い想起装置。そういう方向です。

そして、この発想が50年以上前にすでにあったという事実が重要です。中野馨先生が見ていたのは、流行ではありません。脳がやっていることの本質です。「思い出す」を装置にする。この一点に集中した結果として、アソシアトロンは今でも新しい扉を開く可能性を持っています。




0 件のコメント:

コメントを投稿

アソシアトロン論文 the Associatron paper by Nakano (1972)

  中野馨先生の論文 Kaoru Nakano(中野馨) “Learning Process in a Model of Associative Memory” Nakano, K. (1971). Learning Process in a Model of Associati...