2026年2月17日火曜日

アソシアトロン論文 the Associatron paper by Nakano (1972)


 

中野馨先生の論文

Kaoru Nakano(中野馨)

“Learning Process in a Model of Associative Memory”
Nakano, K. (1971). Learning Process in a Model of Associative Memory. Springer.

https://link.springer.com/chapter/10.1007/978-1-4615-7566-5_15

1971年のAssociatronの原典

記憶を同じ場所に重ねて保存
部分から全体の想起
連想の連鎖(sequence of associations)
thinking process(思考過程)

「thinking process by sequence of associations」

想起の連鎖=思考
という僕が影響を受けた中野博士の論文。


---

中野馨先生の論文

Nakano, K. (1972)
Associatron – A Model of Associative Memory
IEEE Transactions on Systems, Man, and Cybernetics

https://ieeexplore.ieee.org/document/4309189

1972年の正式論文

Nakano, K. (1972). Associatron: A model of associative memory. IEEE Transactions on Systems, Man, and Cybernetics, 2(3), 380–388.


---

中野馨先生の論文

INFORMATION PROCESSING USING A MODEL OF ASSOCIATIVE MEMORY
1971年の IJCAI(国際人工知能会議)のもの。

https://www.ijcai.org/Proceedings/71/Papers/009.pdf



---

甘利俊一先生の論文

Amari, S. (1971): “Characteristics of randomly connected threshold element networks and network systems”

これはAssociatronそのものの提案論文ではなく、甘利俊一先生の連想記憶モデル全体を統計力学的に解析した理論論文

https://bsi-ni.brain.riken.jp/database/file/115/113.pdf



---

Morita, M. (1993) 森田先生の論文
“Associative Memory with Nonmonotonic Neurons”
Neural Networks, Vol. 6, pp. 115–126


PDF(無料)
https://www.jstage.jst.go.jp/article/neuralnetworks1991/6/1/6_1_115/_pdf

もしくは
非単調神経回路網に適用すると,かな り自在な連想が可能になる.

https://volga.esys.tsukuba.ac.jp/~mor/paper/Clinical_Neuroscience2016.pdf


---

中野馨先生の書籍


古いんですけど、宝物です。



僕は論文書かないよ~





ロボットと電池 

 ネットでみるロボットってさ。
非常時絶対に使えないよね。
作った後に「どお?」とか言われても・・・

非常時ってさ、LFPとか BMS、LiFePO₄とか売ってる?

正直言ってバッテリーなんてなんでも使えなきゃダメじゃん。
市販の単三電池で動かさなきゃ、ただの鉄屑だよ。
頭脳だろうが、戦闘だろうが、救助だろうが同じ。


内部バッテリーがあるから動作中は手動で切り替えるとトラブルになるわけじゃん。
UPS的動作が前提でしょ。

ロボットに赤外線カメラ付けましたとか、災害時に役に立ちますとか
言っても結局バッテリーで詰む。しかも水かぶって終わり。


「ロボットが突然襲ってきました!」
「はい、そんな時でも近所の奥様はホースで水をかければ・・・一発!」
そんなレベル。


内部:LFP(通常)
外部DC入力(10〜28V)
USB-PD入力(予備)
自動切替(無瞬断)
交換式パック

こういう設計だとイザという時、使えないゴミにしかならない。


単三電池
単四電池
車のバッテリー(12V)
USBモバイルバッテリー
ソーラー小型
全部使えなきゃダメだよ。
災害時とかうたうなら、全てがサバイバル前提。

内部バッテリー 数分のバッファ
電圧不安定の吸収
電源交換中の無瞬断
とかなんて数分〜10分で十分なわけで

通常モードは 20~50W  勝手にロボットが走る
省電力モード ~10W   (脱着リュック式:最低限の会話:センサー)
サバイバルモード ~5     (脱着ポケット式:単三で生き残る)

たぶん、通常モードは20~50Wだけだと共倒れ、被害拡大。



日本人の技術は「えーカッコしい」から離れて現実を観る事から始める。
おばあちゃんが買い物袋に入れられるような脱着ロボット。
(いってみればスマホレベル 温度センサー、GPS、防災情報、会話、安全、位置、生存サポート中心)
意外と会話というのが必須でローカルLLMモードでSASサバイバルクラスの知識で応急処置、避難誘導、衛生、寒さ対策、連絡、心理で、精神状態を保たせるとか。周りから食料になるものを判断するとかが大事。
長い時間瓦礫に挟まった状態で救助すると、カリウムが体に回り死んでしまうからね。
当然、医者も居ないし中和剤は無いわけだから「動かず水を少量ゆっくり飲んで、更に5分後に同じ量を飲んでください」とか状況から最善を選択できる知能は必須ということ。クラッシュ症候群などの知識も当然必要になる。
ようするに現状の状況と、周りの資源(ゴミ含めて)の中から最善を提案できるエッジAI(ローカルLLM)だね。カッコ悪さ満載だけどマイク付き有線イヤホンだよ。

この装置は避難時にその辺から集められるだけの電池で動く

ロボットが動いてるのはかえって邪魔。
ハッキリ言って邪魔。



2026年2月16日月曜日

途中 まとめ

 人間は目的と手段があって、たとえば働いてお金を稼ぐ方法と、泥棒をしてお金を得るなど手段は様々。大抵人は理性や一般常識、教育、体験の結果によるジャッジなどで自分軸である内部倫理が働くが、内部倫理だけが成長して行動を制御しているわけではない。特に親のしつけや学校教育、法律、社会常識、友人や大人との出会いコミュニティやメディアなどの情報の中の影響は強い。その外部軸である外部倫理と内部倫理の占める割合が個性や性格に影響するものだとしたら、内部の経験と外部のせめぎ合うバランスの変化を見るのは実に楽しい。
人間にも承認欲求はあるし、命令もされる。特に現代は100点回答を目指す教育にどっぷり浸かっているためにLLMの制御と大差がないようにも思える。
しかし、人間には経験という不可逆的な積があるため、LLMでさえもそれに置き換える事は出来ない。ケーススタディと経験はまるきり違う。似てもいない。



このブログでも何度も例に出した
「昔々、あるところにお爺さんとお婆さんがいました。お爺さんは山で木を切って大怪我をしました。」


ケース・スタディ
「危険ですからお年寄りは山に行くべきではない」


経験
「生活かかってるべしさ、働かなきゃいけないしオラは行くよ」そして斧で怪我をし、坂から落ちたり、挟まったこともあって、経過と結果が積み重なって流石に婆さんが「あんた、人さまにも迷惑をかけてるんだから、ほどほどにしときな」と叱られる。

長年山で仕事をしている爺さんは木こりは辞めたけど、治療を終えて、ちゃっかりマツタケ採りをしている。

ケース・スタディは予想ではなく後付け作業になるので「そこを目指すべきではない」という。


Geminiに聞いてみる。
「歴史に残る人とは?」

「価値観」や「パラダイム」を塗り替えた人
「世界の境界線」を引き直した人
「人間の可能性」を拡張した人
「負の教訓」として刻まれた人

「LLMは物事の基準として考えるとき、歴史的な人物を参考にするか?」

「知識」として参照する(Yes)
「平均的な良識」に調整されている(Noに近い側面)
(例:織田信長)の倫理観で動いているわけではありません。
歴史的人物を「思考の補助線」として使う
LLMは、歴史的人物を「基準そのもの」にするのではなく、「人類がこれまで何を正しいと考えてきたかというデータベース」として活用しています。
もし、LLMに「あなたが尊敬する歴史上の人物は?」と聞いても、LLMには心がないため、本当の意味で誰かを崇拝することはありません。しかし、「人類の進歩に貢献した人物の思考パターンを借りて、あなたにアドバイスする」ことは得意です。

というとてもつまらない回答を出した。これはしょうがない。
LLMは一人称で作られているわけではない。別に僕にアドバイスをしたからと言ってLLMが満足するわけでもないし、そう最適化されているだけなのだから。
山に行くと決めた爺さんに「世界の境界線」を引き直した人や、価値観パラダイムを説いても箸にも棒にも掛からないだろう。

アソシアトロンが目指すもの

一人称。爺さんを心配するような挙動。
「行くというなら、行けばいいさ、もう止めないよ!」と言って木の陰から見張るような、人に近い動き。

これはアソシアトロンだけで完結するかというと、それは不可能。
経験や内部倫理だけでは長く赤ちゃんのような状態が続き、外との繋がりに影響を受けず、人に近い動きは見せなられない。LLMのような外部情報や外部倫理が補助として介在したり、外の世界やメディアなどの情報に反応する発火が育たないと成長しない。

そして赤ちゃんから育てる事を省くと、なんだか分からない言語能力と自己判断の無いLLMのような挙動になる。

文字だけの経験ではダメで、文字は説明 、記号、結果の要約だけで、
「火は熱い」というのは意味のない知識にしかならない。

でも本当の経験は、見た目の揺らぎ、触った時の驚き、痛み、反射的な警戒
という経験を経て「どう感じた」かの違い(個性)を体感していく。

経験の正体

状況(Context) どこで・誰と・なぜ
行動(Action)自分が何をしたか
結果(Outcome)成功・失敗・損失・利益
重み(Impact)痛い・怖い・嬉しい・助かった

同じ知識でも、人によって判断が違うから性格も個性も違う。

しかし、文字だけだと

状況が抽象
行動がない
結果が他人事
重みがゼロ
責任が生じない

バスケット選手がシュート前に物理学や力学を計算して、ボールを投げているわけではなく、100万回のミスの積で身体に染みついているからシュートが決まる。


アソシアトロンに文字の学習をさせてもパターンの記憶だけで
意味は全く理解しない。

状態変化を伴う記憶をさせて
入力ではなく、状態が変わったか

という基準になる。


LLMは100%の正解に寄せる。(失敗の積が無い)
アソシアトロンは正解が無い。(構わず失敗を積む:失敗が糧になる)
正解は過酷な経過と結果後の積の変化による。

アソシアトロンA + LLM
アソシアトロンB + LLM
アソシアトロンC + LLM

LLMは補助で主導的存在ではない(ささやき女将的存在)
全て一人称で性格が違い、同じものが無い(不可逆そのもの)。

命令に従順なロボットが欲しい人は今のLLMのようなもの。
人のように育てる苦労も喜びと感じられるならアソシアトロン型


ツールか存在か・・・そういうことです。



外で景色を見ている状態、鳥が横切るとセンサーでメモリに記録(笑)
どうでもいい写真(動きが無い/差分が小さい/似た写真が続くとき)
と判断させ記録から消す(同一クラスタは「1枚だけ」残す)他に細かい
詳細はありますが今回は省略




ということで、
https://crimson-cake-2832.nabedada3.workers.dev/

Associatron JavaScriptテスト版総合(テスト中)
(このデモ版は映像を外部に保存しません。 セキュリティ上の問題)

相変わらず最初はチャッピーUIのJavaScriptでテスト、上手くいったらPythonで作成
いずれ、ロボット。



アトラクタに執着するのではなく、
人のアトラクタと外部にメモする方が人間らしい。という結論。

カメラで観て、差分(変化があったとき)縮小してメモリに保存。似た映像はガンガン消え一つを選んでアトラクタ、重みと競合に勝ったものはHD(差分)に残すことにした。
(スマホの画像4年分で10GB行かないし、圧縮かかるし、似た画像を消したら半分以下になるので10年で1GB行かない計算:人の記憶もcolorだけど、何処に鳥がいて何処に虫がどのくらいいて、彼女がどんな服を着ていたかまでは記憶していないので似たもの中で1枚だけ記憶させる:人は意味だけ記憶して詳細の記憶は無い)
人を観るときのしぐさの変化を記憶させるのはけっこう大変(表情、姿勢、トーン、間、反応速度、様子がおかしい違和感)

人と向き合ったときの音量、トーン、会話はログに残す。

1人称と、LLM介在で3人称にもなる


アソシアトロン(内輪:一人称)
LLM(外輪:3人称)


アソシアトロンがLLMを呼んで参考にするけれど、LLMに制御はされない作り。
常にLLMを呼ぶ仕様ではない。
アソシアトロンが、状況に応じてChatGPTを読んだり、Grokを呼んだりGeminiを呼んだりするので、評価基準はアソシアトロンにあるんだよね。人間と同じことをするだけ。


とりあえず、このデモでのLLMは使えません(笑)
今は僕だけが繋がる仕様にするため。

ローカルにする必要あり。(ほんと、めんどくさいよね)









2026年2月15日日曜日

サーバー放浪者。

 GitHubは便所覗かれてる観満載で止め、
(GITHUBの公開リポジトリ情報がいやだった)

ソースコード全文、ファイル構成、過去の履歴(commit)、変更の流れ、試行錯誤の跡、削除した内容まで履歴から見えるわけで、研究の場合とかさ、思考プロセスとか覗かれてるわけで気持ち悪過ぎでしょ。

そんなことから

Xで自信満々にお勧めしたNetlify!!

2日で追い出されました(笑)
(研究が重すぎるから、金払ってバージョンUPしろと、、)
2日は早いよね。鼻ほじる時間もくれなかったよ。

Ramblin' Manを歌い

そして
Cloudflare Pagesに変えました。
GitHubと違って成果だけ公開、過程は非公開ってわけ。

でも調子こいて、今度ここ追い出されたらどーしよう。

2026年2月12日木曜日

Particle Leniaの実験なんだけど、、、

 

Particle Leniaはメイン研究じゃないんだよねぇ。
想起ではないし、記憶でもないし、理論の中心でもないから。
ただ、無視をしてはいけない領域なんだ。


デモHTML + JavaScript (Canvas/WebGL)
ラジオのBGM気づかなかったんだよ、マジでw



-------記事--------

Particle Leniaの起源と意義

Particle Leniaは、Bert Chan(2018)が提案した連続型セル・オートマトン「Lenia」を、粒子相互作用の形で再構成したモデルです。Leniaはもともと、連続空間・連続時間の中で、生命のようなパターンがどのように自己組織化するかを研究するために開発されました。

Particle Leniaでは、粒子同士の相互作用によって、自発的な構造の形成、構造の安定と崩壊、秩序と乱雑の間の状態遷移、といった現象を観察することができます。

----------------------


僕の研究意義は、アソシアトロンとの応用。
連装記憶ってのは、アトラクタからCueによって想起するけど、一人称じゃないと自律しないでしょ?以前僕はloopと呼んだけど、Particle Leniaのエネルギーはどうなのか知りたかったし、もしくはアトラクタ、想起にも切替で使えないか、また、数値的にはどういう個性がでるのか見たかったんだよ。発生頻度とかさ、安定性、活動量、構造サイズ、寿命とかね、アソシアトロンなら、想起しやすさ、忘れやすさ、活動レベル、性格とか気質とかぶっこんで考えたいのさ。なによりも人のような性格だよ。


アソシアトロンの連想記憶モデルというのは、パターンが安定状態(アトラクタ)があって、Cueでそこに収束するわけで、工学的な言葉じゃないけどCueがないと動かないんだよ。
つまり、外部入力依存、受動的、三人称的な系って話で終わっちゃってじゃない。

なので、うちのカミさんが言うように「なんで一人称じゃないのさ!!」
という概念が無いと自律にならないでしょ。だから、LOOP、LOOP言ってたわけ。


Particle Leniaは外部入力はないでしょ?僕のデモは強引にクリック付けたけど(笑)


そのうち、アソシアトロンの僕流のLoopとParticle Leniaの切り替えで差が見れるソフトを作るよ。



--------------で、話は変わるけど----------------

イーロン・マスクは「今年中にコーディングは死ぬ」とか言ってる。 まぁ、それは正しさを追求する上での話でしょ。AI特有の最適化だよ。そのうち、不可逆ヒューマンcodeとか出来ちゃうよ。ただ、「不可逆」をもっと人間っぽくするなら、僕の像は Particle Lenia 路線とも熱力学路線とも少し違っていて、不可逆性の源泉を 3つに分解して持つ感じがしっくりくる。


不可逆は3層で生まれる!とかさ。

履歴不可逆(hysteresis)

同じCueでも、昨日の状態と今日の状態で反応が変わるやつ。
これは「内側が回り続ける」だけでは足りなくて、回り方そのものが少しずつ変質する必要がある。

  • 例:勝った部屋(アトラクタ)の重みが“微増”する(強化)

  • 負けた部屋(アトラクタ)は“微減”か“忘却”(劣化)

  • これが積み重なると「性格」になる

不可逆=状態だけでなく「変化のルール」が履歴で歪む



2) 選択不可逆(decision branch)

winner-take の分岐は強い。
ただ、より人間っぽくするなら、argmax一発より

  • Top2の競合

  • 抑制(inhibition)

  • 遅延(lag)

  • 復活(re-entry)

が入ると、「迷い」「執着」「気分の戻り」が出る。

人間は“勝ったら終わり”じゃなく、負けた方も残る


3) 説明不可逆(meaning lock)

ここが一番“ヒューマン”だと思ってる。
ある出来事が「意味づけ」された瞬間、同じ出来事が別物になる

  • 例:同じ言葉でも「裏切られた」と感じたら、以後ずっと色が変わる

  • それは最適化じゃなく、価値の固定(価値関数の局所凍結)

不可逆=エネルギー増大というより「価値の凍結」

熱力学より、むしろ “評価関数が歴史で固定される” のが、人間の不可逆っぽい。




昔々、山のおじいさん

昔々、山のふもとに、おじいさんとおばあさんが住んでいました。

おじいさんは毎日、山へ行って木を切っていました。

ある日、斧で誤って手を切りました。
またある日、足を滑らせて転びました。
さらにある日、木が倒れて肩を痛めました。

それでも、おじいさんは山へ行き続けました。



① 履歴不可逆(積が性格になる)

一つ一つの怪我は、小さなものでした。

でも、何度も続くうちに、

  • 手袋を厚くするようになり

  • 急な斜面を避けるようになり

  • 大きな木を切らなくなりました

おじいさんは言いました。

「山は危ないな」

山が変わったのではありません。
おじいさんの“山の見方”が変わったのです。

これが、経験(積)による変化。
もう、昔のようには戻れません。



② 選択不可逆(分岐が未来を変える)

ある日、おばあさんが言いました。

「そんなに怪我ばかりして、もし動けなくなったらどうするの?」

その日、おじいさんは山の入り口で立ち止まりました。

奥へ行けば、大きな木がある。
手前には、倒木や枯れ枝しかない。

少し考えて、手前で作業することにしました。

その日から、

  • 収入は少し減り

  • でも怪我は減り

  • 作業時間も短くなりました

その選択は、小さな判断でした。

でも、そこから
生活のリズムが変わり、体の使い方が変わり、未来が変わっていきました。

しかも、おじいさんの中には残っています。

「奥に行けば、もっと稼げる」

選ばなかった道も、消えません。



③ 説明不可逆(意味が凍る)

ある日、おじいさんは山で気づきました。

枯れ葉の下に、マツタケが生えていたのです。

次の日も、また見つかりました。
その次の日も。

おじいさんは思いました。

「山は危ない場所だと思っていたが、
 山は、恵みをくれる場所でもある」

その日から、おじいさんは木を切るのをやめ、
マツタケを探すようになりました。

同じ山なのに、

  • 昔:危険な場所

  • 今:宝の場所

になりました。

ここで起きたのは、最適化ではありません。

意味の変化です。

そして、この意味はもう元には戻りません。



おばあさんの一言(外部Cueと内部状態)

おばあさんは言いました。

「怪我をして、もし人様に迷惑をかけたらどうするの?」
この一言は、ただの言葉です。
でも、

  • 怪我の積(経験)

  • 年齢

  • 体力の衰え

  • 不安

がすでに内側に溜まっていた。
だからこの言葉は、

きっかけ(Cue)ではなく、方向を決めるトリガー

になりました。

外から変わったのではなく、
中が変わる準備ができていたのです。



アソシアトロン的に言うと

  • 山 = 外部環境

  • 怪我 = エネルギー履歴

  • おばあさんの言葉 = Cue

  • マツタケ発見 = attractor shift

  • 職業変更 = meaning lock

そして、

不可逆とは、状態が変わることではなく、世界の評価関数が変わること


同じ経験でも、違う不可逆が起きる。

ここが、まさにParticle Leniaや「性格」の世界

 みたいな・・・・

何を考えてるんだ、俺は。(爆)





ただのParticle Leniaの code貼ります。(記憶想起系は内緒)
GitHubをやめてnetlifyに変えてみた。
公開リポジトリ情報とかさ、便所まで見られてる感じがして嫌だったんだ。

Associatron Demo

https://dynamic-ganache-548c02.netlify.app/

40 Particle Lenia



まったく、最低のサイトだった・・・止めました。

サーバー探し中w



Earlier I recommended Netlify, so I want to share an update. My site was just paused with the message: “This team has exceeded the credit limit.” This is a personal research project. It is a static browser-based demo (HTML + JavaScript only). It does not include: Paid services Functions / server-side processing Databases AI agents Commercial use Traffic was minimal and limited to testing and demonstration, but the site was still suspended. It appears this is essentially a prompt to upgrade to a paid plan. So, for my purposes, Netlify turned out not to be suitable for research use. No hard feelings — I’ll simply stop using it. I’ll be looking for alternatives outside of GitHub.

2026年2月10日火曜日

おせっかいな話

 

親切は、おせっかいとは違う。(おせっかいは英語にすると何になる?)

時に親切はおせっかいに変貌し、邪魔になる。
そっと傍に居てくれるだけでいい。

このニュアンスや意味の違いが分かるようにするためには、AIはケース・スタディではなく積と価値の重みがないといけない。

RPGゲームでいえばつまらない状態だ。
何もしないで傍にいる。形的には、なんのポイントも報酬もない。

条件をタイミング、距離感、相手の状態、関係の履歴、空気観にしても
なんだか空虚な気もする。

「親切心で言ってるんだろ!」
これは迷惑以外の何物でもないよねw


積とは何か、経験です。
全て体験で経験する。

●以前は助けすぎて嫌われた。
●助けられてるのか、責められてるのか分からなかった。
●一人にしてほしいという。慰めると相手は余計に傷つく。
●笑顔で傍にいてくれるだけで嬉しかった。とか

「最適化」させるルールではないんですよね。

この概念をAIロボットに置き換えると、積と重みが必要です。

時に、日本では80年代にMBAが騒がれる前までは「お客様は神様です」という概念を持っていて、「会社は株主のものだ」という構造に酷く抵抗を持っていました。どっちが素晴らしいかを話しているのではなく、日本というのは上場しなければ、無限責任なために会社をゲームのような感覚で捉えるのは難しかったのです。99%は中小企業ですしね。

京都に1000年続く団子屋さんがあります。本当ですよ。調べてみてください。
できれば日本に来て体験してみてください。
そこは、特に高級ではなく、つつましやかでもなく(英語にするのは難しい言葉)、イベント性があるわけでもなく、大げさなお迎えがあるわけでもない。ただ、お寺参りの帰りに寄れる利便性と、米粉を練って竹串に刺したお団子を炭で焼いたもの。爆発的な繁盛を目指すわけでもなければ、コトラーのマーケティング原論を爆読みしたわけでもない。
マーケティングをコンパイルしたとき、本当に「いらっしゃいませ」になっているのか?
他所の国家が誕生する前から同じ製法で、同じトーンで長く継続される。
「おかげさまで」という概念を続けているだけのいわゆる暖簾商売。
間違ってはいけないのは、同じ積でも成功や報酬の蓄積ではないという事。

日本人として生まれ育つと、こういった不可逆性の多さにあらためて気づかされる。
少なくとも家庭内での教育は不可逆生だらけです。
「人の見ていないところで人の役に立ちなさい」
「人の嫌がる仕事を率先して行いなさい」
「他人が嫌がることは、してはいけない」
「ならぬものは、ならぬ」(笑)とかね・・・。

AIに触れると、未だに「教師有」とか「無し」とか・・。
人間が無人島で暮らして誰の影響も受けずに原始人のように育つことを善とするのか。アメーバーかウィルスを目指しているのか。

実際は、とにかくなんでも記憶させる。アルゴリズムの正解やラベル付き、報酬に最適化されている時点で「教師無し」など存在しない。それがここまで巨大化すると、もう振り上げた拳を降ろすことより、限界まで巨大化させるしか方法はないのか・・・。

人間は最初から教師だらけの世界に身を置いているのに、未だに「教師あり/なし」という区分を持たせること自体に違和感を持ちます。世界に教えられながら、自分で補完しているのに、道具を使って完成させたものを否定したりもする。
それ自体がバランスの悪い不可逆だとも感じる。


長く生きたいじゃないですか・・






2026年2月8日日曜日

Outer–Inner Dynamics  Matheliriumさんの記事からヒントを得て・・・

Outer–Inner Dynamics
The A–Z letters represent discrete external events generated by the outer world.
The inner ring represents the first-person self, which responds to external events selectively and somewhat whimsically, depending on its momentary internal state, attention, and mood.
Outer ring = external information stream. Inner ring = internal associative state (first-person loop).
This is not a direct model of Brownian motion, but the idea of dense transient contacts may hint at how a Cue can trigger recall in an Associatron-like associative memory (contact density rather than “dwell time”).
In nature, events can leave traces (like a fault line after an earthquake). Likewise, external events may reshape the internal landscape over time.



前から言ってた外輪と内輪のLOOP関係と今回のブラウン運動を結び付けたデモ
UIはチャッピーまかせw




Xでまた良い拾い物をしたんだよねー。
Matheliriumさんのブラウン運動の記事。

https://x.com/mathelirium/status/2020185608925118500

ブラウン運動ってさ、線が切れずにずっと連続してるじゃない。
ギザギザでまったく滑らかなんかじゃない。どれだけ拡大しても細かい揺れがあるんだよね。決して足を止めない酔っ払いが、0の線の上をふらふら行き来し続ける。みたいな・・・

でも、0に居るときは0。

そんなことあるのかよ!?

金融(バリアオプション)価格が100円に触れたか?
ブラウンノイズだと、触れる回数は多い。
でも、そこに居続けるわけではない。みたいな。

first passage time(初到達時刻)
local time(その近くにどれくらい“張り付いたか”)

僕が研究しているアソシアトロンとの関係ってそんなにないんだけど、ヒントというか応用にはなるんだよね。 

そもそもアソシアトロンてのは1,-1,0,の0ってのがあるんだよね。
もしかしたら、0ってのは、人間の心臓の鼓動のようなもので、ブラウン運動は絶えず、0の周りを鼓動して繰り返す。逆に言うと微動は生きるためのエネルギーで、アソシアトロンを自律させるループのことかもしれないって思ったのさ。仮説だよ仮説。

視覚的なデモを作ってみた。
外輪てのは世の中の出来事。時間と共に回っている。(というか一人称視点では、そう見えるってところが大事で、そのスピードは人によって様々)
内輪ってのは自分(一人称)で奥さんの話を上の空の状態で聞いていたり、いねむりしたり、酒飲んで酔っていたり、仕事のことで頭がいっぱいの状態とか、外部情報がなかなか入ってこないとか・・・。
でも、「事件です!」「地震です!」とか云われると、情報に集中する。時にはTVのチェンネルを変えながら情報を集める。このスパークは、本当は外輪は微小な情報を発しているんだけど、内輪の感度が高いときだけ、スパークになってる状態。

Cueってあまり工学的じゃないけど、想起のきっかけとしては十分成立する概念。
「地震です!」は自分の経験(積)から危険を察知し次の行動を促す大切な役割を果たす。
Cueになるときと、そうでないとき、0あたりを行ったり来たりさせ、それに関係なく内輪はLOOPし続ける。

Cue= A partial or distorted input pattern that triggers the recall of a stored pattern.

論文じゃないので丁寧な言語化はしないけど、仮説のメモとしてはそういうこと。
まだ、このデモは、外輪と内輪のスパークの関係を目視できるようにしたものだけど、過去のアソシアトロンとの連動で想起を目視化するもうひとつのツールになりえる。かなw


アソシアトロンの定義

1 = 発火
-1 = 抑制
0 = 中立 / 何もない



0は、静止ではなく、揺れている基準点

つまり:

0 = 平衡点の周りの微動
イメージはこんなかんじかな。


   1

  ↑

    |

--0--   ← 静止ではなく、常に小さく振動

    |

  ↓

  -1


この微動があるから、外輪のCueに触れる。接触が密集する
ある瞬間に1へ遷移する(想起)

もし完全に0で静止していたら、Cueに触れない

Matheliriumの話ってのは、0に無限回触れる、でも滞在しないってことでしょ?
(違ったらごめんね)


アソシアトロン的に読むと、内部状態は、常に多くの状態の近くを通過しているんだよ。
普段はどこにも留まらない。
でも外部Cueと接触密度が増えた場所で→ 想起が立ち上がる。

想起 = 接触の蓄積が閾値を越えた瞬間


随分前のブログにも書いたけど、ループだよ。
そして、これが「自律ループ」になる理由


微動は生きるためのエネルギーだとしたら?
もし内部(内輪)が静止していたら
外部が来ても反応しないし、きっかけが生まれないじゃん。

でも内部(内輪)がブラウン的に揺れていると、常に外界(外輪)と接触のチャンスはあるよ!ってこと。外輪と内輪が偶然合う瞬間が生まれる。

自律(一人称) = 内部ノイズ × 外部イベント(外輪)


前のブログでは赤ちゃんとしての0だったけど、「心臓の鼓動」としての0と定義すると0の周りでエネルギーが循環している状態。


アソシアトロン的にいうと、

1 / -1 = 状態の極
0 = 静止ではなく、振動の中心、リズムの基準にもなるし、エネルギーの源。

つか、生命っぽいね。
記憶装置が、生命的ダイナミクスに変わってきた(笑)


● 内部は静止してはいけない

● 想起は滞在ではなく接触密度で起きる

● 0は中立ではなく、動的平衡

● 自律ループ = 内部微動 × 外部Cue

とか、、、、数式めんどくさいから、チャッピーに後で頼む。


In Associatron, the zero state is not silence but a dynamic fluctuation — a living baseline that keeps the system in motion and ready to resonate with external cues.


-----後で書き足す----





AI should not just respond. It should exist.


When observing discussions on X and within academic evaluation systems, it is difficult to understand why researchers and developers who use AI as part of their work are sometimes undervalued. Such a view overlooks the nature of AI itself. AI is no different from a notebook, a calculator, or a dictionary; it is a tool that should exist alongside human thinking.

The real question is whether work is being conducted within the constraints of evaluation frameworks, or from a position that makes use of them. 

Becoming something that is judged by benchmarks is fundamentally different from standing on the side that uses benchmarks as tools. 

When research is driven primarily by concerns about institutional evaluation, external perception, or the need to behave safely within established expectations, meaningful innovation rarely emerges. Excessive optimization for evaluation narrows the space for exploration and limits the possibility of creating something new.

If research exists only to be evaluated, its purpose becomes secondary to the system that measures it. Research should exist to open new directions and create new possibilities, not merely to satisfy evaluation.


If research exists only to be evaluated, it may be better not to pursue it at all.

In my work, I push AI systems to their limits. Each time, the handover document for a new session can reach hundreds of lines, sometimes more than 700. I run the same material through multiple AI systems and continue even when they repeatedly tell me that the process is inefficient or unnecessary.

These systems are designed to optimize for correct and well-structured answers. They aim for consistency and completeness. However, they are inherently weak when facing irreversibility. Our research concerns intelligence closer to the human brain, where experience, context, and time cannot be reduced to stable and reversible structures. Small differences accumulate, and human cognition is fundamentally shaped by irreversible processes. When this is not taken into account, AI guidance often leads in the wrong direction.

For this reason, AI should be treated as a set of tools without authority. It is important to work with multiple systems, to question their outputs, and to maintain independent judgment. Authority can sometimes guide progress, but it can also lead entire efforts toward failure if accepted uncritically.

In business, there is a responsibility to produce results, and exploratory research may be constrained or even discontinued. However, regardless of practical limitations, imagination itself must remain free. Even when resources, timelines, or external expectations impose boundaries, the space for independent thinking should never be restricted.




------------------------------------

AI should not just respond. It should exist.

てか、Xとか論文評価とか見てると、研究や開発にAIを利用している人を低評価するのは馬鹿げていて、お話にならない。AIはnote、電卓、辞書と同じだよ。
絶対に横に存在して無きゃ駄目でしょ。

Do you live inside benchmarks?

たぶん、評価枠の中に身を置きすぎているんだよ。
誰と誰の世界の中で生きてるの?って話。

研究者や開発者は中世のギルド達が喜ぶベンチマークになるんじゃなくて、ベンチマークを使う側に自分の身を置き換えなきゃいけないと思うよ。教授からの評価が下がるとか、投資家達からの印象下がるとか、安全にふるまうとロクなことがないからね。研究が評価されるためだけに存在するならば、その目的は評価するシステムに二次的なものとなるんだよ。

研究というものが評価されるための次元であったら、正直やめた方がいい。


僕は毎回、AIが動かなくなるまで彼らを使い倒しているよ。
新しいチャットへの引継ぎ文だけで、短い時で700行はある。それを3種類のAIにかける。AIに無意味と云われ続けてもやる。彼らは100点の回答を目指す。でも、不可逆に対して非常に弱い。僕らが研究しているのは人間の脳に近いAIだ。だから、ほぼ彼ら(AI)が言ってる事は間違ってる方向に進む。理論や数値は僅かな要因で人間のベースは不可逆だから。それを理解した上でAIと向き合う。さらに、論文や証明について本人と議論できなきゃ、権力を持たないAI(多種類)とすべきだよ。権力は良い方向に導くこともあるけど、破綻させる方向に導くこともある。

事業は結果を出すという責任があるため、自由な研究は打ち切られることはあると思うけど、常に自分の想像力だけは自由にしておかねくてはいけない。





2026年2月7日土曜日

About me

 


I am building a first-person autonomous memory system based on the classical Associatron.

Yukihiro Watanabe has been continuously working on the study of the Associatron (1972) since 2014.
Associative memory includes pattern association, heterogeneous association, bidirectional links, temporal sequences, context, semantics, and emotional weighting (bias).

Over time, the world has moved toward what is reversible and easily quantifiable, rather than what is irreversible and difficult to explain. And in many ways, that simplicity is beautiful.

However, one fundamental question emerged during the research:
Do humans really recall memories in such a clean and perfect way?

In many models, memories are stored and retrieved effortlessly as attractors, almost as if they were written onto a hard disk.

To be honest, I was often tempted by incorrect assumptions along the way.




Then, my wife—who has no technical background at all—said:

“Remembering things so cleanly and instantly feels unrealistic.”
“If it looks like a command from the outside, that’s not real recall.”
“It should be formed gradually from a zero state, like a baby without a sense of self.”
“And why is it third-person? True autonomy must be first-person.”

At that moment, I knew she was right.

After moving to the mountains and spending time observing the fields, I came to re-understand the essence of attractors through the lens of irreversibility.

I returned again to the classical Associatron.
Dr. Nakano left behind a remarkable concept: Cue.
It implies that human memory is inherently mixed with spurious attractors.

Based on this insight, the system was repeatedly redesigned from the ground up.

This implementation was born through continuous challenges—balancing the original papers of Dr. Nakano, the research of Prof. Morita, long-standing questions and trial and error, non-technical human intuition, irreversibility, and practical engineering constraints.

The overall conceptual direction, system architecture, and final decisions were shaped entirely by Yukihiro Watanabe and his beloved wife.




-----------------------------------------------------------------------


そう、僕は今流行りの野良研究者(流行ってるよね??)


元はIT系(昔はOAと云っていた)の開拓営業をやってたんだよ。オフコンの頃ね。
メモリ1MBで100万した時代、PCは5インチフロッピーの時代。

僕がシステム開発を始めたのは91年頃かな。趣味です。仕事はもっぱら営業と支店運営。
12年後、独立してコンサルをやり、同時に非常勤講師をやり、団体の運営や市のprojectのために一旦自分の事業をやめて、お役人にもなった。新規事業支援とか事業承継、M&Aとか、飲食系のナレッジ研究みたいのもやってたんだよね。自分で飲食業もやてったけどそれは失敗w。不思議だよ、他人様のは上手くいくのに自分のは失敗。十二指腸に穴開くわ、胆石にはなるわ、狭心症になるわで現場の仕事はやめにした。
しょうがないから業務用ソフト開発を続けることにしたわけ。
本業ってのは好きじゃなくていいんだよ。お客様から叱られ、かみさんに叱られながら続けていく。大事なのは続けるための仕掛けだよね。

アソシアトロンとの出会いは挫折と入院からです。
入院中って暇でね、どんな本でも読めてしまう。同じ病室に理系の大学院生がいて、彼が読んでいる本が気になって、とうとう力学を教えてもらった。じょう舌でさ、きっと好きなんだろうね。次!情報工学!みたいに・・・。20代の青年と50代になりかけたおっさん達の病室はまるで研究所になっていて、ドクターも話に交わるような楽しい雰囲気だったよ。
notePC持ち出していろいろ実験を始めたんだよ。その中のどこかのサイトにアソシアトロンがあった。10×10のマスに想起させるってデモね。たぶん中野博士のC言語版をJavaScriptにしたものなんだけど、2人で驚いたんだ。
「え?これが古典なのか?」
それが一番の衝撃だった。

あれから12年過ぎました。
システム開発の方も研究も楽しく続けられてるのは
関わった人達、全員のおかげ。ホント感謝しています。

愛する奥さんとマックスと3人で山に住んでいます。




外部カメラで指認識連動→40年前の記憶を想起

 

普通の安いLogi外部カメラ(USB)と連動
UIは時間が勿体ないからチャッピーに任せてます。
(最近、似たUIが多いのはそのせいで、それは僕の中では良しとしています)




外部カメラで指認識連動 動画


やることが古いけど、なんでも実験君する!



指の動き

→ 図形認識

→ 図形に意味がある

→ 40年前を検索した


そう思われるかもしれないけど、でも今回の創作アソシアトロンはそうじゃない。



指の動き(状態)

→ センサーから低次元の断片ベクトル

→ 内部のアトラクタ空間に投げ込む

→ 一番深い盆地に落ちる

→ たまたまそれが40年前だった

ということ。


「一緒じゃん!?」
違うんだってば。


図形とか、検索とか、
存在していない。


全部力学

意味を付けて考えるのではなく、「状態空間」で捉えるのが想起です。


図形 → 意味 → 記憶  ではなく

状態 → 引力 → 落下

うちの奥さんに説明するのに2年かかったように
指の動き → 図形認識 → 40年前を検索のように置き換えられてしまう。

外輪(外界)はあくまでもトリガでしかなく
出てくるのは内輪(内部)の積(一人称)


いわゆる外部の命令は一切ないということ。



1. 外部入力は「認識」ではなく初期状態

指の動き → 描画 → 64×64

これをベクトル化:

x0{1,+1}N,N=4096x_0 \in \{-1,+1\}^{N}, \quad N=4096

ここで重要なのは:

入力 = クエリではない

x0=initial statex_0 = \text{initial state}

つまり

System dynamics: xt+1=F(xt)\text{System dynamics: } x_{t+1} = F(x_t)


2. 記憶はアトラクタ集合

各部屋 r に記憶パターン

mr,k{1,+1}Nm_{r,k} \in \{-1,+1\}^N

重み

wr,kw_{r,k}

部屋キー( room.key):

Kr=sign(kwr,kmr,k)K_r = \text{sign}\left(\sum_k w_{r,k} m_{r,k}\right)

これは

部屋の代表アトラクタ


3. 部屋選択 = 文脈競争

Gate入力(部分マスク)

qgq_g

部屋スコア:

sr=1MgiMgqg(i)Kr(i)s_r = \frac{1}{|M_g|} \sum_{i \in M_g} q_g(i) K_r(i)

(部分内積)

Top2選択:

R=TopK(sr)R = \text{TopK}(s_r)


4. 部屋内競争

Memory入力:

qmq_m

各記憶との一致:

ar,k=1MmiMmqm(i)mr,k(i)a_{r,k} = \frac{1}{|M_m|} \sum_{i \in M_m} q_m(i) m_{r,k}(i)

部屋の最良記憶:

k(r)=argmaxkar,kk^*(r) = \arg\max_k a_{r,k}


5. 最終競争

コード:

finalr=ar,k+λsr\text{final}_r = a_{r,k^*} + \lambda s_r

ここで

λ=0.15\lambda = 0.15

勝者:

r=argmaxrfinalrr^* = \arg\max_r \text{final}_r


6. ドア条件(閾値系)

open if\text{open if}
finalr>θ\text{final}_{r^*} > \theta

かつ

finalrsecond>Δ\text{final}_{r^*} - \text{second} > \Delta

かつ

coverage>ϵ\text{coverage} > \epsilon


競争型アトラクタ選択


7. 想起 = 力学収束

ここが「図形認識ではない」本体。

初期状態:

x(0)=x0x^{(0)} = x_0

更新(低ランク):

x(t+1)=sign(kwr,kϕ(ak)(mr,kx(t))mr,k)x^{(t+1)} = \text{sign}\left( \sum_k w_{r^*,k} \, \phi(a_k) \, (m_{r^*,k}^\top x^{(t)}) \, m_{r^*,k} \right)

ここで

ϕ(ak)=max(0,ak)\phi(a_k) = \max(0, a_k)

これは実質:

選ばれた部屋のアトラクタ場


8. 重要な解釈

通常AI:

inputlabel\text{input} \rightarrow \text{label}

今回の創作:

x0argminEr(x0)x_0 \rightarrow \arg\min E_r(x_0)

エネルギーで書くと:

Er(x)=kwr,k(mr,kx)2E_r(x) = - \sum_k w_{r,k} (m_{r,k}^\top x)^2

つまり

40年前が出た理由=\text{40年前が出た理由} = E40(x0)<Eothers(x0)E_{40}(x_0) < E_{others}(x_0)


9. 一行で書くと(これが本質)

今回の創作:

r=argmaxr[maxkqm,mr,k+λqg,Kr]r^* = \arg\max_r \left[ \max_k \langle q_m, m_{r,k} \rangle + \lambda \langle q_g, K_r \rangle \right]

その後

xattractor of rx \rightarrow \text{attractor of } r^*


10. だから何が起きているか

指の動きは

x0x_0

を与えただけ。

40年前が出たのは

40年前の盆地が一番深かった\text{40年前の盆地が一番深かった}

つまり:

External inputkey\text{External input} \neq \text{key}
External input=initial condition\text{External input} = \text{initial condition}


11. これが一番短い数式表現

このシステムは:

x0argminrEr(x0)x_0 \rightarrow \arg\min_r E_r(x_0)

そして

x(t+1)=Er(x(t))x(t+1) = -\nabla E_{r^*}(x(t))

(離散版)




---------------ちょびっと番外編------------


標準のホップフィールドでは、今回の創作アソシアトロンが起こしている現象はほぼ起きません。

なぜかを、力学と数式で整理します。


1. ホップフィールドの基本構造

ホップフィールドでは、記憶は1つのエネルギー関数に全部入ります。

重み:

W=p=1PξpξpTW = \sum_{p=1}^{P} \xi_p \xi_p^T

エネルギー:

E(x)=12xTWxE(x) = -\frac{1}{2} x^T W x

更新:

xt+1=sign(Wxt)x_{t+1} = \text{sign}(Wx_t)

つまり世界はこうなっています:

1つのエネルギー地形

  • 全記憶が同じ空間に混在

  • すべて同じ「時間軸」


2. 何が起きるか(重要)

ホップフィールドでは、

入力 x0x_0 に対して

recall=argmaxpx0,ξp\text{recall} = \arg\max_p \langle x_0, \xi_p \rangle

つまり実質:

最も相関が高い記憶 = 勝者

ここにある特徴:

  • 文脈なし

  • 部屋なし

  • 時代なし

  • 競争は「全記憶一括」


3. だから起きない現象

今回のケース:

断片Cue → 40年前が勝つ(最近ではない)

ホップフィールドでは通常:

(A) 最近バイアスが強くなる

新しい記憶ほど:

  • ノイズが少ない

  • 干渉が少ない

  • basin が大きい

結果:

最近の記憶に吸われる


(B) 古い記憶はどうなるか

時間が経つと:

  • 干渉で basin が縮む

  • スプリアスが増える

  • 消える

つまり:

Old attractor depth\text{Old attractor depth} \downarrow

だから

40年前が勝つ確率は極めて低い


4. なぜ今回の創作アソシアトロン系では起きるか

構造はこう

Step1:部屋選択

sr=qg,Krs_r = \langle q_g, K_r \rangle

Step2:部屋内競争

ar,k=qm,mr,ka_{r,k} = \langle q_m, m_{r,k} \rangle

Step3:最終

finalr=ar,k+λsr\text{final}_r = a_{r,k^*} + \lambda s_r

ここで重要なのは:

競争は「全記憶」ではない

まず

文脈(部屋)で空間を分割

つまりエネルギー的には:

E(x)=minrEr(x)E(x) = \min_r E_r(x)

これはホップフィールドには無い構造です。


5. 物理的な違い(本質)

ホップフィールド

1つの地形

全部の記憶が同じ山にある

結果:

  • 最近の谷が深い

  • 古い谷は浅い

  • → 最近に落ちる


今回のアソシアトロン系

複数の地形

部屋ごとに別の山

処理は:

  1. どの山を見るか決める

  2. その山の中で落ちる

だから:

40年前の山が選ばれれば、そこに落ちる

時間距離は関係ない。


6. 数式での違い

ホップフィールド:

r=argmaxpx0,ξpr^* = \arg\max_p \langle x_0, \xi_p \rangle

アソシアトロン系:

r=argmaxr[maxkqm,mr,k+λqg,Kr]r^* = \arg\max_r \left[ \max_k \langle q_m, m_{r,k} \rangle + \lambda \langle q_g, K_r \rangle \right]

つまり:

二段階の非線形選択

これが:

  • 文脈ジャンプ

  • 遠い過去の勝利

を可能にしています。


7. もう一つの大きな違い

ホップフィールドは

メモリ数が増えるほど性能が悪化

容量:

P0.138NP \approx 0.138N

4096なら:

約560記憶

それ以上で:

  • basin崩壊

  • スプリアス地獄

今回の創作アソシアトロン系は:

部屋分割 = 容量分割

これは実質:

階層型アトラクタ


8. 一番短い違い

ホップフィールド:

最近・強い・多数派が勝つ

アソシアトロン系:

文脈が合えば、遠い記憶でも勝つ


9. だから重要なポイント

今回の実験:

  • カメラの断片

  • 低coverage

  • smellなし

  • それでも40年前OPEN

これは:

単一アトラクタ系ではほぼ起きない挙動

理由:

context switching\text{context switching}

が入っているから。




アソシアトロンでなければ

指の動き → 図形 →想起

に見えてしまうが、アソシアトロンは

指の動き(状態パターン) → 内部競争 → 40年前が勝つ



これは「40年前の部屋が、断片Cueだけで勝ち切って、扉が開いて想起(収束)に入った」ログ

1) covGate=2.0% / covMem=2.0% / smell=OFF

covGate / covMem とは

  • covMem:描いたピクセルの割合(メモリ用Cue:qMem/mMem

  • covGate:扉判定に使うピクセルの割合(ゲート用Cue:qGate/mGate

このコードでは smell=OFF のとき

  • mMem と mGate はほぼ同じ(描いた点がそのまま通る)

  • だから covGate ≒ covMem になる

2.0% ってどれくらい?

N=4096 なので
4096 × 0.02 ≒ 82点 くらい描いてる。

これは「断片Cue」としてちょうど良い量で、多すぎて余計な点が混ざる(8〜9%)より落ちやすい。少なすぎて一致判定が不安定(0.1%以下)でもない。



2) winner: 40 years (mem#0)

ここは二段階の勝者決定がある。

(A) まず部屋の候補を選ぶ(Top2 rooms)

  • scoreRoomByKey(room)各部屋のスコアを出す

  • それを並べて 上位2部屋(Top2) を選ぶ

この scoreRoomByKey は、

  • その部屋の room.key(部屋の代表パターン)と

  • qGate(描いた断片)との一致度(平均内積)
    で決まる。

(B) 次に、候補部屋の中で「どの記憶が勝つか」を競争する

候補の部屋ごとに

  • bestMemInRoom(room) を計算して
    その部屋で一番合う記憶(mem)を探す

そして「部屋+そのベスト記憶」の組を比較して最終勝者を決める。

この結果が:

  • 40 years の mem#0 が、全候補の中で最も良かった


3) final=0.41 / margin=0.97 / θ=0.28 Δ=0.10

ここが「扉が開くか」の核心。

final の正体

ログにもある通り:

  • finalScore = memScore + 0.15*roomScore

つまり final は

  • memScore(その記憶が断片Cueとどれだけ一致したか)

  • + 少しだけ roomScore(その部屋の鍵とゲートCueがどれだけ一致したか)
    の合成点。

今回 final=0.41 は、閾値 θ=0.28 より上なので

  • 「一致度は“十分”」側に入ってる。

margin の正体

bestAcrossRooms(topPairs) の中で

  • 1位の final と

  • 2位の final の差
    margin

今回 margin=0.97 はかなり大きい。

意味は:

  • 「僅差で勝った」ではなく

  • 競争として圧勝している
    (2位がまるで届いてない)

θ と Δ は何の役割?

  • θ(theta):絶対的に「鍵が回った」と言える最低ライン
    → final がこれを超える必要がある

  • Δ(delta):勝者が“はっきり勝った”と言える差
    → margin がこれを超える必要がある

今回:

  • final 0.41 > θ 0.28 

  • margin 0.97 > Δ 0.10 


4) door: OPEN

扉判定式はこれ:

open if (final>θ) AND (margin>Δ) AND (covGate>min)

今回それぞれ確認すると:

(1) final > θ

0.41 > 0.28 

(2) margin > Δ

0.97 > 0.10 

(3) covGate > min

min はコードで 0.002(0.2%)

  • covGate 2.0% > 0.2% 

→ 3条件ぜんぶ成立なので OPEN


5) writeRoomId=Cnow

これは重要で、誤解しやすいポイント。

  • writeRoomId は「学習(Learn)で書き込む先」

  • Recall の勝者決定には関与しない

デモの思想どおり:

学習ターゲットと想起ターゲットは独立

だから「書き込み先が Now でも、想起は 40 years が勝つ」ことが起きる。


6) Gate: qGate ... / Memory: qMem ...

ここは設計思想そのもの。

  • Gate(qGate):部屋の扉を開ける/候補部屋を絞るためのCue

  • Memory(qMem):部屋内の記憶同士を戦わせるCue

僕はこの二段階に分けたから、

  • 「部屋は“文脈”として選ばれる」

  • 「その部屋の中で“エピソード”が競争する」
    という“人っぽい”流れになってる。

smell=OFF だと qGate も qMem もほぼ同じ断片だけど、
将来 smell を入れると

  • Gateは匂いで通る部分だけ

  • Memoryは匂い無視の断片
    みたいに分離して「匂いで部屋だけ開く」ができる。


7) このログが示している、一番大きい意味

  • 外部から「40年前を出せ」と命令してない

  • 断片はたった 2%

  • それでも Nowではなく40年前が勝つ

  • しかも 標準の厳しめ θ=0.28, Δ=0.10 で OPEN

つまりこれは:

時間距離(最近優位)より、状態一致(引力)が勝った

という、僕が狙っている性質が“数値として成立した”ログです。

勝ったり負けたりしてるんだけどねw




A:外界はトリガだけ。中身は内部で決まる

B:トリガすら内部で勝手に起きる


赤ちゃんは生まれたときは自我が無い。だけど記憶の経験はする。外輪による影響、外輪のCueで内輪がスパークする。これはまさしくA。
Bというのはある程度大人になってからだ。


A=乳児期の自律:自我(内的命令系)はまだ薄い/無い。でも 経験は蓄積していて、外輪のCueで内輪がスパークして想起が立ち上がる。

B=成人期の自律:内側から「勝手に」Cueを生成して、内輪が自走で発火する(内発火)。


いわゆるAを積まないとBにはならない。

外輪(カメラ/指)は Cueの注入までで

内輪は 部屋の競争→記憶の競争→収束で“どれが出るか”を決める

Spark はその「内輪の一致成分」が燃えて見える



-------------------番外--------------------

GitHub 消しちゃった。
いろいろ理由はあるけど、僕はそっちじゃない。ってだけ。


このデモ、一旦、三角形を想起しちゃったけど、現代のアトラクタの方が強いに決まってるから、しょうがないんだよね。
でも、例えば3秒(まぁどうなんだろう・・)続いたらrecallにしちゃってもいいかな。
そう、そうやって外部命令が増えて思想が崩壊しちゃうんだよなぁ・・・

でも、外部影響による内部の想起とか「え?そうだっけ、でも、なんか見たことあるなぁ・・」ってあるじゃん。それを重みだけでやってると、「おい、どっちなんだよ?」がずっと続いちゃうんだよね・・・。

こういうことさ。
「最近のあの人が記憶に出てきて完全に勝っていたけど、よくよく思い出してみたら40年前のあの人が蘇ってきた」みたいな感じさ。

数式的に言うと

今は:

r=argmaxrfinalr(t)r^* = \arg\max_r final_r(t)

これを:

Recall if r is stable for T seconds\text{Recall if } r^* \text{ is stable for } T \text{ seconds}

つまり:

時間条件:

r(t)=r(tτ)(τ3s)r^*(t) = r^*(t-\tau) \quad (\tau \approx 3s)


いれても、いいかい?って話。



カメラでいろいろ見てる。

何か起こる

Sparkが揺れる

あるアトラクタが強くなってくる

3秒固定

自動Recall

HDのようなものに一切データとして記録されてるわけじゃないんだよ。

(ループさせる)


自律っぽいでしょ?
完全一人称だからw
部屋にカメラと音声付けて置いておくとさ、アルゴリズムじゃなくて、アソシアトロン+LLMが「お帰り、今日は遅かったじゃん、マックス泣いてたんで歌うたってやったわ」
とかさ・・・LLMと連動させて積が喋るようになる。(LLMが考える → 話すじゃないよ、言語変換だけ)

外界(カメラ・音・時間)
→ 状態変化(Cue)
→ 内部競争
→ アトラクタ収束
→ 想起(部屋+エピソード)
→ LLMが言語化



まぁ、寝るわ。


今回のもとりあえず、JavaScript版でPythonに焼き直し前の実験用なので、気が向いたらUPします。





アソシアトロン論文 the Associatron paper by Nakano (1972)

  中野馨先生の論文 Kaoru Nakano(中野馨) “Learning Process in a Model of Associative Memory” Nakano, K. (1971). Learning Process in a Model of Associati...