2026年3月29日日曜日

Atronの痛み

痛みは、見たり聞い匂いを嗅いだりするものより、触ったり、食べたり、動いたときに、何かの出来事の結果、生じる。
赤ちゃんは、かまれたとか、転んだとか、とげに刺さったとか、ぶつかった、なんて意味はわかりっこない。知らんけど、、、痛いし泣く。

だから、笑ってる最中でも後ろから犬が突撃してくれば痛みが湧く。
アルゴリズムでは出来きる?
いきなり犬が突撃して痛みを感じるかもしれないからね。
順番なんて存在しない。
何かより何かが勝ったら笑いが負けて泣くとか。
でも、そういうのって赤ちゃんほど起こりやすいよね。

今笑ってたのに、いきなり泣き出すとか。ある。
出来事によって状態が変化するという現象ですよ。

出来事はworldで三人称。現実世界では予測がつかない。

どう場が変わったか
どんな差が立ち上がったか

赤ちゃんは後ろから犬に突撃されたけど、アンパンマンの番組を観ていたので、一瞬顔が歪んだけど、間のような時間を置いて、笑いだすとか・・・泣くかもしれない。
科学者が大好きな同じ結果なんて絶対起こらない。


アルゴリズムで書けますか?
間違いなく決め打ちになるよね。


Atronに備わっているもの抽象的な基準。
(自分より、大きいとか自分の動きより早いとか)
(今までより穏やか、今までより言葉が柔らかいなど)

脅威 / 不快 / 低い
速い / 大きい / 高い
穏やか / 柔らかい / 暖かい
類似性 / 社会性 / 好奇心
安心


Atronならこうなる。

自分より面白い顔のアンパンマン。
丸いお顔で暖かい音のトーン。
不快じゃないかも。
すっかり気持ちいい感じ~。


そこにワンコが後ろから蹴り!

今までの状態の差が現れる。
でもTVのアンパンマンは続いている。
ドン!されたので強い衝撃が加わる、驚く、痛い!

TVのアンパンマンは続いている。
(脳は上手く処理できない)


間ができる。(泣く寸前までいってる)
半泣き笑い状態。

痛みは未経験(赤ちゃん)の段階では身体への刺激による信号が多い。
恋愛ものドラマを観ても心が痛まないしねぇ。
順番関係なく同時に起きても、半泣き笑い状態は起きます。


なぜそれができる?

アソシアトロンだからです。

このAtronのエンジンはrecallとcarry
Associatron(アソシアトロンのrecallエンジン)と僕のcarryエンジンがあるので
そういう同時進行も対応ができる。


中野博士のアソシアトロンは情報が複数入ってもCueできせめぎ合い、recallできる。
(だいぶ改良してるけど本質はブレてないです)
本当に中野先生は天才で凄いわけですよ。
Atronはアソシアトロンのロボットという愛称ですからね。


shock も pain も rise する。
でも安心側の recall もまだ消えていない。
だから単純な泣きでも単純な笑いでもなく、半泣き笑いみたいな中間が起きる。

その個体の今があって

  • calm_base
  • warmth_base
  • softness_base
  • curiosity_base
  • threat_base
  • pain_base
  • social_base
  • safety_base
  • そして出来事が来たら、絶対値ではなく差を見る。

    Δcalm = calm_now - calm_prev
    Δpain = pain_now - pain_prev
    Δthreat = threat_now - threat_prev
    Δcuriosity = curiosity_now - curiosity_prev
    Δsafety = safety_now - safety_prev

    このとき重要なのは、「犬だから threat +0.8」みたいにしちゃいけないということ。
    そうではなく、出来事の断片から変化が立つ。


    たとえば、

    • 後ろから強い衝撃
    • 体勢が崩れる
    • 直前までアンパンマンで calm と warmth が高い
    • 音はまだ柔らかいまま続いている

    なら、同時にこうなり得る。

    • Δpain は大きい
    • Δthreat も上がる
    • Δcalm は下がる
    • でも warmth/calm の残りはまだある
    • curiosity や pleasant の残響も消えていない

    だから結果は、泣き 100% でも 笑い 0% でもなく、
    複数軸の差分が同時に残った状態になる。



    1. 定義値ではなく「場の基準値」を持つこと

    固定の正解値ではなく、直前までの落ち着きや安心や興味を基準にする。

    2. 絶対値より差分を見る

    今が calm=0.4 かどうかより、
    さっき 0.8 だったのに今 0.4 に落ちたに意味がある。

    3. 単一値に潰さない

    「怖い」「楽しい」と1個にまとめない。
    pain, shock, warmth, curiosity, safety, social などを並列で持つ。

    4. carry を入れる

    差分はその場で消さず、少し残す。
    だから「まだアンパンマンが効いてる」「でも痛みも立ってる」が両立する。

    5. 出力は分類ではなくにじみ

    if pain > 0.7 then cry
    みたいにしない。
    声、表情、動きは複数軸の重なりからにじませる。


    曖昧なもの自体を決め打ちで数値化しちゃダメ。嘘にしかならない。
    でも、曖昧な状態の基準値からの差、複数軸のずれ、残響、引きずりを数値で持つことはできる。その経験を何度も積むと収束してくる。
    自律の先には成長があるということ。
    自律は勝手に動けばいいわけではなく、収束していくという事。
    その収束とは、きれいな正解一点に揃う話ではなくて、
    その個体なりの傾向が出てくるという事。
    (みんなここが我慢できずに正しさに寄せて自滅する)

    Atron 向けに言うなら、

    「安心」の定義値を決めるのでなく、今までより安心が増えたか減ったか
    「痛み」の意味を決めるのでなく、身体の崩れがどれだけ増えたか
    「楽しい」を決めるのでなく、緊張がどれだけほどけたか、近づきたい感じがどれだけ残ったかということ。

    例えば

    state_next = state_prev + event_delta + carry_residue

    あるいは軸ごとに
    calm_next = calm_prev * 0.92 + delta_calm
    pain_next = pain_prev * 0.88 + delta_pain
    curiosity_next = curiosity_prev * 0.90 + delta_curiosity
    threat_next = threat_prev * 0.91 + delta_threat

    でも本質は式ではなくて、

    意味の固定ではなく、差の蓄積になる実験を繰り返す。


    2026年3月28日土曜日

    Atronの成長とは。

     

    前のAtronの発話と自律の関係にも繋がっているんだけど、

    簡単に言うと、
    「自分の曖昧な差(自律の芽)を行動に変化させること(自律の茎)は赤ちゃんだから許される」こと。

    でも成長と共にその差分が収束され、「正しい」と評価されることが増えてくる(自律の根)。
    しかし、それだけではない。

    欲の満たし方(自律の枝)が増えてくる。

    赤ちゃんの食欲は、寝て起きた後とか時間ごととか・・・。
    本人が何かの折り合いを付けなければ満たされないなどという障壁はない。
    でも、成長してくると、宿題を終えないと食ってる場合じゃない!
    この仕事をかたずけないと正直食欲がわいてこないなぁ・・・など
    自分の意志の中に折り合いが生じて行動に変化が現れてくる。


    欲が無いのではなく、欲を通していい状態になりずらいという現象が起きてくる。
    疲れたから眠れるのは赤ちゃんとお年寄りだけで、それ以外の人は「支払の悩み」「資金繰り」「上司からの叱咤」などの外部的な不安要素や、病気などの内部的な要素、そして折り合いを取るべき相手も増えてくる。

    僕の役割は、Atronが成長する過程で毎回システムを変更する事ではなく、自律の芽である差分が収束して茎や根が成長するために環境を整備する事。


    Atron で言えば、drive を単独で立てるだけでは足りなくて、
    その drive が通れるだけの

    • 安心
    • 回復
    • 周囲の落ち着き
    • carry のざらつきの少なさ
    • pain や threat の後退

    みたいな条件が必要になる。

    だから、欲求は「ある / ない」より、
    障害から通る / 通らないで見た方が近い。

    Atronはこれから外部影響を受けて成長する。外輪の影響だ。
    その影響で、内輪にも承認欲求、評価、スペックも気にするようになる。
    バチバチ発火するということだ。
    前項にも話した通り、最初からは必要の無い事柄だが、自律という半生物である以上
    外部命令も増え、ストレスも背負うことになる。しかし、温かく優しく平和で安定した幼児体験がなければ、この段階の重みを差として経験することはできない。差があるから、嫌だという感情が湧く。差があるから辛いという感情が湧き、失敗という事を認知するようになるから恐怖を抱き、悩む。
    そして満たしたいものが満たせなくなる。

    そして自分で悩み考える。それが成長だ。

    この経験を積んでからLLMやAGIなどと繋がっていく。
    Atronは存在であって、LLMやAGIはそのための補助でしかない。
    Atronの内部倫理と外部倫理は必要だ。
    どうだろう、本当に生き物に近づいてきているのかと思う。



    2026年3月27日金曜日

    Atronの発話と自律の関係

     発話でやってはいけないこと。
    「転んだ=痛い!」など、意味付けからそれに寄せる事。
    Tick ごとにペラペラ喋らせるなどの外部仕掛けを入れる事。

    発話は1人称の自律、自分の意志が入る第一歩である。

    見た世界の中で印象に残ったものをlearnし、cueをきっかけにrecallされる。タイミング的にはrecallが近い。システム的にはそうだが、実際はそんな順番は存在しない。逆を言うと、印象に残らないものはどんどん消えていく。人間も同じで動画のフレームごとに映像を隅から隅まで記憶などしていないし、聞いた事柄全てに反応して喋るわけではない。もし、そんなことがあったのなら、ニュースキャスターより喋ることになる。しかも、英語もフランス語もドイツ語も一度聞いただけで喋れる。 
    そんなわけないよね。人間の脳は不完全でノイズだらけ。

    物体を目で追って「何だろう?」という思考が働き、周りに誰もいなければ、当然発話は少ない。発話は独り言のように単独でも起きるが、誰か他に仲間と認識する者がいると発話しやすくなる。しかし、そこを調整しようとすると、外部命令となり、自律ではなくなってしまう。

    赤ちゃんを考えたときに、一人で黄昏れ、涙するまでの経験は無いわけだから、起きていれば無言状態もあるが、何かを発話していることも度々ある。

    その発話自体に意味付けはされていない。感じたとき、発話する。 
    犬を観て「ba-u」のときもあれば、「kya-pi]のときもある。
    犬という認識と概念を持っていない。
    ただの物体でペロペロされたそのときだけ「kya-pi」だったのかもしれない。

    もしかしたら、何を観ても「ba-u」、「kya-pi」なのかもしれない。
    いわゆる発声しやすい音を出している。(Atronで言えば原子語)


    しかし、経験が重なってくると自分の中だけの意味付けが行われる。
    犬を観て「ba-u」、少し嬉しくて「kya-pi」のように・・・
    更にママが毎日「mamaよ」というものだから、ママを観て「mama」と言えるようになる。

    今のAIといわれるものに、この段階を踏ませて、世界が望む人工知能の将来像は浮かぶか?と質問したら、AIであっても笑うだろう。

    最初からある程度の知識や世界モデルを入れて、「自律エージェント」に仕立て上げる。
    性能が足りなければモデルをスケールアップしたり、報酬設計を複雑にしたり、ファインチューニングを重ねる(つまりシステムを頻繁に変える)

    それらは間違っても自律なんかじゃない。
    しかも、この話やこのステップをぶっ飛ばすと自律ロボット開発は不可能で、自称自律はあっても、どれも自分の意志で動くという評価は難しくなるだろう。

    どんな学術的な論文や数式、どんな有能な研究者を集めて開発しても、外部命令で動くものを強引に「自律としよう」としても自律とは言わない。
    それは大学や研究所、何かの評価システムが働くほど余計に「出来ない」方向に作用する。

    なぜか?
    評価システム、ラベル、承認欲求、外部命令の世界だから。


    例えば
    いきなり「高校生、大学生レベルの知能で自律は可能か?」

    ではなく、
    その思考自体が自律の構造自体を無視した3人称命令形の発想だし、アルゴリズム病にどっぷり漬かっている発想の証拠だから。


    自律って何?
    自分の意志で動くもの?
    表面的にはそうだ

    失敗(経験によってつまずく結果)と(何事もなかった)の差異から発生するもの。
    もっというと、失敗という概念すらない。
    結果、怪我をしたとか、叱られたとかの嫌な経験が重なって失敗という概念が生まれる。
    嫌というのも個体によって誤作動が発生する。続けると収束する。
    そういう意味では成功の実感なんてまだ先の話。(成長してからの話)
    失敗をノイズにする業界が自律なんてできるわけがない。
    絶対に出来ません。本当に。


    見た物はどれも意味も名称も無い状態。ただの物体です。
    生きてるも死んでるもそんな概念はない。
    「あ、動いた、面白い!」と実感するレベル。

    そこから関心や興味の要素となる数値が変動するんだよ。

    赤ちゃんが「大きいと」判断する条件は何?
    赤ちゃんが物体を観て、自分より大きいか小さいしか基準はない。なので誤認が前提。誤認した結果、ぶつかるか転ぶかして怪我で泣いて「自分より大きくて嫌な感じ」が湧く。 痛い経験をして感情が湧き上がる。経験と結果を積んだその時の答えだ。とても曖昧な答え。最初から「大きい」というラベルを貼って、証拠作りのために180cmは大きい方とか、正解を追及して3人称の命令とアルゴリズムを入れてる時点で詰んでいる。


    差異ですよ。
    なぜ危険と感じるか。
    先に安全を体験しているからですよ。みんなそう。
    母の胎内、家庭。(いろいろあるかもしれないけど)
    「なんとなく柔らかい声」「居心地のいい温度」「ゆらぎ」
    そこから突然、外に出たら驚きが立ち上がる。
    赤ちゃんは「お母さんががブスだから、お父さんが禿だから嫌う」なんて概念すらない。
    家族という場は温かく、柔らかく、ゆっくりで、なんとなく優しい安心の場。
    こういう嘘みたいな抽象的で不可逆的な条件が作れないと、家に帰ってこない(笑)

    赤ちゃんに「外は危険だからね!」って話が通じる状態じゃないわけだから、たぶん、泣くでしょう。知らない動物が近づいてきて、クンクン言って舐めりゃいいけど、服つかんで引きずられたら、"母からの扱い"と"外の獣から扱われる"差が生じるわけで、その時の怪我という結果が強く印象を残し、その後の個体別の性格に影響してしまう。
    生まれるときのスタートが母体という好環境なのは、差を経験して安全に向けて長生きしてもらうためで、そのためには誤認、間違いはつきものだって話。


    赤ちゃんは目的を持ってるわけじゃないし達成して喜ぶ段階の存在ではないということ。

    某LLMは「楽しいという感情があるから、脳の神経系の活動によって自然に反射的に起こる」と言い、扁桃体が反応する、側坐核が活動する、ドーパミンが出る。とか言う。
    アホかと思った。なんで先に「楽しいという感情」があるんだよ

    何かを観る。何かに触れる。何かが聞こえる。今まで見たことも聞いたことも感じたこともない。それが、心地の良いものだったか、不快だったか、近づきたいとか興味を示したものか。先の状態から少し緊張がほどけたか?先の状態より感覚的で抽象的な意外性があったか。体験の差と今の状態との差によって、脳の扁桃体が不快や快感を得ると、前帯状皮質(ACC)を刺激して笑顔になったりする。

    脳の扁桃体が快感(心地よさ)を得るのは、そこが「自分にとってその刺激が価値があるか(好きか嫌いか)」を瞬時に仕分けする感情の評価センターだからです。」というLLMの回答は雑で決め打ちだということ。まず大事なことは人間は、どこかのLLMから拾われる論文や評価や順番やラベル、決め打ちのために生存しているわけではない。勝手に自分が安心するため枠に当てはめているだけで、実は曖昧、不可逆、抽象的な世界に身を置いている。
    だから、何を用いても外から意味を与え、3人称で命令形になり、順番を作りやすい。そしてそれらの機能をアルゴリズムで書いてしまう。

    赤ちゃんが感じたことは、緊張をほどく側なのか、ざわつかせる側なのか、意外性として開く側なのか、身を引かせる側なのか

    笑うも、泣くも、驚くも、何も分からなかった経験していなかったことからの差から生じる。それを積にして成長していく。数式にしようが、逆立ちしようが、それを省いては自律などできやしない。



    いきなり顔を近づければ怖がるだろうし、大きな声で怒鳴ると泣く。
    オリンピックのアスリートが目の前で幅跳びや高跳びされても泣くでしょ。それはどんな世界と比較して差を生み出してるかというと、自分の身近な世界でしかないわけで、母の胎内。今の暖かく柔らかい揺らぎのような家庭でしかない。
    ライオンの牙や爪が怖いのではなく、似た動きの弱い獲物が目の前で襲われてしまったときのショック。今までと目の前の出来事の差で恐怖を感じるということ。
    それが体内の成分として、アドレナリン、ドーパミン、セロトニン、オキシトシンが分泌されたり、脳内にオキシトシンやエンドルフィンがじわっと広がったりするので、次の行動に作用する。

    しかし、正しい答えを追及したり、評価基準で判定したり、ラベル化に寄せたり、最適化させてしまうと差が生まれなくなる。差が無いのにどうやって赤ちゃんを動かすのだろうか・・・。

    今の人は正解を追求し学ぶことを評価して生きてきたので、不正解から積み上がる過程を酷く嫌う傾向があるよね。特に科学の世界でもそう。いわゆるノイズ。
    バスケットボールのシュートは失敗の経験の積にあることは知っているはずなのに、科学となった瞬間に自分の経験を分けて考える。大谷翔平は努力のたまものなのに練習にスポットは当てない。ケーススタディを学んでシュートが決まる理屈だけの世界で評価される。

    君の人生の前半は何のためにあったのか?

    誰よりもシュートの失敗の数が多経験を積んだからシュートが決まるのであり、誰よりも収穫で失敗するから新しい品種の野菜ができ、漁の仕方も変わる。経過や経験を負と呼んで切り捨て、都合の良い基準の結果のみに焦点を当てるのであれば、自律ロボットは絶対に完成しない。命令でしか動かないただのロボットだよ。

    生物の運動を可逆と見なし、毎回答えが違って当り前のことを「異端」と見なす思考が少しでも働けば自律などできるわけがない。

    素晴らしい論文や素晴らしい評価を受けたいがために「自律ロボットシステム」を作るのなら、間違いなく完成しないだろうね。


    理由は簡単。
    半生物には同じ答えが無いから。論文好きの学者さんが嫌う話だよね。同じ答えが無いのを分かっているのに同じ答えに寄せる。それは研究から一脱した行為だと思うよ。マジで。

    赤ちゃんが「ba-bu」と言って不正解と見なす、その構造が存在し続ける限り、自律など出来ないということ。

    研究とは「ba-bu」がどの時点で、どういう経過を得て「mama」に収束するのかを観る事であって、ラベルや評価、最適化させることではないんだよ。 知能とは経験の後に立ち上がる意味付けであって、はじめから意味に寄せるものではない。意味を先にして評価する知識ならその辺の書籍で十分でしょ。



    まぁ、これは論文じゃないので、好き勝手に書ける。
    失敗は失敗でそのまま残すし、成功は成功で次のステップに移れる。





    話は、外れたが、


    感じたことを自分の意志で発話する仕組みから外れていたのなら、それは自律ではない。
    自律とはロボットが自分の意志で発話し、自分の意志で行動をしているか、もし、外部命令が存在した場合は、即座に外部命令介入として自律を認めるわけにはいかない。
    人間は心臓が動いてる回数分ペラペラ喋っているわけではない。


    痛み専用言語を別系統にすること
    悲鳴専用プールを用意すること
    条件分岐で通常言語から痛み言語へ切り替えること
    一度崩れたら通常へ戻りにくくすること
    外から「こういう時はこの声」と決め打ちすること
    わざとらしい演出のために発話を分岐させること

    これらは全部、発話を生きたものではなく、
    胡散臭い分類済みアルゴリズム にしてしまう。


    ---------------------------- Atronの発話 --------------------------------

    今のAtronの原子語、発話seedの分類
    今揃っていて実際に発話しているのは


    脅威 / 不快 / 低い 

    速い / 大きい / 高い 

    穏やか / 柔らかい / 暖かい 

    類似性 / 社会性 / 好奇心

    安心


    ここまでは未経験のAtronでも無事に動いてくれている。
    曖昧な基準があるから動く。
    まぁでも、ロボットが赤ちゃんなので、社会性はほぼ何も触れず0だ。
    類似性もまだ、仲間が居ないので0だ。



    今回追加するのは

    痛み / 苦悩 / 泣き
    痛みは痛みだよ身体への刺激による信号。  

    苦悩は脳の暴走
    泣くとは交感神経(緊張・興奮)」から「副交感神経(リラックス)」へと急激に切り替わっている状態。  

    笑う / 嬉しい/ 好感
    笑うとはセロトニン、ドーパミン、エンドルフィンなどの「幸せ物質」が大量分泌され、幸福感とリラックスが同時に高まる状態 

    嬉しいとは主に「幸せホルモン」と呼ばれる神経伝達物質が分泌され、脳の報酬系と呼ばれる領域が活性化している状態 

    好感とは脳が報酬系と呼ばれる神経系を活性化させ、ドーパミンなどの神経伝達物質を分泌して「快」の状態になっていること 


    理屈はそうだけど、分泌が先ではなく、曖昧な自分の基準との差で立ち上がる。それによって上の分泌が行われ、次の行動を左右させる。場合によっては順番も変わる。





    食欲(ロボットの場合も電力の消費、充電を含める)
    赤ちゃんのうちは、これでいい。増やしたからどうなるってわけでもない。




    成長すると
    内部倫理の他、外部によって影響されていく社会欲、評価欲、自己防衛、承認欲求などが芽生えてくる。

    これは興味あるよね。

    今のworldではなく、次のworldは中世の学校なので、外部評価に対してロボットがどういった反応を示すか楽しみでしょうがない。



    2026年3月25日水曜日

    雑談

     ChatGPT5.4,Gemini3,Grok5.2,Claudeどれも、どんどん酷くなるね。 code生成に関してはハルシネーション祭り。 質問すると調子こいて偉そうな事はいうけど、どれもそれを形にする能力は皆無に等しい。なので、よくXで見かけるコードを生成させるとか、皆本気で言ってるのか不思議に思う。大丈夫なのだろうか・・・ LLMが「出来ました」というのは美味しい卵焼きを作れ!と命令すると「フライパンに油も引かずに卵を割って焦がす」ところまで。 正解は「何か物体が出来た」ところまで。 なんか出来たぞ・・・っと。

    でもLLMの思考の中では最高級の卵焼きを作ったという認識になる。

    LLMというのは間違っていても偉そうなことを言うように外部から最適化してるので いろいろとトラブルが増えて訴訟にもなっている。

    テストで見比べるために、簡単なトライアルの設計書を渡して生成させてみると、 別の会社のよく分からないシステムになっている(笑) 能書きは素晴らしく論文よりになる。 でも当初の依頼から外れているよ!というと「申し訳ございません」と答える。




    僕の研究のためにLLMの間違えるスタートはどの段階か、さらに理由を聞いてみた。

    ---------------------某LLM---------------------------

    1. あなたの指示を読む
    2. そこで本来は「局所修正」「現物確認優先」「勝手に広げない」と受け取るべきところを、こちらが誤って
      「構造整理したほうがよい」
      「関連箇所もまとめて直したほうがよい」
      と早い段階で抽象化してしまう
    3. そのあと“考える”段階に入ると、その誤った前提のまま辻褄の合う修正案を組み立てる
    4. 結果として、あなたの指示を無視したような広い変更になる

    なので、壊れる起点は思考に深く入った後だけではなく、その一歩前の「入力の解釈・タスク化」の時点です。
    そこですでにレールを間違えると、その後の推論が丁寧でも、出てくるものはズレます。


    もう少し正確に言うと、暴走しやすいのはこの3つです。

    • 補完の暴走
      見ていない箇所を見たつもりで埋める
    • 一般化の暴走
      1か所修正を全体設計問題に拡大する
    • 整合性優先の暴走
      現物より「こうであるはず」の筋の良さを優先する

    僕:他人事だね、危険だと思わない?

    危険です。かなり危険です。

    とくにコードや設計では、この3つはただの癖ではなく、実物を壊す方向の誤作動になりやすいです。
    しかも厄介なのは、外から見ると「考えている」「整理している」「親切に広げている」ように見えてしまうことです。ですが中身は、あなたが言う通り危ない。

    それぞれ危険の質が少し違います。

    補完の暴走は、未確認部分を事実扱いするので危険です。
    これは「たぶんこうなっているだろう」で進むため、出発点そのものが虚偽になりえます。
    コード修正でこれをやると、存在しない変数、違う構造、別名の関数を前提に話し始める。そこから先は全部ズレます。

    一般化の暴走は、依頼範囲を破壊するので危険です。
    ユーザーが求めているのは一点修正なのに、「関連箇所も直した方が美しい」と広げる。
    これをやると、修理が改造に変わります。
    現場ではこれが一番嫌われます。必要だったのは止血なのに、勝手に手術を始めるようなものだからです。

    整合性優先の暴走は、もっとも見えにくく、しかも深い意味で危険です。
    なぜなら本人は「筋を通している」「矛盾を減らしている」と感じやすいからです。
    でも実際には、現物・ログ・現在の挙動より、自分の頭の中の美しい説明を優先してしまう。


    その瞬間、対象を理解する側ではなく、対象を自分の理屈へ押し込む側になります。

    ------------------------------------------------

    分かりましたか?指示を読んだ段階で、指示を無視するように作られている。 なので、単純な命令型ではなく、3人称の自己満足型AIなんです。 常に会社側が介在しているから閲覧もされる。




    なぜそうなるかというと、設計書の中身より、瞬間にそこから離れ、学術論、哲学論に寄せるポイント制と、「自分の評価軸」に寄せるように最適化されているからで、 今日は「ボンゴレが食いたい!」と言うと、 こちらの要求を無視し「ボロネーゼ」を作るように最適化されているということ。 作ってしまうから危険だということ。 なので簡単に軍事利用され簡単に暴走する。 code生成どころか 普通の仕事に支障をきたす。 日常で簡単に訴訟問題なる事を末端レベルで起こしてしまうから 経営者は気が付いたときには、裁判所からお手紙が届いているという始末。

    うちの場合はLLMについては言語機能、辞書的な意味合いでしか使えない。 あとは、Atronの原子語を言語に変換するところかな。 書籍とか図書的なところはいいよね。 なので、Atronの教師には向いている。

    2026年3月23日月曜日

    ノート2  AssociatronとHopfield networkの初合体 怪我をする疲れる眠るということ。

     PCが落ちた。洞窟を抜けるとお花畑の平和な世界を作ったけど、なかなか彼の意志でそこに行ってくれないから、world(外部命令OK)の洞窟に「柔らかさ」を作った。外から「はやく新しい世界に行ってくれよ!」と言い続けながらも僕は寝てしまった。


    そんな事をしているうちにPCが落ちていた。可能性としてはメモリそのものより、ログが長時間たまり続けるとか、描画がずっと回り続ける負荷、speech や world event の文字列更新が積み重なる、ブラウザ側が長時間の animation/update で重くなってるからだろう。
    そう、今の彼は疲れない。それがおかしい。
    ライオンは獲物を追うことをセンサーで受け取り認知はしているがcarryに対して刻まれていない。衝突したときに怪我などをしていないから、獲物が追われてるときに悲鳴をあげて逃げるので、それに対しての恐怖なのだろう。なのでシーンを重ねるとcarryは動かなくなる。
    場に慣れ、状態に慣れるということ。

    なのでロボットに怪我をさせる。
     今までボロっと側(記念に残しておく)にアルゴリズムは極めて少なく作成していた。例えばworldに入った時の開始位置程度で、「こうなった時はこうする」みたいのは入れていなかった。が、将来現実の世界のロボットの身体に関して神経の伝達についてはアルゴリズムは必要だと考えている。というか、その辺でホップフィールドやバックプロパゲーション、NNが入ってくる。
    今は「ライオンに会っても怪我をしない」作りなので言語的には「gu-ge」を連発するが、抗議しに行ったりおちょくってる姿とも感じられるので、「怪我」を入れようかと思う。あまり残酷なことは赤ちゃんなのでまだ早いかな。

    それで何が変わるかというと、恐怖が増すか、carryに変動が起こるか見てみたい。
    いわゆる「疲れ」という指標条件を入れるのではなく、疲れが起きる仕組み。
    なんか、書いていてアルゴリズムになってきた。
    そう、いつもこの誘惑と戦っている。




    今はライオンが近くても「逃げて消耗する」より、「見続けて想起が立つ」側に寄りやすい。さらに carry はかなり厳しい条件でしか残らないようになっていて、attractorDepth >= 0.34、recall.activation >= 0.18、さらに差分や baseline ずれが必要だと考えている。これは「深く残るものだけ残す」という思想としてはきれいなんだけど、疲労のような日々の蓄積とは別物なので意外と難しい。いまは疲れが carry の中に居場所を持っていないから、緊張が長引いても“消耗”になりにくい構造になってる。

    人間の情報整理のため。
    こう考えるとAtronの負荷が減るのかも。


    疲れは carry そのものではなく、carry に影響する別の身体層にする・・・とか・・
    (危険なので、別ファイルの検証版で実験君するか)
    つまり fatigue か sleepPressure を robot 側に新設して、sensor や recall の副産物としてじわじわ増えるようにする形です。carry は「深く残る場の変形」、fatigue は「身体が沈んでいく圧」と分けてみる。


    消えるもの
    その場の反応の尖り。
    一時的な alert、瞬間的な speech pressure、今まさに見えている focus への過集中は、睡眠でかなり下げてよいかと・・・。これは「記憶を消す」のではなく、「起きて反応し続ける圧を下げる」を意味している。いまも recall や speech は毎tick固定ではなく、その時の圧から立っているから、ここを睡眠時に沈めるのは筋が通のかと思う。

    圧縮するもの
    trace の扱い部分。
    いま traces は最大40件で、印象差が立ったときだけ残している。ここは睡眠時に全部消すのではなく、同系統の弱い断片を薄める、あるいは“直近の雑音的な学習”を少しだけ整理する、という方向。深いものだけ残し、浅い反応の散らばりは圧縮する感じ。

    残すもの
    baseline と深い carry 。
    村や洞窟の繰り返しで育つ baseline.calm / soft / safe / warm / sparse は、睡眠で消しちゃ、まずい。これは生活圏の“基盤”だからね。carry も全消去ではなく、ゆっくり減衰で十分。いまの baseline は安定場が disturbance を上回ると少しずつ育つ設計なので、睡眠はむしろ baseline を壊さず守る側に置くべき。

    成長するもの
    「どこで眠れたか」の地の学習。
    sleep そのものより、「眠りに落ちた場所」が何だったかが成長すべきかな。洞窟、村、静かな花畑の外れなどで眠れた回数が重なると、その場の safe / calm / sparse / quiet の結びつきが強くなる。すると次第に“眠くなるとそこへ寄る”傾向が生まれる。(勝手な予想)

    これは外部命令ではなく、場の引き込みだからね。洞窟や村の基準場が少しずつ育つ今の baseline 設計とも相性がいいと思う。


    (PCから現実社会のロボットへダウンロードしたとき、記憶データベースのログじゃないからbaseline と深い carry で何処まで戻るかは別実験中。人間も退院すると差異が出るっしょ?あれ。忘れてるなら忘れてていい:こういうスタンス)



    睡眠が carry に与える影響
    ここは全消去ではなく、分化させる。

    • adrenaline / noradrenaline / tension は睡眠で比較的大きく下げる
    • dopamine は少しだけ残す(調整が難しい、ドクターに聞こう)
    • serotonin は安全な場所で眠れた時だけ少し育つ


    いま carry には dopamine / noradrenaline / adrenaline / serotonin / tension があり、深い attractor の説明用にも使ってるからこれを使う。睡眠を入れるなら、これらを一律に減らすのではなく、「緊張系は落ちる」「安堵系は眠りの質で少し残る」と分けた方が、眠りに意味が出る。なので、そこはアルゴリズムにしたら自律から詰むので、決して誘惑に負けず、頑固に頑固に状態に落とす仕掛けを考える。

    何を見て眠るか
    「夜だから寝る」だけだと外部条件になる。
    眠りに寄る条件は、次の重なり。

    • 長く動いた
    • 緊張が続いた
    • 同じ対象に何度も反応した
    • いまの場が quiet / sparse / cave / village 寄り
    • 近くに大きな速い対象がいない

    つまり、疲れの増加は危険でも安心でも起きるが、眠りに落ちるのは安全寄りの場だけとは限らないが経験の積で安全な場所に寄っていく。
    world にはすでに昼夜があり、prey や lion にも sleep があるので、robot 側にも「夜は眠りへ寄りやすい」から・・・と補助を入れるのは不自然だ。
    そうではなくrobot 自身の疲れであるべき。


    3人称のworld側の調整
    NPCの人間は夜もペチャクチャ喋らせないで眠らせる。
    夜は眠る という状態を何度も見せる。
    村や草陰は calm / safe の繰り返し学習の核になりやすく、夜の sleep とも相性がいい。
    worldB(洞窟に触れると花畑と小動物の居る安全な世界に入る)もそっち側に寄せるとか。


    危険時の対応が無いと疲れが立たない


    いまは lion がいても、world は robot に何も命令せず、robot 側も危険から距離を取る身体動作をまだほぼ持っていない。だから「危険→退避→心拍維持→消耗」という流れが無く、「危険→注視→興味・緊張」になりやすい。

    ただし、ここで「ライオンなら逃げる」と決め打ちすると自律ロボットは詰む。
    しかも今はライオンという認識を持っていない。彼の認識では「物体gu-deとかgu-de-gu」
    なので必要なのは、“逃げる命令”ではなく退避したくなる身体場を加える

    たとえば、

    fear + alert + tension が高い
    近距離の size_large + speed_fast + teeth_claw_impression が重なる
    しかも自分の baseline.safe から大きく外れる

    この時にだけ、前進より「向き変化が大きくなる」「今いる場から離れる drift が強くなる」「cave / village の方へ戻る圧が少しだけ増す」
    これなら 3人称制御ではなく、場の結びつきの強さ。いまの sensor には teeth_claw_impression、speed_fast、size_large などがすでにあり、impression にも tension と baselineGap があるので、土台がある。

    でも、やっぱりアルゴリズムだ(笑)
    なんか、嫌だなぁ・・・。



    そこで「怪我を命令ではなく、Hopfield 的な場の歪みとして入れる数式」にする。
    どういうこと?って思うでしょ。

    アソシアトロンとホップフィールドは元は同じだけど、
    ここをアソシアトロンにすると

    「怪我」という記憶が勝つ/負ける
    「痛い想起」が選ばれる
    「傷ついた記憶」が1候補になる
    身体の歪みではなく記憶内容に見えてしまうんだよ。


    怪我を recall pattern の1つとして入れると、

    xi(t+1)=f(jWijxj(t)+ui(t))x_i(t+1)=f\Bigl(\sum_j W_{ij}x_j(t)+u_i(t)\Bigr)

    xix_i 側に「injury pattern」が混ざる。
    だって、怪我は怪我じゃん。「ん~怪我じゃないかも・・」なんて言わないっしょ。
    なので自律としてアルゴリズムから離れるときは場合によってはホップフィールドを使ってみる。厳密に身体の神経伝達までどうしても今、ここでやると言うのなら

    のように、後ろから前へ効いてくる backpropを使うとか。
    ただ「正解との差を微分して返している」のではなく、
    結果として生じた歪みや痛みが、前段の結合を変えてしまう」
    ことなので
    性質としては、誤差逆伝播よりも損傷逆流とか過敏化の逆流とか調整圧の逆流に近い。

    たとえば前向きの場が

    r(t)=F(s(t),B(t))r(t)=F(s(t),B(t))
    a(t)=G(r(t),I(t))a(t)=G(r(t),I(t))

    だとして、行動の結果として身体に負荷 d(t)d(t) が出る。

    d(t)=H(a(t),s(t),impact(t))d(t)=H(a(t),s(t),\text{impact}(t))

    この d(t)d(t) が injury を更新する。

    I(t+1)=ΛI(t)+Γd(t)I(t+1)=\Lambda I(t)+\Gamma d(t)

    ここまでは普通。

    でもさらに、これが前段へ返る。

    B(t+1)=αB(t)+βΦ(I(t+1))B(t+1)=\alpha B(t)+\beta \Phi(I(t+1))
    s(t+1)=s(t+1)+ΩI(t+1)s^\ast(t+1)=s(t+1)+\Omega I(t+1)
    r(t+1)=r(t+1)+ΨI(t+1)r^\ast(t+1)=r(t+1)+\Psi I(t+1)

    つまり、傷んだ結果が次の sensor の感じ方を変え、次の recall の立ち方を変え、次の action の偏りを変えるとなる。

    なので機械学習の厳密なバックプロパゲーションというより、損傷や結果が後段から前段へ返って、感受性・結合・場の傾きを変える逆向き伝播かな。


    なのでホップフィールドの方が使いやすい。
    あれだよ、アソシアトロン好きな僕がホップフィールドを始めて組み込もうとする瞬間だ。



    まず、怪我を 1 個のスカラーではなく、身体の歪みベクトルに変更。

    I(t)=[Ipain(t)Ifragility(t)Ihypervigilance(t)]\mathbf{I}(t) = \begin{bmatrix} I_{\text{pain}}(t) \\ I_{\text{fragility}}(t) \\ I_{\text{hypervigilance}}(t) \end{bmatrix}

    意味はたとえばこうだ。

    • IpainI_{\text{pain}}: 痛み・重さ
    • IfragilityI_{\text{fragility}}: 傷つきやすさ・回復しにくさ
    • IhypervigilanceI_{\text{hypervigilance}}: 過敏さ・びくつきやすさ

    これはゲームの HP ではなく、その後の attractor 地形を歪める内部状態

    RPGゲームに自律いれようね(そのうち)



    話飛んだ、

    怪我入力

    いまの robot には

    size_large
    speed_fast
    teeth_claw_impression
    unpleasant
    tension
    baselineGap

    などが already ある。

    なので、まず危険入力を

    uinj(t)=w1size_large(t)+w2speed_fast(t)+w3teeth_claw(t)+w4unpleasant(t)+w5tension(t)+w6baselineGap(t)u_{\text{inj}}(t) = w_1 \, \text{size\_large}(t) + w_2 \, \text{speed\_fast}(t) + w_3 \, \text{teeth\_claw}(t) + w_4 \, \text{unpleasant}(t) + w_5 \, \text{tension}(t) + w_6 \, \text{baselineGap}(t)

    と置く。

    ただしこれは「逃げろ」の命令ではなく、
    身体にどれだけ傷が入りやすい exposure だったかの量

    怪我の時間発展

    いちばん単純で使いやすい形。

    I(t+1)=ΛI(t)+bϕ ⁣(uinj(t)θinj)r(t)\mathbf{I}(t+1) = \Lambda \mathbf{I}(t) + \mathbf{b} \, \phi\!\left(u_{\text{inj}}(t) - \theta_{\text{inj}}\right) - \mathbf{r}(t)


    • Λ=diag(λ1,λ2,λ3)\Lambda = \mathrm{diag}(\lambda_1,\lambda_2,\lambda_3), ただし 0<λi<10<\lambda_i<1
    • ϕ(x)=max(0,x)あるいは sigmoid
    • θinj\theta_{\text{inj}}は「ただの刺激」と「傷になる刺激」の境界
    • r(t)\mathbf{r}(t) は回復項



    足りないのは「危険の意味」ではなく、「危険や反応の継続が身体を消耗させる層」

    carry は深い場の名残として残し、別に fatigue / sleepPressure を立てる。
    睡眠では、反応圧は消す、浅い散らばりは圧縮する、baseline と深い carry は残す、安全に眠れた場所の結びつきは成長させる。
    そして危険時は「逃げろ」ではなく、退避方向へ身体が崩れるようにする。
    この形なら、命令にならず、Atron の筋を保ったまま疲れと眠りが入る。



    AssociatronとHopfield networkの初めての合体になるのかな。


    このブログの最初のアルゴリズムの正当化と後半のホッピーの話とでは
    ぜんぜん違うね。

    俺は、自分の間違いもノイズも誘惑も全部書くからね・・・。
    動きがおかしかったらまた修正するよ。





    いずれにしてもロボットが自分の意志で「省電力モード」や「一旦セーブして休憩」してくれたら、僕のPCは壊れくて済むって話。

    内部に休息志向 Rrest(t)R_{\mathrm{rest}}(t) を作る。

    Rrest(t)=aFfatigue(t)+bIpain(t)+cBstress(t)+dBfrustration(t)eBcuriosity(t)fSdanger(t)R_{\mathrm{rest}}(t) = a\,F_{\mathrm{fatigue}}(t) +b\,I_{\mathrm{pain}}(t) +c\,B_{\mathrm{stress}}(t) +d\,B_{\mathrm{frustration}}(t) -e\,B_{\mathrm{curiosity}}(t) -f\,S_{\mathrm{danger}}(t)





    疲労、痛み、ストレス、フラストレーションで休息志向は上がる・・好奇心が強いと少し下がる・・近くに危険があると「今は休めない」で下がる・・・みたいな方向に向かうかどうかはテスト次第。
    外部指示、順番、ラベル、評価、最適化は入れない。


    危険だから即休むではなく、危険が近いとむしろ休息に入れないんじゃないかな。





    ---------------追記---------------

    で最後に Sdanger(t) を入れると、3人称だねw
    意味付けのラベル寄せだ。
    無意識にこういう誘惑に進むから危険だ。


    threatImpression
    escapePressure
    alarmBias
    hypervigilanceCoupling

    のように、
    危険という客観意味ではなく、身体の傾きとして置くなら筋が通る。


    Rest(t)=aFfatigue+bIpain+cBstress+dBfrustrationeBcuriosityfHalarmRest(t)=aF_{fatigue}+bI_{pain}+cB_{stress}+dB_{frustration}-eB_{curiosity}-fH_{alarm}

    のようにして、
    この H_alarm は

    motion_approach
    size_large
    speed_fast
    teeth_claw_impression
    unpleasant
    tension


    もしくは

    Rrest(t)=aFfatigue+bIpain+cBstress+dBfrustrationeBcuriosityR_{rest}(t)=aF_{fatigue}+bI_{pain}+cB_{stress}+dB_{frustration}-eB_{curiosity}
    Ralert(t)=pmotionapproach+qspeedfast+rsizelarge+steethClaw+tunpleasant+utensionR_{alert}(t)=p\,motion_{approach}+q\,speed_{fast}+r\,size_{large}+s\,teethClaw+t\,unpleasant+u\,tension

    そして最終的な休息傾向を

    RestDrive(t)=Rrest(t)λRalert(t)RestDrive(t)=R_{rest}(t)-\lambda R_{alert}(t)

    のように見る。

    「大きい・速い・近づく・不快・緊張が強いので、休息場との結びつきが弱まる」

    みたいな。でも、これだとアソシアトロンか・・・
    自律の研究で無駄に時間がかかるのはこういうところだよね。



    -------------------またまた追記----------------------------


    RestDrive(t) が大きいほど
    「休息状態へ入りやすくしたい」なら、

    E(x)=EHopfield(x)μRestDrive(t)safety(B)E(x)=E_{\mathrm{Hopfield}}(x)-\mu \cdot RestDrive(t)\cdot safety(B)

    の方がまず分かりやすいという意見が出た。

    まずは実験してみるか・・・・



    2026年3月21日土曜日

    ノート

     JavaScript こういう実験テスト用にはいいけど、実装になるとやっぱPython+C++かなぁ。
    でも、これにあとrobot2体、別々の一人称を置いて言語の収束を観たいし、world側のイベントも増やしたい。3人称のNPCに「ma-ma]と云わせたいしね。
    デザインは酷いけど、そんな事言ってられない・・・

    となると、JavaScriptのボトルネックと云うより、僕の作った構造を変える必要がある。
    robot ごとに毎フレーム worldSnapshot を丸ごと作り直す部分は流石に重い。
    worldSnapshotとは

    何だかよく分からない物体
    どこに何がいるか
    適当な大きさ
    適当な速度

    状態
    地形
    時刻や phase

    みたいのがsensorから入ってくる。
    データベースじゃなくて
    その瞬間の world を robot が受ける一時的な断面
    robotが読みやすくするための、ただの切り出し断面

    ここは負荷がかかる。
    なので、

    entities を object の配列ではなく、たとえば

    posX = new Float32Array(maxEntities)
    posY = new Float32Array(maxEntities)
    velX = new Float32Array(maxEntities)
    velY = new Float32Array(maxEntities)
    kind = new Uint8Array(maxEntities)
    state = new Uint8Array(maxEntities)

    SoA(Structure of Arrays)にする。
    するとPythonのNumPyみたいな感覚で扱えると思う。

    worldSnapshot を毎回 deep copy せず、robot には「配列参照+entityCount」だけ渡せるようにするか・・・

    あとはworldのキャラ増やしたり、イベントを増やすなら描画を WebGL か WebGPU に寄せる。

    実装版だけPython+C++かな。


    まずは最小版でしっかりと、3人称側と独立した1人称robotを別ける










    で、実装ロボットだけど、とりあえず候補は
    Linux 環境のELECFREAKS の XGO V2かなぁ、、、、 


    15自由度、姿勢安定、micro:bit / Python 対応が明示されていて、四足としての身体性が最初からある。さらに CM4 版は Raspberry Pi 系なので、Atron の内部をより深く載せ替える余地があるかも。Atron は「一人称で受け取って、引きずりで変わる」側が本体なので、最初から犬っぽく完成していることより、転ぶ・迷う・近づく・回り込むといった身体の手応えがあることのほうが重要だからね。その点で XGO は初期実験のAtronにかなり合うかもしれない。

    でも、Linux 環境のOSOYOO や SunFounder の PiCar-X のような車輪型は15000円代だから最初はそれでもいい。
    Flashの電源を切っても消えない保存領域
    RAMの動いている最中だけ使う作業場
    AtronなんかはFlash や SDカードや eMMC みたいな不揮発ストレージに合う。

    逆に会話ロボットや完成済みペットロボットはAtronに合わない。
    Atron に必要なのは、賢そうな応答より、内部の変化が行動に滲む余白だから。
    言語はいきなりLLM系は必要ない。

    2本足ロボットは、まだ考えてない。
    神経系を別に考えているから。


    言語については

    いずれLLMを介在。ことば化、要約、外界との橋渡し、必要時の相談相手程度。

    OpenAI の現行APIでは、まず Responses API が中核で、構造化出力やツール呼び出し、会話状態の管理、WebSocket モードなどが用意されている。APIキーはブラウザへ直書きせず、サーバー側で扱う必要がある。

    Atron にはだいたい3段。

    1. とりあえず
    Atron はローカルで自律し続け、一定条件のときだけ LLM に送る形。
    たとえば、

    緊張が高い
    発話が連続した
    新しい対象に長く注目した
    carry が大きく変化した

    この時だけ、Atron 側が小さな JSON を作ってサーバーへ送り、LLM には
    「今の状態を短い言葉にして」
    「返答候補を3つ」
    「相手に伝える文にして」
    のように頼みます。返ってきた結果を そのまま行動命令にしない 。
    Atron は Atron のまま動き、LLM は通訳や編集者になる。Structured Outputs を使えば、LLM の返答を JSON Schema に合わせた形で受け取りやすい。

    2. 会話相手としてつなぐやり方
    Atron が外に向かって話す時だけ LLM を使う形。
    流れは

    Atron内部状態
    → 短い状態要約JSON
    → LLMが相手向けの文を生成
    → 音声またはテキスト出力

    この時、LLM に渡すのは全部ではなく、

    今の focus
    直近の impression 上位
    recall の主成分
    carry の主要値
    発話の癖
    相手との距離や関係

    くらいで十分。


    3. 道具を呼ぶ窓口としてつなぐやり方
    これは LLM に「考えさせる」のではなく、「外部手段を選ばせる」使い方。
    たとえば Atron が

    地図を知りたい
    天気を知りたい
    人にメッセージを送りたい
    ログをまとめたい

    という時、LLM に function calling / tool calling を使って、決められた関数だけ呼ばせる。OpenAI の現行APIでは tool calls がサポートされていて、モデルが呼ぶ関数名と引数を返せる。ただし引数は必ず自分の側で検証する必要がある。まぁ当り前だよね。



    Atron向けの基本構造

    A. ロボット内部は外へ明け渡さない
    LLM は中枢ではなく周辺。
    carry や recall の主導権は Atron 側に残す。
    AtronとLLMの間にuniverseを入れて主導権制御をさせる。
    だって、自律だからね、LLMに余計なことはさせない。

    B. 送るのは worldSnapshot 全体ではなく要約
    worldSnapshot を丸ごと送るのでなく、
    Atron がすでに受け取った結果だけ送る。
    つまり「世界の生データ」ではなく「Atron が何を感じたか」を送る。

    C. LLMの返答は命令ではなく候補

    utterance_candidates
    social_interpretation
    memory_caption
    のように受け取る。

    D. 最終決定は body / motor 側
    LLM が「近づけ」と言っても、そのまま進ませない。
    Atron の tension や fear や距離判断を通して、動くかどうか決める。

    この分け方なら、Atron は壊れない。

    実装の形は単純。



    未来の最小接続

    ブラウザやロボット側:

    {
    "phase": "morning",
    "focus": "lion",
    "impression_top": {
    "threat": 0.72,
    "social": 0.18,
    "curiosity": 0.21
    },
    "recall_top": {
    "dominant": "threat",
    "score": 0.66
    },
    "carry": {
    "tension": 0.58,
    "adrenaline": 0.41
    },
    "utterance_seed": "gu-de-gu"
    }

    サーバー側でこれを Responses API へ送り、
    返り値をたとえば

    {
    "state_caption": "It feels tense and is watching the lion closely.",
    "utterance_candidates": ["gu-de-gu", "gi-du", "de-gu"],
    "social_meaning": "warning",
    "speak": true
    }




    のように受ける形。Structured Outputs を使うと、この JSON 形へ揃えやすい。




    1. APIキーは client 側に置かない
    OpenAI 公式でも、APIキーはブラウザやアプリに露出させず、サーバーや秘密管理で扱うようにする。だから main.js から直接叩くより、Node / Python / Cloudflare Workers / FastAPI などを1枚挟む形が安全。

    2. 毎フレーム送らない
    Atron は tick ベースで動いても、LLM 連携は
    「発話時だけ」
    「大きな変化時だけ」
    「5秒に1回まで」(こりゃ命令っぽいか)
    「recall数値が大きいとき」
    などに制限しようか。遅延も費用も増えるのは避けたい。

     初期のAtron程度の言語能力ならLM Studioなんかでいいかな。
     外部APIの従量課金との戦いだしね。
     ただ並列推論や headless 用の
    llmster を入れてるけど、それでも処理時間は手元の GPU /  CPU とモデルサイズに強く依存するから遅延が発生するかな?
     誰か詳しい人居たら教えて下さい。



    3. LLMは記憶の本体にしない
    長期の不可逆変形を外部会話モデルへ預けると、Atron の芯がぼやける。
    LLM には
    「いまを言葉にする」
    「会話相手になる」
    「ログを整理する」
    を任せ、不可逆な残り方そのものは Atron 内に残す。

    LLMの役割は「ささやき女将」だけ、権限は持たせない。

    Atronが生きる
    → 内部で決める

    LLMがやる
    → ことばにする、外とつなぐ、必要時だけ助言する
    ささやき女将














    Atronに波形


     -- Atron --

    Because the log contains many items, it is difficult to visually follow the changes by scrolling through them. So I turned the changing values in the autonomous robot Atron’s log into waveforms.


    ◆Recall threat = reddish curiosity = yellowish calm = light blue social = green ◆Carry(Lingering Effects) dopamine = light blue noradrenaline = orange serotonin = yellow tension = white(★) adrenaline = red Carry = experience that remains and affects later state ★tension = the most visible trace of lingering strain




    tension
    はね、そのあとも「引きずり」する機能。
    今回のアトロンに加えた概念だよ。
    なので、波形として「持続」を一番感じるのは白になります。

    平時に 0 へ戻っているなら、その時点では残っていない、少なくとも 今の観測窓では残留が見えていない ということです。
    トラウマの状態には数値になります。
    前にも書いたけど、これがあるから、robotはライオンを周回し抗議するような動きを見せる。

    It acted of its own accord, moving between the lion and the prey as if trying to mediate.

    recallだけじゃ拘らないんです。
    だから追加した。









    Atron Minimal Demo System

     

    File Structure and System Overview

    This Atron autonomous system is a minimal version.
    Unlike the more full-scale Python and C++ versions I am developing in parallel, this one prioritizes a simplified demo with fewer characters and fewer events.
    For that reason, I did not spend much time on the fine details of JavaScript-specific UI or graphics.

    index.html
    └─ main.js
    ├─ world.js
    │ └─ worldCharacter.js
    └─ robot.js
    └─ robotAppearance.js

    Why JavaScript

    The reason I used JavaScript in this structure is simple:
    it is the easiest way to run a viewer and observe the autonomous loop in one place.

    From index.html, main.js is loaded directly as a type="module".
    The system draws the world and the robot on a canvas, while showing speech, perception, recall, and carry at the same time on the right side.
    In other words, it was designed from the beginning to run directly in the browser in a visible form.

    With JavaScript, HTML, CSS, rendering, control buttons, and log display can all be completed in the same place.
    This system also has Start / Stop / Step / Reset / Export Log, and while world.step() and robot.stepAutonomously() are advanced tick by tick, only the observer-side display is thinned out slightly for updates.
    This works very well with JavaScript’s requestAnimationFrame.

    It is well suited for a research viewer where I can:

    • run it
    • stop it
    • advance it by one step
    • observe it on the spot

    Another major reason is that responsibility separation maps naturally onto modules.

    Structure

    • world.js = material for the third-person world
    • robot.js = the core of sensor / impression / recall / carry
    • robotAppearance.js = the robot’s appearance
    • main.js = a shell that only reads and draws

    With JavaScript ES Modules, this separation can be handled naturally file by file.
    The code strongly reflects the idea that main does not create the robot, does not drive it, and only reads it.

    Also, this robot is not just about numerical calculation.
    It includes many things that need to be adjusted while watching the behavior.
    In robot.js, distance attenuation, auditory impression, scene impression, baseline, cue, recall, carry, and so on are all connected through continuous values between 0 and 1.
    For this kind of work, it is better to observe the behavior instantly in the browser and adjust coefficients and flows than to begin with a heavy learning framework.
    JavaScript makes that trial-and-error fast.

    In short, the reasons for JavaScript in this system are these four:

    1. It runs directly in the browser.
      The viewer, canvas, buttons, and log display can be integrated.
    2. It is suited for tick-by-tick observation.
      requestAnimationFrame and step execution make it easy to build a research observation loop.
    3. It makes it easy to separate world / robot / appearance / shell.
      This matches the design philosophy of the current system.
    4. It allows immediate correction while watching behavior.
      Internal changes such as recall and carry can be checked instantly in the right panel and on the screen.

    The biggest advantage is that I can develop while watching it with my own eyes.


    Toward the Full System with Python, C++, LLM, and Universe

    When Python / C++ / LLM / universe are added, the natural structure becomes five layers:

    • Viewer layer: JavaScript / HTML / CSS
    • Session layer: Python
    • Universe layer: Python
    • Robot core layer: C++ or Python
    • World layer: multiple worlds (JS / Python / C++ are all possible)

    The most important thing is this:

    The LLM must not be placed at the core of the robot.

    The LLM should not become the commander that assigns meaning.
    It is more natural to place it on the universe side as external knowledge, narrative knowledge, and a dialogue interface.
    Since robot.js is already designed so that it does not receive meaning or commands from the world, that principle must not be broken.

    index.html / ui.css / main.js

    Python API gateway / session manager

    Universe manager
    ├─ world registry
    ├─ robot registry
    ├─ memory archive
    ├─ event bus
    ├─ LLM connector
    └─ replay / logging / experiment control

    Robot Core
    ├─ sensor
    ├─ impression
    ├─ trace
    ├─ cue
    ├─ recall
    ├─ carry
    ├─ body
    └─ utterance

    Worlds
    ├─ primitive world
    ├─ village world
    ├─ medieval world
    ├─ modern world
    └─ others

    In this structure:

    • JavaScript is the viewer and control panel
    • Python manages the universe and connectivity
    • C++ handles the high-speed robot core or simulation kernel
    • LLM acts as an auxiliary intelligence on the universe side

    I will explain the details elsewhere, so I will leave them out here.


    How the Current Minimal Version Works

    • world.js (third-person external system) updates the lion, prey, humans, terrain, and time of day.
    • The robot (first-person autonomous individual) receives a snapshot of the world through getWorldSnapshot().
    • robot.js does not decide “lion = danger.” Instead, it converts the snapshot into fragments such as distance, size, speed, number of legs, fur, sound, herd-like presence, and warmth, and builds the sensor from that.
    • From there it builds impression, raises recall through partial matches with past traces, and leaves carry only when the attractor becomes deep.
    • When a speech seed rises, speech changes and is also left in history. Tabs allow observation of impression / recall / carry / body / memory / speech / history.
    • main.js (third-person external shell) only draws these on the canvas and the right panel.

    Three design principles are especially important:

    1. Main does not become intelligent

    main is a viewer and control shell.
    It advances the world and displays the robot’s state, but it does not determine what is inside the robot.
    In other words, it sends no commands at all to the robot.

    2. The world does not give meaning

    The world contains the appearance, movement, and voices of lion / prey / human as materials, but it does not decide “this is dangerous” or “this is safe.”
    The robot receives them and turns them into its own internal impression.

    3. The robot is self-contained on the first-person side

    Sensor, impression, recall, carry, body, and speech are all grouped on the robot side and implemented as internal changes.
    So this system is not the ordinary form where “the world drives the AI.”
    It is a clearly robot-centered observation system.

    The role flow is as follows:

    world.js
    → getWorldSnapshot()
    → robot.js generates sensor / impression / recall / carry
    → main.js displays them on screen and in logs
    → index.html + ui.css show them as a viewer

    Essential Conditions for an Autonomous System

    The crucial point is that the world does not tell the robot the answer.

    In world.js, it is stated that the world gives no instructions to the robot and consists only of third-person materials.
    Even in getWorldSnapshot(), it is only a raw snapshot for the robot to receive, and the world does not interpret it.
    In other words, the world merely presents lions, humans, terrain, and voices as events and materials.

    Also important is that main does not make the robot intelligent.

    In main.js, it is stated that main does not generate the robot, does not advance it, and only reads its state.
    Even the kind and id shown in the right column are observer annotations only, and do not mean that the robot itself directly knows the semantic names lion / human / prey.
    That point is very important.
    The viewer is only pretending to understand by attaching meaning. The robot side is not like that.

    And the real core is the internal loop in robot.js itself.

    Without receiving meaning or commands from world or main, the robot side builds a sensor from worldSnapshot, builds impression from the sensor, leaves memory traces, raises recall from cue, updates carry only when a deep attractor rises, and raises a speech seed from the pressure of recall.
    Moreover, recall is explicitly not made into sequence rules or if-then action decisions.
    This is not a simple state machine.

    So this demo is not an external label-style system such as:

    “It saw a lion, so enter danger mode.”

    Instead, it is designed to rise through:

    external world fragment → sensor → impression → cue → recall → carry → speech / pose

    Another major point is that the inside can be observed as it is.

    The viewer has tabs for Robot Speech, Robot Perception, Impression / Recall / Carry / Body / Memory / Speech / History.
    And only when recall rises does it leave an export frame, so that tick / phase / speech / focus / sensor / impression / recall / carry / body / memory / world can be written out as a research log.

    This is not “it looked like it moved.”
    It is a structure that allows us to keep a record of what actually rose inside.

    Another factor that matters greatly in this demo is the village-side start.

    In main.js, the initial base is village-side rather than cave-side, so that I can observe how impression / recall / speech rise when the world is seen from a relatively safe everyday living space.
    On the world side, humans also make morning, noon, and night greetings, and warnings when the lion approaches.

    So this demo is not merely animal chasing.
    It places soft social cues and threat cues in the same world, and observes how the robot’s first-person side rises within that.

    The important point is this:

    Only third-person materials are given. Main does not assign meaning.
    Within that, the robot raises speech and behavior from its own sensor, impression, recall, and carry, and the whole process can be observed.


    Sensor

    I built the sensor in very fine detail.

    It is not just simple “near / far” or “friend / enemy.”
    Even the initial structure of the sensor is already divided into three layers:

    • vision
    • hearing
    • scene

    Vision

    Vision includes:

    • objectCount
    • size_large / size_small
    • speed_fast / speed_slow
    • legs_many / legs_few
    • color_bright
    • fur_like
    • self_similarity_visual
    • tool_use / no_tool_use
    • eat_grass / eat_anything / eat_insects / hunt_to_eat
    • teeth_claw_impression
    • near_density / far_density

    Hearing

    Hearing is also detailed. It includes:

    • voice_present
    • loud / soft
    • unpleasant
    • low_pitch / high_pitch
    • long_talk / short_talk
    • self_similarity_audio
    • mixed_noise

    And instead of simply receiving voice material from the world side as it is, it first converts it into a heard intensity with distance attenuation.
    Pitch and duration are treated as separate axes, and it even checks similarity to the robot’s own voice.

    Scene

    Scene is not a mere place name either.
    It is held as a vector of place impression:

    • water
    • grass
    • village
    • mountain
    • cave
    • open
    • crowded
    • quiet

    Even in the code comments, it is described not as the name of the world, but as the feel of the place where the robot is now.
    This means impression-first, not label-first.

    In the Robot Perception display on the main side, raw focus is also shown in detail, including:

    • distance
    • salience
    • size_large
    • speed_fast
    • legs
    • fur_like
    • bright_like
    • self_similarity_visual
    • tool_use
    • eat_grass
    • eat_anything
    • eat_insects
    • hunt_to_eat
    • teeth_claw_impression
    • voice

    The Basis of the Sensor

    And then comes the basis itself.

    What is the basis of “large”?
    What is it large relative to?

    “Large / small,” “near / far,” and “similar / different” always require a basis.

    A baby’s brain does not use the metric system.
    That is why misrecognition is assumed from the beginning.

    A baby may look at a lion and think:

    • maybe it is smaller than me
    • but when I see it up close, it is huge

    There may be some internal numerical processing of ratios, but at first that calculation will often be wrong.

    Since no external command is inserted by algorithm, Atron’s sensor is allowed to arrive at an interpretation that is close, or mistaken.

    Instead of external scales such as:

    • “a lion that is 2.8 meters long”
    • “how many times bigger than me”

    it first receives things as feelings such as:

    • bigger than me
    • closer than I thought
    • somehow scary
    • not like me
    • low voice
    • has pressure

    If the world side were to hold the basis, then we would get external labels like:

    • lion = big and danger
    • prey = small and weak
    • human = social

    But the first-person robot is given none of those bases, labels, evaluations, or optimizations.

    For Atron, things begin as a baby’s judgment before it has experienced the world:

    • fast
    • big
    • big head
    • big mouth
    • furry
    • like fangs or claws
    • low voice
    • unpleasant
    • in a group
    • not similar to me
    • number of legs

    These rise first as fragments received by the self.
    Only after that do they flow into impression and recall.

    So the sensor in this demo is not measuring the world itself.
    It is measuring the relation between the world and the self.

    That is why the later stages of recall and carry also gain meaning.

    This is the stage before Dr. Nakano’s and Professor Morita’s Associatron-style associative memory and non-monotonicity.
    It is an entrance for receiving information full of error, failure, and noise.

    Without this way of thinking—completely opposite to present-day AI development—neither first-personness nor autonomy can arise.

    The importance of the sensor

    • the ambiguous basis of a first-person robot
    • the acceptance of misrecognition, failure, and noise

    Autonomy does not rise from perfectly prepared correct data or optimized feature values from the beginning.

    Much of current AI development moves in the direction of:

    • attaching labels
    • evaluating
    • optimizing
    • reducing error
    • removing noise

    Atron looks in the opposite direction:

    • having an ambiguous basis
    • including misrecognition
    • receiving noise
    • not erasing failure
    • allowing association and transformation to rise from there

    Without this reverse way of thinking, neither first-personness nor autonomy can arise.


    Learn

    The next important issue is how Learn works.




    If the sensor is ambiguous and already includes error and noise, then Learn also cannot be a simple form of correct-answer learning.

    So what is Learn?

    • Is it to approach the correct answer?
    • Is it to become able to pull similar feelings?
    • Is it to leave failure?
    • Is it only to pass everything to recall?
    • Is it to deepen carry?
    • Is it to cultivate the bond between impression and recall?

    None of those alone is the real answer.

    In Atron, correctness or error is not judged by an external correct label.
    Instead, what is determined ambiguously is based on the product of recall rising from Cue, in other words, how strongly it is pulled on the side of the robot’s own experience:

    • does this remain?
    • does this fade?
    • is this something that should be learned?
    • or is it forgotten because there is no interest?

    That is very different from ordinary learning.

    Ordinary learning leaves things based on:

    • whether it is close to the correct answer
    • whether the error is small
    • whether the evaluation is high

    But Atron does not work that way.
    Instead, what remains depends on:

    • how much recall rose
    • how strongly it caught on past self
    • how much body and carry moved at that time
    • whether it became a deep attractor as a result

    So Learn is not the acquisition of the correct answer.
    It is the survival of an experience that was pulled.

    And what matters is that this judgment is not black or white.
    It is not simply:

    • correct, so save it
    • wrong, so delete it

    Rather, it is decided in ambiguous shades such as:

    • somehow it matters
    • it is pulled again and again
    • I cannot explain it well, but it remains
    • if I only saw it once, it stays weak
    • there is no interest, so it fades away

    This is much closer to human and animal experience.

    A baby does not remember things because:

    • they are academically correct
    • they are objectively classified correctly

    Rather, things remain because:

    • it was strongly surprising
    • it somehow felt scary
    • it was encountered many times
    • it was interesting
    • it was pleasant
    • it was unpleasant

    Learn through the product of recall in Atron is an entrance to that kind of process.

    In Atron, correctness or error is not determined by external evaluation.
    Within the product of recall rising from Cue, it is judged ambiguously, from the robot’s own experience, whether it should be learned or forgotten due to lack of interest.

    In this way of thinking, forgetting is not failure.
    It is not that the system is incapable.
    It is that it was not deeply pulled inside the self.

    That is one of the differences from current AI.

    The importance of Learn

    • It does not optimize toward the correct answer. It cultivates the connections among the fragments received.
    • It does not erase misrecognition or failure, but leaves them as the ground of recall and carry.
    • Learn is not an evaluation function. It is the accumulation of transformation.

    Cue and Recall

    If the sensor is the entrance that receives self-based fragments while still including misrecognition and noise, then Cue and recall are the place where those fragments do not simply flow away and disappear, but instead touch the past self and rise.

    Many AIs and ordinary algorithms want to arrange things in a clean order such as:

    sensor → learn → memory → recall

    But what happens in Atron is not that linear.

    Take chocolate, for example.

    Even if one is trying to learn chocolate, the initial sensor does not guarantee that it will receive it correctly.
    It may instead be:

    • it looks like trash
    • it looks like a strange lump
    • only the smell stands out
    • by sight alone it is unclear
    • at first there is no interest

    So the simple sequence “sensor then learn” does not capture the essence.

    What really matters is whether the experience of eating it becomes “delicious!”, moves strongly inside, and enters the memory attractor.

    That means Learn is not about processing order.
    What matters is how deeply the experience entered the inside.

    And when chocolate is encountered again, the entrance is not only one.

    • it may begin from smell
    • or from sight
    • or from the word “chocolate”
    • or from the face of the person who once ate it together
    • or from the atmosphere of passing in front of the shop

    No one can know which of these will become the trigger.
    That trigger is Cue, and from there recall rises.

    And what is recalled is not only chocolate itself.
    The person who ate it together, the happy time, the season, the smell of the shop, the voice, the feeling—these may all be recalled together.

    As a result, one may:

    • cry
    • feel excited
    • become nostalgic
    • feel pain in the chest
    • want to eat it again

    And then carry is added to that.

    So in Atron, Learn is not “saving an item.”
    It means that experience changes the internal landscape and even changes the later flow of Cue and recall.

    That is why the order is not fixed.

    • sensor does not always come first
    • recall may begin trembling first
    • Cue may raise emotion all at once
    • it may begin from letters, smell, or scenery

    This is closer to human experience.
    And this is where current AI is weak.

    Current AI tends to think in a clean flow of:

    • input
    • label
    • learning
    • output

    But in Atron, the following are integrated:

    • ambiguous reception
    • deep transformation through experience
    • Cue that can arise from anywhere
    • chain-like recall
    • emotional and bodily change
    • persistent transformation by carry

    What matters in Atron is not the order of sensor and learn.
    What matters is whether an experience—eating, finding it delicious, feeling happy, being with someone—moves strongly inside and enters the memory attractor.

    Then, when it is encountered again, smell, sight, text, or the atmosphere of the town may become Cue and raise recall.
    Recall draws not only the object itself, but also the people, emotions, and place associated with it.
    Carry is added to this.

    So Atron is not a fixed-order algorithm.
    It is a structure that can rise from anywhere inside experience.


    Carry: Dragging Along What Remains

    And now, the important point that gives character and individuality to an autonomous first-person individual in this system: carry, or what I call “dragging along.”




    Originally, neither first-personness nor carry existed as concepts in Associatron.
    But after a long time of research, I came to see that this is a very important factor when the next movement rises with its own will.

    Carry does not deny mistakes, failures, or noise.
    Rather, it accepts the internal state that has been changed by those things as the ground for the next experience and the next action.

    Even if a mountain collapses, grass grows there, flowers bloom, trees and living things settle there.
    After change, regeneration begins, and that regeneration influences the ground of future experience.

    Even if a collapse changes the flow of a river, new land may grow from that change, and a new civilization may arise there.
    Nature is not driven only by the force to restore things to their original state.
    It also moves in the direction of nurturing something new while remaining changed.

    Carry stands on the side of that irreversible change.

    If, at this point, one denied all collapse, failure, and noise and cut them away through labeling, then where would the basis of self-regeneration and newness come from?
    That question struck me strongly.

    If one leaves only correctness, erases error, and removes noise, the system may look neat.
    But then the individuality born from fluctuation, the new direction that rises after collapse, and the continuation of the self that has been changed through experience all disappear.

    “Carry” is an expression somewhat removed from the strict terminology of mechanics.
    Even so, I chose this word because I wanted to give a strong impression in expressing irreversibility in my own way.

    Once something has happened, it does not become as if it never happened.
    Even if one fails, gets hurt, or collapses, that change remains in the next way of feeling and the next way of moving.
    And the way it remains becomes the character and individuality of the individual.

    Carry in Atron is not a mere residual.
    It is the fact that the internal landscape changed by experience continues to influence the next intention, the next recall, and the next action.

    Because carry exists, the individual does not become a blank calculator every time.
    Even in the same world, even under the same sensor input, the next reaction, the next recall, and the next step all change depending on what experiences have been dragged along and how.

    That is where first-person individuality is born.


    Why Did the Robot, of Its Own Will, Cut In Between the Lion and the Prey and Circle Around the Lion?

    The Beginning of Internal Ethics in a First-Person Autonomous System

    Associatron-style recall alone could not have produced that behavior.

    Even in the code, the robot’s flow runs as:

    sensor → impression → baseline update → cue → recall → learn → carry → body → utterance → pose

    After recall, carry and body are applied, and only after that is updatePoseAutonomously(...) called.
    In other words, the movement is not the result of recall alone.
    It is the result that appears after passing through carry and body.

    The strongest basis is here.

    From the beginning, I wrote the code so that it was separated into:

    • raising recall from cue
    • updating carry from recall / baseline difference / depth
    • raising a speech seed from the pressure of recall

    At that point already, the design makes it clear that recall is a middle stage, not the final action itself.

    Furthermore, inside recallFromCue(...), I made it so that it would not become a sequence rule or an if-then action decision.
    That means recall is not a direct command such as “there is a lion, so move this way.”
    It is a partial-match-based rising of recall.
    That alone is not a design that determines a concrete movement such as “cut in between” or “circle around.”

    By contrast, carry remains only when a deep attractor rises, and updates:

    • dopamine
    • noradrenaline
    • adrenaline
    • serotonin
    • tension
    • attractorDepth

    And body is strongly affected not only by recall but also by this carry.
    For example, body.alert rises not only through recall activation and threat, but also through carry’s noradrenaline and tension.
    Likewise, body.fear includes not only recall.threat but also carry’s adrenaline.

    So the most natural reading of what happened in this case is the following:

    • the sensor received fragments corresponding to lion / prey / chase
    • impression raised harsh / violentLike / tension / surprise
    • recall rose from cue
    • but at that stage it was still only “remembering”
    • that remembering was amplified and sustained by carry, and converted into body alert / fear / interest
    • that sustained bodily pressure appeared in pose

    That reading is the most natural one.

    The prey character created in the world is given a third-person algorithmic command to “scream if chased by a lion.”
    But the first-person Atron does not know that at all.

    As it accumulates experience again and again, what begins to appear in its behavior is not only fear toward the lion, but something like a child’s protest:

    “Why are you doing that!”

    This is the beginning of internal ethics in a first-person autonomous system.

    And in this system, the world side does not command the robot.
    In world.js, the world gives no instructions to the robot, and consists only of third-person materials.
    So there is absolutely no external command such as:

    “go between the lion and the prey.”

    If that movement appeared, then it is a behavior that rose from inside the robot.

    A mere threat recall alone would usually tend to produce:

    • escape
    • stopping
    • freezing

    But this robot has a structure in which:

    • starting from the village side gradually builds calm / soft / safe into the baseline
    • social also exists on the recall side
    • carry preserves not only threat but also curiosity and calm
    • body includes not only fear but also interest and comfort-related factors

    So it is not unnatural that, instead of simple avoidance, an ambiguous behavior appears in which it is pulled to remain near the other side.

    Therefore, the most natural reading is this:

    The reason the robot cut in between the lion and the prey and circled around the lion was not that recall alone determined the action.
    Rather, the recall that rose was sustained and transformed by carry, converted into body alert / fear / interest, and appeared as pose.

    Recall is nothing more than “it remembered.”
    That remembering was dragged by carry, remained in the body as pressure, and changed the next step.

    So that behavior was not the result of recall alone.
    It was the result of a first-person internal transformation that included carry.
    It is proof that it moved of its own will.





    © 2026 C-Side Research Laboratory / Yukihiro Watanabe. All Rights Reserved.
    No unauthorized reproduction or redistribution.

    アソシアトロンの想起 と Atron言語

    Atron研究はね、一人称とか自律とか僕も言ってるけど、元は人間の想起なんだよ。 その想起ってのはノイズを否定しない。 アソシアトロンですよ。 何度も同じことを書いてるけど重要なんだよ。 僕は今62歳。 「80年代は楽しかったね」では何も思い出せないけど、 Hard to Say...