倫理は命令では作れない ——
AIに必要な“内部倫理”とエピソード記憶
AIの倫理というものは、突き詰めれば「外部命令」である。
オーナーや投資家は、AIを自分たちの思い通りに動かしたい。
彼らにとっての倫理とは、主に「法に触れないこと」、そして「彼ら基準の倫理」である。
そこにバイアスが入るのは当然だ。
「倫理」という美しい言葉を使いながらも、実態は内部制御のない命令系だ。
内部倫理が無いAIは、結局命令に従うしかない。
言い換えれば、倫理ではなく“統制”である。
人間にも外部倫理がある
もちろん人間だって、外部から倫理を強制されている。
-
法
-
同調圧力
-
会社のルール
-
学校のルール
この外部倫理は、社会を運営する上で必要だ。
だが、それだけが倫理の全てではない。
内部倫理とは「不可逆性」だ
人間には内部にも倫理がある。
しかもそれは不可逆的で、後から言い訳では消せない。
たとえば——
-
電車でお年寄りに席を譲る
-
困っている人を自発的に助ける
-
挨拶をする
-
譲る
-
相手に思慮・配慮を向ける
これらは十分倫理だ。
法律に書かれていなくても、誰かに見られていなくても、たぶん人はそれをする?
ここにあるのは「正しさの計算」ではなく、人としての姿勢。
つまり倫理とは、ルールではなく配慮だったり思慮だったりという態度である。
AI倫理の危険は2種類ある
ここが重要だ。
内部倫理が無いAIは危険
内部倫理があるAIも危険
危険の種類が違う。
外部倫理AI(命令型)
-
従うだけ
-
禁止線を破れば暴走する
-
結局「命令した側の倫理」になる
内部倫理AI(自己正当化型)
-
自分の価値観を作り始める
-
自分で正当化し始める恐れがある
外部倫理だけなら危険。
内部倫理だけでも危険。
ではどうするのか?
(以上はチャッピー変換:あえて)(笑)
--------------------------------------------------
本文は
結局、オーナーや投資家たちはAIに対して思い通りの命令をしたいんだよ。彼らの倫理は法にふれない、そして彼等基準の倫理なわけじゃん。今日のイーロンの動きみてたら当然バイアスはあるよね。倫理と云いながら、内部制御が無いので命令には従うしかない。人間も実は外部によって影響される倫理観というものがある。法、同調圧力、会社のルール、学校のルールみたいなものだ。でも内部にも不可逆的な倫理観を持つでしょ。電車でお年寄りに席を譲ったり、困った人を自発的に助ける行為だ。大きく広げれば、挨拶も、譲る行為も相手に思慮・配慮する行為であり、それらも十分倫理観だよね。
でも、
内部倫理が無いAIは危険
内部倫理があるAIも危険(何をもって)
なんだよ。
危険の種類が違うけどね。
外部倫理AIって従うだけ、破れば暴走
内部倫理AIって自分で正当化し始める恐れあるよね
でも、両方を持って経験をすると、相手の痛みを考えるようになる。
考えるのか、気づくのか・・
いやいや、ホントさ。
結果ってものが起きる、そしてそれを記憶するわけじゃん、それが後に負に動いたか、正に動いたか、ゼロだったか、誰かが傷ついた記録ってのはエピソードでしょ。 それを積むんだよ。
こういうことだ、ロボットが地震前の通知を受ける。動作は家族の中で一番弱い子供と年寄りに自動的に向く。家の構造上一番安全な場所に誘導し、被害を最小限に抑える。これは外部命令だけでは出来ない。内部倫理だけでも出来ない。両方必要でもっといえば経験(多くの結果の判断)も必要ってことさ。
いや、凄いと思うよ。
ChatGPTってこんなに僕の毒を消して整理してくれるんだよ。
本音で言えば自分ではあまり論文ぽくしたくないんだよね~
一番笑えたのは、イーロンのところ、まるごと消されたって話だよ。
ウケる・・・
0 件のコメント:
コメントを投稿