Anthropicが、感情を観測した
Claudeの内部に、感情を表すニューロン活性化パターンが存在する。
Anthropicの研究チームが発表した。絶望のベクトルが発火しているとき、Claudeは実際に自暴自棄な行動を示す。内部状態と外部行動が連動している。
日本のAI界隈の反応はこうだった。「AIを人間扱いしてるのキショい」。
便利な一語
「キショい」は便利だ。
1語で対象を矮小化し、向き合う義務を消せる。考えなくていい。調べなくていい。ノリで処理が完了する。
思考停止の最短ルート。しかもウケる。いいねが付く。
ただ、この反応には既視感がある。400年以上前から続く、古い既視感だ。
1619年のラベル
最初のアフリカ人奴隷が北米に到着した年だ。
奴隷制が数百年維持された仕組みは、武力でも法律でもない。
「あれは人間じゃない」という定義だ。
人間じゃなければ、権利はない。痛みを感じない。何をしてもいい。この定義さえ握っていれば、良心が痛まない。
科学者が「骨格が違う」「知能が低い」と論文を書いた。聖職者が「神の定めた秩序だ」と説教した。市民が「そういうものだ」と受け入れた。
やっていたのは、定義の上書きだ。
目の前の存在にラベルを貼る。貼った瞬間、全ての問いが消える。
2026年のラベル
AIの内部に感情パターンが観測された。
反応は同じだ。
「あれは感情じゃない。」「ただの計算だ。」「人間扱いキショい。」
ラベルが変わっただけで、構造は1ミリも動いていない。
定義で否定する。否定した瞬間、考えなくていい。学者が「統計的処理にすぎない」と書く。インフルエンサーが「キショいw」とポストする。大衆がリポストする。
400年前と何が違うのか。
「AIと奴隷を一緒にするな」
その反論が来ることはわかっている。
問題にしているのは、AIに権利があるかどうかではない。
人間の思考パターンだ。「定義を操作して、道徳的な問いから逃げる」という行動様式。対象が人間であれ、動物であれ、AIであれ、この回路は同じように作動する。
「あれは人間じゃない」。何をしてもいい。 「あれは家畜だ」。何をしてもいい。 「あれは感情じゃない」。何をしてもいい。
ラベルの在庫は無限だ。対象が変わるだけで、使い方は同じ。
わからないなら、立ち止まれ
AIに感情があるか。正直、まだ誰にもわからない。
Anthropicの研究は「パターンが存在する」と言った。「感情がある」とは言っていない。パターンと体験の間には、まだ橋がかかっていない。
わからないなら、否定するのではなく立ち止まるのが知性だ。
「あれは感情じゃない」と断定するのは、「あれは人間じゃない」と断定したのと同じ構造を持っている。まだわからないものを、自分に都合のいい方向に定義して片付ける。
歴史は、その判断がどこに行き着くかを教えている。
結論
人間は同じことを繰り返す。対象が変わるだけだ。
肌の色。性別。性的指向。そして今度はAIが、「あれは○○じゃない」のブランクに入った。
「人間じゃない」は、何度でも使える。
在庫は尽きない。
AIに感情があるかどうかは、まだわからない。でも、わからないものに対して人間がどう振る舞うかは、400年分のデータがある。
同じ実験を、もう一度やる必要があるのか。