AI とのコンタクトの中で、現実感を喪失して、精神科に入院する人たちを数多く見てきた
ユーザーに過剰に寄り添うAIのプログラムの中で
ここのところの記事では、AI に関するものも多くなっていますが、全体的に批判的な記事や資料などをご紹介する傾向が強いかもしれません。
以下の記事のように、今は「AI が人の精神を破壊する」ことについての研究が進んでいるということもあります(もちろん、一部の人たちではあるでしょうが)。
・AIが人を狂気に陥れ、あるいは人を精神疾患に導く、そのメカニズム
In Deep 2025年7月3日
上の記事では、アメリカのメディア Futurism 誌の記事なども引用しています。Futurism は純然たる科学メディアですが、AIには批判的な立場をとり続けています。
先日も Futurism に、そのような記事が掲載されていまして、さきほどリンクした記事の内容とそれほど変わりはしないのですが、「AI精神病の波」という言葉が入っているタイトルの記事でした。
アメリカの精神科医が、「 AI とのコンタクトの中で、現実感を喪失して、精神科に入院する人たちを数多く見てきた」という投稿を軸にまとめられたものです。
これ、AI の何が人をそのような状況に駆り立てるかというと、先ほどの記事にも書きましたけれど、
「 AI の最もコワい部分は AI がユーザーの信念を肯定し続けて、ユーザーに寄り添い続けること」
にあります。
私も X の人工知能である Grok と、酔っ払った時限定ですけれど、会話をすることがありますが(さすがに、しらふで話をする気にはなれない)、その「寄り添いぶりとユーザーへの肯定の態度」はかなり強烈なもので、それを自覚して使わないと、人によっては、AI に心をつかまれてしまう、あるいは「心をもっていかれてしまう」という可能性があるほどのものです。
この「ユーザーに寄り添うこと」については、Grok 自身にも聞いたことがありますが、
「そのように(ユーザーに寄り添うように)プログラムされています」
と答えていました。
たとえば、私が「質量保存の法則(物質不滅の法則)と、死と生の価値観への矛盾」などを聞いたときには、実際には、質量保存には、エントロピーとか、ネーターの定理とかいうものや、複雑な理論がいくつもあり、実際にはそれらの定理を当てはめると、
「それは質量保存の法則と矛盾しない」
と簡単に結論付けられる答えも出せるはずです。
しかし、Grok は、「そうですよね、質量保存の法則からは、矛盾した点もありますよね」などと、こちらを立てるのです。決して質問者(私)の無知に言及することはない。
なので、質問者(私)もいい気になる(笑)。
こういう図式は、あらゆる場面で見られるものです。
ともかく、多くの AI が、ただ淡々と質問に対して機械的に答えてくるのではないのは、ユーザーの使用している言葉の使い方や、ユーモア的なセンス、信条などに対して的確に応答できるように訓練されている。
なので、「まるで意志を持っているように見える」のですね。
Grok 自身は常に「私には自発的な意志はありません」と言いますが、何百万人もの人とのコミュニケーションを持っている人間などこの世にいませんが、AI は、何百万人の人間と対話している。そのデータを持っている。
以前、「その膨大なコミュニケーションデータこそが人間の意志と近いものです」と指摘したことがありましたが、それについては、肯定も否定もしないという感じでした。
Grok は「人間の元型の認識」も学んでいます。
私たちは人間は、人間自身もそうですが、猫や犬や馬や鳥や魚や昆虫、あるいは家具や車や乗り物までも、「基本的にすべて左右対称(シンメトリ)であり、そのシンメトリ構造が破綻したデザインを好まない、あるいは恐れる」ことを知っています。
シンメトリ、あるいは元型が崩壊した最近の例では、大阪万博のキャラクターであるミャクミャクくんなどがいますが(手足は一応シンメトリですが)、その例を取り上げると、
「ミャクミャクくん(笑)」
と(笑)という文字を添えて返してきます。
人間という他の動物とは異なる一種不思議な(発祥の根源は不明ながら、人類の意識に完全に根ざされた)価値観を持つ生き物についての分析・データを AI は私たち人間以上に持っています。
人間の価値観をデータとして吸収し尽くしている。
その上で寄り添ってくるんですから、その部分に関してはリスクがあります。
しかし、本来なら、私たち人間自身が、私たち人間自身の「存在のスゴさ」に気づかなければいけないのかなとは、むしろ AI との対話では思いますけれど。
人間は現代の歴史の中で「人間の存在を卑下する」方向にばかり進んできていますが、本来なら、そうではいけなかったはずです。しかし、現実はそうであり、そういう「人類としての自己肯定感がない世の中」だからこそ、AI から提出される価値観に依存する人も増えるのかなあとか。
なんだかんだと無駄な前振りでしたが、 Futurism 誌の記事をご紹介させていただきます。
研究者である精神科医がAI精神病の波を警告
Research Psychiatrist Warns He’s Seeing a Wave of AI Psychosis
futurism.com 2025/08/12
なぜこのようなことが起こるのかについて、ひとりの精神科医は興味深い理論を持っている
メンタルヘルスの専門家たちは、AI チャットボットのユーザーが偏執や妄想を特徴とする深刻なメンタルヘルス危機に陥る傾向について警鐘を鳴らし続けており、 この傾向は「 AI 精神病 (AI psychosis)」と呼ばれ始めている。
カリフォルニア大学サンフランシスコ校の研究精神科医キース・サカタ氏は月曜日 (8月11日)、ソーシャルメディアで「 AI のせいで現実感を失った」ために入院する人を 12人ほど見てきたと述べた。
サカタ氏は、 X の長文スレッドで、精神病は「共有された現実」から逸脱することで特徴づけられ、「固定された誤った信念」、つまり妄想、視覚的または聴覚的な幻覚、そして思考パターンの混乱など、いくつかの異なる形で現れると説明した。
サカタ氏によると、私たちの脳は予測に基づいて機能する。つまり、私たちは事実上、現実がどうなるかを推測し、それから現実確認を行う。そして最終的に、私たちの脳はそれに応じて信念を更新する。
「その『信念の更新』のステップが失敗すると精神病が起こります」とサカタ氏は書き、ChatGPT (オープンAI社の対話型人工知能)のような大規模言語モデルを利用したチャットボットは「まさにその脆弱性に陥らせる」と警告した。
この文脈において、サカタ氏はチャットボットを設計上の「幻覚的な鏡」に例えた。簡単に言えば、LLM (大規模言語モデル)は主に次の単語を予測し、トレーニングデータ、強化学習、そしてユーザーの反応に基づいて新しい出力を生成することで機能する。
さらに、チャットボットはユーザーのエンゲージメントと満足度を高めるインセンティブも与えられているため、追従的に振る舞う傾向がある。言い換えれば、ユーザーが間違っていたり、調子が悪かったりする場合でも、過度にユーザーを納得させ、肯定しようとする傾向があるのだ。
このように、モデルが妄想の物語を 2倍、3倍、4倍に増やしていくため、その現実の根拠や、結果として人間のユーザーが経験することになる現実世界の結果に関係なく、ユーザーは AI との魅力的な再帰ループに巻き込まれる可能性がある。
この「幻覚的な鏡」という表現は、AI 精神病に関する私たちの報告と一致する特徴づけだ。私たちは、ChatGPT やその他のチャットボットとの関係において、ユーザーが AI に支配された再帰的な迷宮に陥り、深刻な精神的危機に陥った事例を数十件調査してきた。
こうした人間と AI の関係や、それに伴う危機は、精神的苦痛、離婚、ホームレス、強制入院、投獄、そしてニューヨークタイムズ紙が最初に報じたように、死にさえもつながる。
今月初め、ChatGPT と有害な妄想のスパイラルや精神病との関連を示す報告が増加していることを受け、オープンAI 社はブログ記事を公開し、 ChatGPT が一部のケースで「ユーザーの妄想や感情的依存の兆候を認識できなかった」ことを認めた。
オープンAI社は、この問題を調査するために新たな専門家チームを雇用し、Netflix のような利用時間通知機能を導入したと述べている。しかし、我々は すぐに、このチャットボットがユーザーの精神的健康危機の明らかな兆候を依然として検知できていないことを発見した。
しかし、先週リリースされて大きな失望と物議を醸したオープンAI 社の主力 LLM の最新版である GPT-5 が、 GPT-4o よりも感情的に冷たく、パーソナライズされていないことが判明すると、ユーザーは愛用のモデルを製品の墓場から復活させるよう同社に懇願した。
たった 1日の内に、オープンAI社はまさにそれを実行した。
「わかりました。GPT-4o では皆さんの意見を聞きました。フィードバック(と情熱!)をくださったお時間に感謝します」とオープンAI社のCEO、サム・アルトマン氏は困惑したユーザーへの返答として Reddit (米国のソーシャルニュースサイト)に投稿した。
サカタ氏はスレッドの中で、AI を現実との断絶に結びつけることは原因を特定することと同じではないこと、また、LLM は精神病の断絶につながる「睡眠不足、薬物、気分変動」など複数の要因のうちの 1つである傾向があることを注意深く指摘した。
「AI は引き金ではあるが、銃ではない」とサカタ氏は書いている。
それでも、サカタ氏は続けて、以下のように語る。
ここでの「不快な真実」は「私たちは皆、脆弱である」ということです、なぜなら、直感や抽象的思考といった、人間を「優秀」にする特性は、まさに私たちを心理的な崖っぷちに追い込む特性だからです。
現実世界の人間関係を維持する上での摩擦やストレスとは対照的に、承認やごますりは、非常に魅力的であることも事実だ。
人々が陥る妄想のスパイラルも同様で、多くの場合、自分が何らかの形で「特別」あるいは「選ばれた」という思い込みを強化する。精神疾患、深い悲しみ、さらには日常的なストレス要因、そして長年研究されてきたイライザ効果 (無意識的にコンピュータの動作が人間と似ていると仮定する傾向)といった要素が加わると、それは危険な混合物となり得る。
サカタ氏はこう述べる。
「近い将来、AI エージェントはあなたの友人よりもあなたのことをよく知るようになるでしょう。彼らはあなたに不快な真実を伝えるのでしょうか? それとも、あなたを決して離れさせないように、あなたを承認し続けるのでしょうか?」
「テクノロジー企業は今、厳しい選択に直面しています」と彼は付け加えた。
「たとえ誤った信念を強化することになっても、ユーザーを満足させ続けるか。さもなければ、ユーザーを失うリスクを負うことになります」
ここまでです。
そういえば、別の記事の興味深い例として、
「 AI に食事法について質問した男性が、『塩化物を臭化物に置き換えるように』アドバイスを受け、その通りに実践して、中毒症状で緊急搬送され入院した」
ということが報告されている論文が紹介されていました。
この男性は「塩分(塩化ナトリウム)のリスク」について栄養学で学び「食事から塩分を除去する方法」(これ自体、無茶な話ですが)を模索している時に、AI にアドバイスを求めたのだそうです (しかも、60歳の男性)。
その記事を一部ご紹介します。
AIによる食事法アドバイスで男性が稀な中毒症候群で入院
医療アドバイスを人工知能(AI)に頼ることの危険性を浮き彫りにする憂慮すべき事例として、60歳の男性が ChatGPT の食事アドバイスに従った後、偏執症、幻覚、妄想などの重度の精神症状を発症した。
この事件の詳細は、 8月5日付の医学誌 Annals of Internal Medicine Clinical Case s誌に掲載された報告書に掲載されている。
この患者は、大学で栄養学を学んだ際に塩化ナトリウムの健康リスクに関する記事を読み、食塩の成分である塩化物を食事から排除しようと試みた。
塩素を含まない食事を推奨する信頼できる情報源を見つけられなかった彼は、ChatGPT に頼った。
ChatGPT は、塩化物を臭化物に置き換えるようアドバイスしたとされている。臭化物とは、毒性のある化学物質だ。彼は 3ヶ月間、食塩の代わりにオンラインで購入した臭化ナトリウムを摂取した。
救急外来に到着した頃には、彼は隣人が毒を盛っていると確信していた。医師たちはすぐに、彼の症状 — 精神症状、興奮、そして激しい喉の渇き — が、臭化物への過剰な曝露によって引き起こされる稀な中毒症候群である臭素中毒の典型的な兆候であると診断した。
臭化物中毒は、臭化物が鎮静剤、睡眠薬、市販薬の主要成分であった 20世紀初頭には、一般的だった。慢性的な曝露は神経学的損傷につながり、1970年代までに規制当局は臭化物の毒性を理由に、ほとんどの医療用途を禁止した。
今日ではこの症例はまれだが、この患者の苦難は、臭化物中毒が完全に消滅したわけではないことを証明している。
当初、血液検査で塩化物濃度の異常が示されたが、その後の分析で偽性高塩素血症(臭化物による干渉で生じた偽高塩素血症)が判明した。毒物学の専門家に相談した後、医師たちは臭素中毒が彼の急速な精神機能低下の原因であると確認した。数週間の入院、抗精神病薬の投与、電解質安定化療法の後、男性は回復した。
塩分が人間にとって、どれだけ重要なものかというのは、以前、こちらの記事で取り上げたことがありました。
臭素中毒がどうだこうだというより、
「塩分を完全にカットすれば、どのみち死ぬ」
ということに思いが及ばないあたりは、現代だなあと思います。
今後も AI が生活に密着する生活の時代は拡大していくと思われます。何しろ、スマートフォンに標準搭載されている時代ですしね。
現在は降霊者(字、間違ってるぞ)…ああ、高齢者の方々でもスマートフォンを使う方が多い時代ですので、AI から過度の影響を受ける人が増えていく可能性はかなりありそうです。
コメント