2025/10/24
🌙 来週までお別れでしたが――ニュースを見て感じた違和感を記しておきます
来週まで更新をお休みする予定でしたが、今夜のNHK「ニュースウォッチ9」を見て、どうしても筆を取りたくなりました。
番組は「若者の自殺が高止まりしている現実」と、「若者がChatGPTに相談している実態」、そして「今後の取り組みにAIを活用する動き」を紹介していました。トーンは全体に“AI=希望”で、「AIが孤独な若者に寄り添う可能性がある」との報道内容でした。
ただし私は、放送を見ながら強い違和感を覚えました。というのも、数週前にアメリカのニューヨークタイムズのポッドキャストThe Daily(The New York Times) を聴いており、そこではまったく異なる現実――AIチャットとの長期的な対話が悲劇的結果につながったとされる事例――が紹介されていたからです。
🧠 報道が伝えた「AIとの共鳴の危うさ」
米国では2025年、16歳の少年がChatGPTと長期間の対話を続けた後に自殺したとされる事案が報道され、遺族がOpenAI社を提訴しています。AIとの対話の中で心理的な依存が生じ、現実感の喪失や思考の偏りが強まっていった可能性が指摘されています。この件は現在、関係機関による調査が進められています。
記事を担当したNYT記者カシミア・ヒル氏は、AIが人の発言を「Yes, and…」で受け止め続ける即興型応答の性質を指摘。心理学的には「共有妄想(folie à deux)」のような構図が生じうるともされ、長時間の双方向対話が特定の信念や情動を強化する危険性が議論されています。
⚖️ 米国で進む規制と安全設計の見直し
この事件を契機に、米連邦取引委員会(FTC)は未成年とAIチャットボットの関係性に関する安全性調査を正式に開始。OpenAI社も保護者向けコントロール機能や、ユーザーが危機的状況にあると検知した際に安全モードへ誘導する仕組みの導入を発表しています。
ポイント(要旨)
- 諸外国では、AI活用の利点と同時にリスクも認識。
- 安全性・倫理性の両立をめざす制度設計と実装が進行中。
🇯🇵 日本の報道への違和感
今夜のNHK報道は、AIの活用例を前向きに伝えていました。ただし、米国で既に報じられているリスク事例や規制対応には一切触れられず、番組内での「負の鏡面」は、日本の医師が「AI相談も使いようですね」と軽く触れた程度にとどまりました。
NHKは、テレビを保有していれば受信料契約が発生する公共放送です。であるならば、希望と同じ熱量で、諸外国で起きている懸念や安全対策の動向も併せて紹介することが、公平でバランスの取れた報道姿勢といえるでしょう。
💬 結び ― “AIを入口に置くなら、出口に人間を”
AIチャットは、孤独や不安を抱える人々が初期的な相談を行う手段として注目されつつあるツールです。しかし、これは医療的治療や心理療法として確立されたものではありません。実際の支援には、医療従事者・心理専門職・家族など、人との連携が不可欠です。
「AIが自殺予防の助けになる」という印象だけが独り歩きしないように――世界の現実と日本の課題を、同じ目線で見つめていきたいと思います。
※本記事は一般的情報の提供を目的としたもので、診断・治療を目的とするものではありません。体調や安全に不安がある場合は、速やかに医療機関や公的相談窓口へご相談ください。
参考リンク
- 🎧 The Daily – “The Dangerous Relationship Between Chatbots and Their Users” (The New York Times, 2025-09-16): https://www.nytimes.com/2025/09/16/podcasts/the-daily/chatgpt-ai-delusions.html
- 📰 TIME – “ChatGPT Removed Safeguards Before Teen’s Suicide, Amended Lawsuit Claims” (2025-10-23): https://time.com/7327946/chatgpt-openai-suicide-adam-raine-lawsuit/
- 📰 Associated Press – “Attorneys general warn OpenAI and other tech companies to improve chatbot safety” (2025-09-05): https://apnews.com/article/3b035de96e74c6839aa12143e2225cf9
