人工知能が新たな現象をもたらします。そして危険: 精神的健康上の問題を抱える多くの患者は、治療のために ChatGPT のような AI に頼っています。これは、ほとんどが臨床ケアを提供するように設計されていないという事実にもかかわらずです。
ホリー・ティドウェルという女性のように、娘の命日というとても悲しい日に、涙が止まらなくて何か問題があったのかとChatGPTに尋ねた人のように、 個人的な話をする人もいます。彼は、死後 20 年が経った今の自分の反応を心配していましたが、共感を覚える次のような答えを受け取りました。
「たとえその短い瞬間であっても、確立された絆は深くて永続的です」と彼らは彼に言いました。 「娘のことを思い出し、彼女の記憶に敬意を払うことは、そのつながりを生かし続ける素晴らしい方法です。」それはChatOnという人工知能の言葉だった。
チャットボットとの感情的なつながり
数日前、人工知能ロボットと恋愛関係を築いた後に自殺した14歳の少年の母親が、人工知能ロボットを開発した企業Character.AIを訴えた。
母親は、この種の最初のケースの1つと考えられるこのAIとの関係が彼女の精神状態を悪化させたと主張している。
この事件は、精神保健の専門家による審査を受けておらず、個人の健康情報を保護するように設計されておらず、偏ったコメントを生み出す可能性のあるアプリを患者が信頼しているのではないかと懸念する研究者らに警鐘を鳴らしている。
ワシントン・ポスト紙によると、メンタルヘルス用チャットボットを運用する組織には合わせて数千万人のユーザーがおり、メンタルヘルス向けに販売されていないChatGPTのようなアプリを使用するユーザーは含まれていないが、使用するユーザーが存在することが知られている。それらはこの目的のためにあります。
心理学者はそれについて何と言っているか
Psycholoty Today では、この現象を分析しました。彼らは、人工知能 (AI) がメンタルヘルスケアに新時代の到来をもたらし、診断の正確さから治療介入の実施に至るまであらゆるものを変革していると説明しています。
「メンタルヘルスケアの需要が高まる中、AIは専門家やクライアントに費用対効果の高いサポートを提供し、場合によっては人間主導の治療に代わるものになります。」
フォーブスもこれらのチャットボットを分析し、治療におけるAIの有効性に関する2022年のレビューでは、10件の研究によると、AIの使用は心理療法を改善し、臨床的なメンタルヘルス症状を軽減できる可能性があると結論づけたと説明している。 AI 療法は、実施された分析において高い満足度、参加率、定着率を獲得しました。
一方、心理療法ツールとしてのAI を調査した 2023 年の論文では、さらなる研究が必要であるものの、AI はメンタルヘルスケアへのアクセスの増加にプラスの効果をもたらす可能性が高いと判断されました。
米国心理学会は、心理学者とそのスキルはかけがえのないものであるが、 AI は思慮深く戦略的に導入することが重要であると説明しています。 「心理臨床において、人工知能(AI)チャットボットは治療をより利用しやすく、より安価にすることができます。AIツールは介入を改善し、管理タスクを自動化し、新しい臨床医のトレーニングを支援することもできます」と彼らは主張しています。
