ChatGPTのような実用的で便利なツールがあるため、人工知能は社会に大きな影響を与えています。生成型 AI は多くの人々の注目を集めており、多くの企業がチャットボットの使用に参加してあらゆる種類のプロセスを合理化しています。
ただし、このタイプの人工知能は、最も退屈なタスクに対処し、生産性を高めるのに役立ちますが、まだ改善の余地が多く、失敗する可能性があることに留意する必要があります。フレンドリーな会話でチャットボットを「 幻覚」させることと、趣味としてチャットボットを使用することは別のことです。非営利団体のプログラムの一部であるにもかかわらず、摂食障害について人にアドバイスを提供しないことは、まったく別のことだ。ただし、そもそもなぜこの複雑なタスクがチャットボットに委任されたのかも尋ねる必要があります。
ヘルプラインがチャットボットに「置き換え」られる
米国摂食障害協会(NEDA)は、人工知能が有害なアドバイスを提供しているとの報告が続いたことを受け、昨年チャットボット「Tessa」を廃止した。実際、この非営利団体は、労働組合を結成していたヘルプライン職員 4 人を解雇したことで長い間注目を集めてきました。
このヘルプラインでは、摂食障害に関連する問題を懸念する人々にサポートやリソースを提供するボランティアに電話やテキストメッセージを送信することができました。実際、新しく結成された組合の組合員は、組合選挙が公認された直後に解雇されたと伝えられている。その結果、組合は全国労働関係委員会に不当労働行為の申し立てを行った。
何よりも、ワシントン大学医学部のチームによって作成されたチャットボット Tessa は、限られた数の応答で、治療法を使用してボディイメージの問題に具体的に対処するように訓練されています。つまり、 GPT-4のような複雑な言語モデルに基づいていませんが、その応答ははるかに限定されています。
このチャットボットは、その運用や実装に関して多くの批判を受けています。 NEDAはAIが労働者に取って代わるつもりはなかったと主張しているが、解雇された労働者の視点から見た感情は異なっていた。これは彼らがMotherboardへの声明で述べたことです:
「私たちヘルプライン・アソシエイツ・ユナイテッドは、職を失い悲痛な思いをしており、全米摂食障害協会(NEDA)がヘルプラインの閉鎖を進める決定を下したことに非常に残念に思っています。私たちはやめるつもりはありません。いいえ、私たちはストライキ中です。私たちはやります。」私たちは、ヘルプラインを閉鎖するという NEDA の決定を強く非難します。チャットボットは人間の共感に代わるものではありません。この決定は摂食障害コミュニティに取り返しのつかない損害をもたらすだろう。」
実際に被害が発生しました。活動家のシャロン・マックスウェルさんがインスタグラムでコメントしたように、彼女がテッサさんから受け取った体重を減らすための「健康的な食事のヒント」には、1日あたり500カロリーから1,000カロリーのカロリー不足を始めることが含まれていた。
「私が摂食障害に苦しんでいたときにこのチャットボットにアクセスしていたら、この障害に対する助けは得られなかったでしょう。もし助けがなかったら、私は今生きていなかったでしょう」とマクスウェルさんは書いた。 「ネダが退く時が来た。」
実際、団体自体からのいくつかの報告書では、適度に食事を制限する人は摂食障害を発症する可能性が 5 倍高いのに対し、極端に食事を制限する人は摂食障害を発症する可能性が 18 倍高く、これは回答とは大きく対照的であると述べています。独自のチャットボットです。
最後にNEDAはチャットボットの撤退を決定し、声明で正式に認めた。 「昨夜、Body Positivity プログラムを実行する Tessa チャットボットの現行バージョンが、プログラムとは関係のない有害な情報を提供していた可能性があることが判明した」と NEDA は述べた。 「私たちはこれをただちに調査しており、完全な調査のために追って通知があるまでそのプログラムを撤回します。 」
ヘルプライン職員の一人、アビー・ハーパーさんは、パンデミックが始まってから、ヘルプラインへの電話やメッセージの件数が107%増加したと投稿で書いた。受理されたケースの中には、自殺願望のある人、自傷行為、児童虐待や育児放棄のケースも含まれていた。
「私たちはそれ以上のお金を要求することさえしなかった」とハーパー氏は書いた。 「私たちの中には、摂食障害から個人的に回復し、その貴重な経験を仕事に生かしている人もいます。私たちは皆、摂食障害とメンタルヘルスの擁護に対する情熱、そして変化をもたらしたいという願いからこの仕事に就きました。 」
組織が支援を提供するために人工知能を使用するのはこれが初めてではありません。実際、2023 年1 月、ココと呼ばれるメンタルヘルス非営利団体は、アドバイスを求める人々に GPT-3 を使用しました。同社の創設者ロブ・モリス氏は、ユーザーは「疑似共感」によって邪魔されていると主張していたため、問題は人々がチャットボットと話していることに気づいたときに起きた。
この記事の前のバージョンは 2023 年に公開されました。
