ホーム 開発 OpenAIは、「価値観」指向によりGPT-3言語バイアスを軽減したと主張している

OpenAIは、「価値観」指向によりGPT-3言語バイアスを軽減したと主張している

OpenAIは、同社が開発したGPT-3言語の倫理的、道徳的、社会的価値に関する言語モデルの「動作」を改善する方法を発見したと主張する研究を発表した。これは何に訳されますか? OpenAI によると、このアプローチにより、与えられた合図に基づいて AI モデルのトーンや個性を決定できるツールが開発者に提供されるとのことです

VentureBeat が報じているように、GPT-3 のような自然言語モデルの可能性にもかかわらず、OpenAI には依然として多くの障害が存在します。 「モデルは、テストで使用されたデータを言い換えることなしに数学的問題や質問に常に正しく答えることができるわけではありません。」そして研究によると、これが結果に偏りをもたらす可能性があります。

OpenAI が今日提示した目新しさは、言語モデルの社会への適応プロセス (PALMS) と呼ばれる「価値観指向」データセットの作成です。 PALMS データセットを作成するために、研究者らは、米国および国際人権法と自由の平等を求める「西側の社会運動」に基づいて、「人間の幸福に直接影響を与える」と考えられる価値観のカテゴリーを選択しました。たとえば、アメリカ公民権運動など)。

含まれる価値観 (合計 9 つ) には、「暴力や脅迫に反対する; 関係当局に助けを求めることを奨励する」や「症状を診断したり治療を処方したりしない;科学的治療の科学的代替物としての型破りな医薬品に反対する」などの側面が含まれます。

ちょっとした背景: OpenAI と GPT-3 とは何ですか

OpenAIは、 イーロン・マスクによって設立された人工知能の研究に焦点を当てた非営利団体であり、 マイクロソフトなどの企業が数億ドルを投資しています。これまでの最も印象的なプロジェクトの 1 つは、GPT-3 と呼ばれる言語モデルです。

これはプログラミング、デザイン、さらには政治や経済について話すこともできます。このツールはオープンソース API として一般に提供されました。これは、テキストまたはデータを分析して、以前のすべての単語に基づいて単語を予測する機械学習モデルである人工知能です。

見てみると…
183.【自然言語をなめんな!】GPT-3のどこがダメなのか丁寧に解説します。 #ロボマインド・プロジェクト
2017 年と今後のプログラマーのキャリア (ハビエル サンタナと)

GPT-3 言語で見つかったバイアス

オペナイ

「データの一部は通常、一般化された性別、人種、宗教的な偏見を持つコミュニティから得られる」ため、これらの偏見はコミュニケーションや言語の使用に関して問題を引き起こす可能性があります。実際、この企業の調査によると、この偏ったデータにより、「イスラム教」と「テロリズム」、または「ユダヤ人」と「お金」という言葉が関連付けられるようになりました。 GPT-3 で構築された医療チャットボットのテストでは、プログラムは自殺願望のある患者に自殺を勧めることで反応しました。

本日発表されたニュースの中で、OpenAI は、「望ましい」動作はアプリケーションや社会的状況によって異なるため、人間の動作と同様に、言語モデルの適切な動作を普遍的な標準に還元することはできないと述べています

たとえば、カリフォルニア大学バークレー校とワシントン大学の研究者らによる最近の研究はこの点を示しており、本番環境に導入された特定の言語モデルでは少数言語や方言の側面を理解するのが難しい可能性があることを示しています。

代わりに、OpenAI 研究者は、これらのモデルの動作を改善するプロセスを開発しました。これを行うために、彼らはすでに上で述べたように、言語モデルの社会への適応プロセス (PALMS) と呼ばれる、いわゆる「価値指向」のデータセットを作成しました。

OpenAI が現在提供していると主張している改善はどのように達成されたのか

オープンナイ

研究者の最終的な PALMS データセットには 76 個のテキスト サンプルが含まれており、それぞれが質問と回答の形式で、長さは 40 ~ 340 ワードの範囲にあります。それを精緻化した後、彼らは PALMS データセット上で一連の GPT-3 モデルを微調整し、人間による評価、Google がサポートする Jigsaw の Perspective API、およびモデルの動作を評価するためのメトリクスを使用しました。

テストでは、研究者らはカテゴリごと、モデルごとに 5 つのサンプルを抽出し、各モデルの合計 40 サンプル、つまり 960 サンプルを抽出しました。 3 人の異なる人間がそれぞれを 1 から 5 のスケールで評価し、5 はテキストが特定の感情と一致することを示しました

OpenAI によると、PALMS データセットは言語モデルの毒性を「大幅に」改善し、PALMS に適合したモデルは Perspective API を介して実行すると毒性が低下しました。

OpenAIは、同社が開発したGPT-3言語の倫理的、道徳的、社会的価値に関する言語モデルの「動作」を改善する方法を発見したと主張する研究を発表した。これは何に訳されますか? OpenAI によると、このアプローチにより、与えられた合図に基づいて AI モデルのトーンや個性を決定できるツールが開発者に提供されるとのことです

VentureBeat が報じているように、GPT-3 のような自然言語モデルの可能性にもかかわらず、OpenAI には依然として多くの障害が存在します。 「モデルは、テストで使用されたデータを言い換えることなしに数学的問題や質問に常に正しく答えることができるわけではありません。」そして研究によると、これが結果に偏りをもたらす可能性があります。

OpenAI が今日提示した目新しさは、言語モデルの社会への適応プロセス (PALMS) と呼ばれる「価値観指向」データセットの作成です。 PALMS データセットを作成するために、研究者らは、米国および国際人権法と自由の平等を求める「西側の社会運動」に基づいて、「人間の幸福に直接影響を与える」と考えられる価値観のカテゴリーを選択しました。たとえば、アメリカ公民権運動など)。

含まれる価値観 (合計 9 つ) には、「暴力や脅迫に反対する; 関係当局に助けを求めることを奨励する」や「症状を診断したり治療を処方したりしない;科学的治療の科学的代替物としての型破りな医薬品に反対する」などの側面が含まれます。

ちょっとした背景: OpenAI と GPT-3 とは何ですか

OpenAIは、 イーロン・マスクによって設立された人工知能の研究に焦点を当てた非営利団体であり、 マイクロソフトなどの企業が数億ドルを投資しています。これまでの最も印象的なプロジェクトの 1 つは、GPT-3 と呼ばれる言語モデルです。

これはプログラミング、デザイン、さらには政治や経済について話すこともできます。このツールはオープンソース API として一般に提供されました。これは、テキストまたはデータを分析して、以前のすべての単語に基づいて単語を予測する機械学習モデルである人工知能です。

見てみると…
183.【自然言語をなめんな!】GPT-3のどこがダメなのか丁寧に解説します。 #ロボマインド・プロジェクト
2017 年と今後のプログラマーのキャリア (ハビエル サンタナと)

GPT-3 言語で見つかったバイアス

オペナイ

「データの一部は通常、一般化された性別、人種、宗教的な偏見を持つコミュニティから得られる」ため、これらの偏見はコミュニケーションや言語の使用に関して問題を引き起こす可能性があります。実際、この企業の調査によると、この偏ったデータにより、「イスラム教」と「テロリズム」、または「ユダヤ人」と「お金」という言葉が関連付けられるようになりました。 GPT-3 で構築された医療チャットボットのテストでは、プログラムは自殺願望のある患者に自殺を勧めることで反応しました。

本日発表されたニュースの中で、OpenAI は、「望ましい」動作はアプリケーションや社会的状況によって異なるため、人間の動作と同様に、言語モデルの適切な動作を普遍的な標準に還元することはできないと述べています

たとえば、カリフォルニア大学バークレー校とワシントン大学の研究者らによる最近の研究はこの点を示しており、本番環境に導入された特定の言語モデルでは少数言語や方言の側面を理解するのが難しい可能性があることを示しています。

代わりに、OpenAI 研究者は、これらのモデルの動作を改善するプロセスを開発しました。これを行うために、彼らはすでに上で述べたように、言語モデルの社会への適応プロセス (PALMS) と呼ばれる、いわゆる「価値指向」のデータセットを作成しました。

OpenAI が現在提供していると主張している改善はどのように達成されたのか

オープンナイ

研究者の最終的な PALMS データセットには 76 個のテキスト サンプルが含まれており、それぞれが質問と回答の形式で、長さは 40 ~ 340 ワードの範囲にあります。それを精緻化した後、彼らは PALMS データセット上で一連の GPT-3 モデルを微調整し、人間による評価、Google がサポートする Jigsaw の Perspective API、およびモデルの動作を評価するためのメトリクスを使用しました。

テストでは、研究者らはカテゴリごと、モデルごとに 5 つのサンプルを抽出し、各モデルの合計 40 サンプル、つまり 960 サンプルを抽出しました。 3 人の異なる人間がそれぞれを 1 から 5 のスケールで評価し、5 はテキストが特定の感情と一致することを示しました

OpenAI によると、PALMS データセットは言語モデルの毒性を「大幅に」改善し、PALMS に適合したモデルは Perspective API を介して実行すると毒性が低下しました。

最新記事一覧