📖
近年、生成 AI は飛躍的に進歩し、教育を含むいくつかの分野に顕著な影響を与えています。そこでは、ChatGPT などのツールが、学生が AI を使用してテキストを生成できるようにすることで、評価方法としての授業の有用性に疑問を呈しています。その後、自分のものとして発表します。
これらのテクノロジーの可能性は否定できませんが、悪用が増えているため、AI によって生成されたテキストを識別して制御する必要性が高まっています。
この問題に対処するために提案されている主な技術的解決策の1つは、 AIによって生成されたテキストでの「ウォーターマーク」の使用にあります。これは、量子コンピューティングの研究者でOpenAIチームのメンバーであるスコット・アーロンソンによってすでに開発され、2022年に発表された革新的なアイデアです。 。
ただし、このテクノロジーは機能的なプロトタイプはあるものの、大規模な AI サービスにはまだ実装されていません。なぜなら?
学術盗作の問題
依然として多くの制限があるものの、テキスト生成は引き続き現在の AI モデルの強みの 1 つです。 ChatGPT (または Claude、または LlaMa、または Gemini、または Mistral) のようなツールは、利用可能な膨大な量のトレーニング データに基づいて、許容可能な品質の文章を作成できるため、学術的なタスクに広く使用されるようになりました。
現在、 AI が生成したテキストを検出するために利用できるツールは信頼性が低いことが判明しています。これは、盗作の冤罪が学生に与える可能性のある深刻な結果を考慮すると問題です。
ここで「透かし」の提案が登場します。このアイデアは、テキスト生成プロセス中に、技術によって検出可能だが肉眼では認識できないパターンを導入する技術的解決策で構成されており、これにより、明白に透かしを可能にすることになります。テキストが AI によって作成されたかどうかを識別します。
このパターンはテキストへの小さな変更の影響を受けないため、単語の置換や文の並べ替えなど、検出を回避する単純な試みに耐性があります。
なぜこの解決策が使用されないのでしょうか?
しかし、透かし入れは、AI による盗作の問題に対する有望な解決策であるように見えますが、OpenAI やこの分野の他の企業によって広く実装されていません。
アーロンソン氏によると、この消極的な主な理由は市場競争にあります。もし OpenAI だけが透かしを使用していたら、ユーザーはこのタイプの制御を持たない、他社が所有する他の生成 AI プラットフォーム (LlaMa や Gemini など) にすぐに乗り換えてしまうでしょう。 。
これは、学生が単に他のツールを使用するだけなので、盗作問題を何ら解決することなく、OpenAI のユーザーを大幅に失うことになります。
この分野のすべての企業が世界的に合意したという遠隔的なケースであっても、LlaMa (テキスト) や Stable Diffusion (画像) などのオープンソース モデルの普及により、あらゆるユーザーがコンテンツ制限なしで自分のコンピュータで画像を生成できるようになります。これは、分散環境における AI の使用を規制することの難しさを浮き彫りにしています。
アーロンソン氏は、核兵器のような他の規制可能なテクノロジーとは異なり、AI はソフトウェアであるため、本質的に世界レベルでの制御がより困難であると指摘しています。
盗作を超えて
いずれにせよ、AIが生成する文章の問題は教育分野に限ったものではない。スコット アーロンソン氏は、AI セキュリティに関する講演の中で、偽情報の蔓延、自動化されたプロパガンダ、なりすましや危険なメッセージを拡散するための AI の悪用など、これらのツールの使用についてさらに深い疑問を提起しています。
そして、これは透かしがより広範な影響を与える可能性がある場所です。 AI によって自動化された偽情報キャンペーンが行われ、何千もの虚偽のソーシャル メディア投稿が生成されると想像してください。透かしを入れることで、これらのテキストの出所を特定できるようになり、追跡と軽減が容易になります。
ただし、アーロンソン氏が指摘するように、透かしが広く実装されているシナリオであっても、それは絶対確実な解決策ではありません。他の AI を使用して ( 敵対的生成システム経由で) 生成されたテキストを言い換えることは常に可能であり、その結果、あらゆる痕跡が削除されます。検出可能。
