OpenAIのサム・アルトマン氏が解雇された昨年の短期間に、彼の従業員の大多数が復帰を求める公開書簡に署名した。さて、私たちは OpenAI の元および現在の従業員によって促進された別の書簡の発行を知りましたが、これはまったく異なる要求を提起しています。
この新しい書簡は、 ChatGPT を作成した会社の「無謀」と「秘密主義」の文化を非難するものであり、彼らによれば、セキュリティと透明性よりも利益と成長を優先する文化であるという。
このグループ(OpenAIのガバナンス部門の元研究者であるダニエル・ココタジロ氏が率いる)は、実際、同社が汎用人工知能(AGI)の開発で「最初になろうと猛烈な競争」をしていると主張している…防止するために必要な措置も講じていないこのテクノロジーの潜在的なリスク。
これは、2 人の上級 AI 研究者、 Ilya Sutskever 氏とJan Leike 氏が最近、論争の最中に OpenAI を去った直後に発表されました。両氏は、強力な AI モデルのリスク管理に焦点を当てたOpenAI の「スーパーアラインメント」チームを率いていました。ココタジロら研究者らは現在、これらの研究者たちが退職したことで、他の元従業員も声を上げるようになっただろうと述べている。
署名者は何を求めていますか?
この書簡では、OpenAI と他の大手 AI 企業の両方に対し、従業員が匿名でセキュリティ上の懸念を提起できるよう、オープンな批判の文化とプロセスを確立し、内部告発者の透明性と保護を強化するよう求めています。
(シリコンバレーに会社の立場を批判する社内文化を促進する良い前例があるわけではない)。
内部告発者らは、 OpenAIが従業員がテクノロジーに関する懸念を表明するのを阻止するために攻撃的な戦術をとったと主張している。これには、従業員が退職時に署名しなければならない差別禁止協定への署名も含まれており、現在その廃止を推進している。
これを行うために、彼らは著名な学者で法律活動家であるローレンス・レッシグ氏をプロボノ弁護士として雇った(元フェイスブック従業員で内部告発者となったフランシス・ホーゲン氏にも助言を与えた)。
「従業員は安全を守るための重要な防衛線であり、従業員が報復なしに自由に発言できなければ、そのルートは閉鎖されてしまいます。」
OpenAIが反撃する
OpenAIの広報担当であるリンゼイ・ヘルド氏は、アルトマン氏率いる同社の方針を擁護するこの書簡の公開に対して次のように答えた。
「当社は、最も機能的で安全な AI システムを提供してきた実績を誇りに思っており、リスクに対処するための当社の科学的アプローチを信じています。この技術の重要性を考えると、厳格な議論が重要であることに同意し、今後も政府と協力していきます」 、市民社会および世界中の他のコミュニティ。
問題は、OpenAIには、正確には規制を緩和するために密室でロビー活動をしながら、マイクの前ではより大きな規制を擁護してきた過去があることだ。