ホーム ツール ChatGPTの作成者がMicrosoftとGoogleに加わり、人工知能の開発を規制する

ChatGPTの作成者がMicrosoftとGoogleに加わり、人工知能の開発を規制する

AI の主要企業 4 社が、人工知能の「安全で責任ある開発」を確保することを目的とした新しい業界団体を結成するために結集すると発表しました。

そこで、ChatGPT 開発者の OpenAI、Microsoft、Google、Anthropic は、メンバー企業の専門知識を活用して技術評価とベンチマークを開発し、ベスト プラクティスと標準を促進する連合であるFrontier Model Forum を発表しました。

GoogleやOpenAIなどの企業のリーダーたちは、世界政府が人工知能を規制する必要性について何度か語っている

欧州連合もこれについて何年も議論してきましたが、 まだ明確な規制を策定していません。 GoogleとOpenAIは規制の必要性について話し合っているが、ヨーロッパで提案されているような規制が導入されると、反対し、ここから撤退すると脅迫することさえあると言わなければならない。

見てみると…
chatGPTあれば、勉強する意味ない? #落合陽一 未来予測 #chatgpt #教育 #仕事 #pivot
「Sgroogled.com」: マイクロソフトが反グーグル広告を開始したとき

フロンティアAIを規制する

Microsoft が発表したように、これらの言及された企業は、フロンティア AI モデルの安全かつ責任ある開発の確保に重点を置いた業界団体であるフロンティア モデル フォーラムを立ち上げています。

彼らがフロンティア AI について話すとき、彼らは「最先端の既存モデルに存在する機能を超え、さまざまなタスクを実行できる大規模な機械学習モデル」を指します。

つまり、 「公共の安全に重大なリスク」をもたらすほど危険であると考えられる人工知能だ。彼らは、そのようなモデルは「危険な機能が予期せず現れる可能性がある」ため、特有の規制上の課題を引き起こし、モデルの悪用を防ぐことが困難であると主張している。

この提携の目的

このフォーラムの目的としては4 点が掲げられています。一方で、AI の安全性研究を推進して、フロンティア モデルの責任ある開発を促進し、リスクを最小限に抑え、機能と安全性の独立した標準化された評価を可能にします。

第 2 に、フロンティア モデルの責任ある開発と導入に関するベスト プラクティスを特定し、テクノロジーの性質、機能、限界、影響を一般の人々が理解できるようにします。 3点目は、議員、学者、市民社会、企業と連携して知識を共有することです。

最後に、彼らは、気候変動の緩和と適応、がんの早期発見と予防、サイバー脅威との闘いなど、社会の最大の課題に対処するのに役立つアプリケーションを開発する取り組みを支援したいと考えています。

Frontier Model Forum には現在 4 つの組織しかありませんが、新規メンバーを歓迎しているとのことです

AI の主要企業 4 社が、人工知能の「安全で責任ある開発」を確保することを目的とした新しい業界団体を結成するために結集すると発表しました。

そこで、ChatGPT 開発者の OpenAI、Microsoft、Google、Anthropic は、メンバー企業の専門知識を活用して技術評価とベンチマークを開発し、ベスト プラクティスと標準を促進する連合であるFrontier Model Forum を発表しました。

GoogleやOpenAIなどの企業のリーダーたちは、世界政府が人工知能を規制する必要性について何度か語っている

欧州連合もこれについて何年も議論してきましたが、 まだ明確な規制を策定していません。 GoogleとOpenAIは規制の必要性について話し合っているが、ヨーロッパで提案されているような規制が導入されると、反対し、ここから撤退すると脅迫することさえあると言わなければならない。

見てみると…
chatGPTあれば、勉強する意味ない? #落合陽一 未来予測 #chatgpt #教育 #仕事 #pivot
「Sgroogled.com」: マイクロソフトが反グーグル広告を開始したとき

フロンティアAIを規制する

Microsoft が発表したように、これらの言及された企業は、フロンティア AI モデルの安全かつ責任ある開発の確保に重点を置いた業界団体であるフロンティア モデル フォーラムを立ち上げています。

彼らがフロンティア AI について話すとき、彼らは「最先端の既存モデルに存在する機能を超え、さまざまなタスクを実行できる大規模な機械学習モデル」を指します。

つまり、 「公共の安全に重大なリスク」をもたらすほど危険であると考えられる人工知能だ。彼らは、そのようなモデルは「危険な機能が予期せず現れる可能性がある」ため、特有の規制上の課題を引き起こし、モデルの悪用を防ぐことが困難であると主張している。

この提携の目的

このフォーラムの目的としては4 点が掲げられています。一方で、AI の安全性研究を推進して、フロンティア モデルの責任ある開発を促進し、リスクを最小限に抑え、機能と安全性の独立した標準化された評価を可能にします。

第 2 に、フロンティア モデルの責任ある開発と導入に関するベスト プラクティスを特定し、テクノロジーの性質、機能、限界、影響を一般の人々が理解できるようにします。 3点目は、議員、学者、市民社会、企業と連携して知識を共有することです。

最後に、彼らは、気候変動の緩和と適応、がんの早期発見と予防、サイバー脅威との闘いなど、社会の最大の課題に対処するのに役立つアプリケーションを開発する取り組みを支援したいと考えています。

Frontier Model Forum には現在 4 つの組織しかありませんが、新規メンバーを歓迎しているとのことです

最新記事一覧