ホーム AI メタ氏は、「たった 2 基の原子炉」が AI の使用に伴う膨大なエネルギー消費の解決策であると考えています。

メタ氏は、「たった 2 基の原子炉」が AI の使用に伴う膨大なエネルギー消費の解決策であると考えています。

すべての情報が保存されているクラウドは大量のエネルギーを消費するため、メッセージング アプリケーションを通じて送信するメッセージは環境に大きな影響を与えていることは誰もが知っています。

生成人工知能が全員の手に渡って以来 ( ChatGPT が先駆者であり、いくつかの企業がそれに続きました)、私たちはこれらのテクノロジーを大量に使用しているため、企業はさらに多くのデータを保存する必要があります。数日前、AI が大量のエネルギーを消費し、水を浪費するだけでなく、 大量の電子廃棄物も生み出していることがわかりました。

Meta の主任生成 AI エンジニアであるSergey Edunov はこれについて話さなければなりませんでしたが、彼の反応は驚くべきものでした。彼の答えは、需要を賄うためには「原子炉が 2 基しか必要ない」というものでした。あなたの業界の誰かが、人工知能によるエネルギー負荷すべてに対処するために原子力発電所の建設について語るのはこれが初めてではありません。Google 、Amazon、Microsoft もそこに解決策を見出しています

昨年シリコンバレーで開催されたデジタルワーカーフォーラムのセッションで同氏は、人類の1年間の需要を賄うには2つの発電所で十分であるようであり、これは受け入れられるようだと述べた。

AI ツールの大量使用によって消費されるすべてのエネルギーへの対処に関する懸念は解決可能であり、「この問題は確実に解決できる」と彼は述べました。 1年前は楽観的だったが、 メタは最近、偉大な計画を継続する上で、自然とミツバチという大きな問題に直面している

AIの超汚染への懸念

1 年前に ChatGPT が革命を起こして世界に出現して以来、人工知能がどれだけ環境を汚染するかという問題は研究と懸念の対象となってきました

calcalistech が少し前に発表したように、「この新しい技術競争には高い隠れた代償があり、この重大な局面において、気候危機を阻止しようとする国際的な試みに損害を与える可能性があります。」

仮想通貨とそのマイニングに存在した懸念と同様、AI の使用には「膨大な計算能力が必要であり、それには並外れた環境破壊が伴います」。 PitchBook のレポートによると、2025 年までに世界の炭素排出量の 3.2% が AI サーバー ファームから発生するとし、「効率よりも拡大を優先する業界の急激な成長に伴い、その環境コストは増大する一方だ」と付け加えています。

ザタカ氏が思い出したように、メタ社は原子力エネルギーと人工知能を結びつけた最初の企業ではない。 Microsoftはまた、「Microsoft CloudとそのAIが常駐するデータセンターに電力を供給する」 核分裂炉を開発する計画も明らかにした

レドモンドの会社はまた、サム・アルトマン率いる新興企業であるヘリオン・エナジーから核融合エネルギーを購入することでこの分野に投資している。この男は、忘れてはならないのですが、優れた人工知能ツールを保有するOpenAI のリーダーです。

エドゥノフからの説明

セッションとこれらの公式声明の後、エドゥノフ氏はVentureBeatに対して、彼の観察は、新たに流入するNvidias H100による追加のAIコンピューティングに必要なパワーに関するものであることを明らかにした。これらのH100は、特にAIアプリケーションを処理するように設計されているため、最も注目すべきもの。

この媒体には、H100 に加えて、 Nvidia GPU の古いモデル、AMD および Intel CPU、AI の推論を行う専用の AI アクセラレータがあることを覚えておいてください。)

いずれにせよ、エドゥノフ氏は、エネルギーの使用について話すとき、心に留めておかなければならない 2 つの側面があると述べました。それは、推論に対処するために必要であるということと、トレーニングのために必要であるということです。彼の最初の答えは、組織が AI アプリケーションを導入するときにほとんどのプロセスが発生する推論に関するものでした。

彼は、推論側の単純な計算をどのように行ったかについて説明しました。彼は、AI プロセッサの主要なサプライヤーであるNvidia がその H100 GPU を 100 万から 200 万個出荷すると述べました。これらすべての GPUS が「トークン」の生成に使用された場合、地球上の 1 人あたり 1 日あたり合計約 100,000 個のトークンが生成されると同氏は述べました。

LLM (大規模言語モデル) のトレーニングは別の課題だとエドゥノフ氏は言います。主な制限は、トレーニングに必要な十分なデータを取得できることです。同氏は、GPT4 がインターネット上でトレーニングされたのではないかと広く推測されていると述べた。ここで彼はいくつかの簡単な仮定を立てました。インターネット全体が公開されており、すべての情報をクリーンアップして重複を排除できるため、使用する際に情報の数が少なくなることが記載されています。

同氏はまた、「質の高い情報に焦点を当てれば、その量はさらに少なくなる。人類が何世紀にもわたって生み出した知識の量はそれほど多くない」ため、一見したように見えるほどエネルギーは多くないと説明した。

すべての情報が保存されているクラウドは大量のエネルギーを消費するため、メッセージング アプリケーションを通じて送信するメッセージは環境に大きな影響を与えていることは誰もが知っています。

生成人工知能が全員の手に渡って以来 ( ChatGPT が先駆者であり、いくつかの企業がそれに続きました)、私たちはこれらのテクノロジーを大量に使用しているため、企業はさらに多くのデータを保存する必要があります。数日前、AI が大量のエネルギーを消費し、水を浪費するだけでなく、 大量の電子廃棄物も生み出していることがわかりました。

Meta の主任生成 AI エンジニアであるSergey Edunov はこれについて話さなければなりませんでしたが、彼の反応は驚くべきものでした。彼の答えは、需要を賄うためには「原子炉が 2 基しか必要ない」というものでした。あなたの業界の誰かが、人工知能によるエネルギー負荷すべてに対処するために原子力発電所の建設について語るのはこれが初めてではありません。Google 、Amazon、Microsoft もそこに解決策を見出しています

昨年シリコンバレーで開催されたデジタルワーカーフォーラムのセッションで同氏は、人類の1年間の需要を賄うには2つの発電所で十分であるようであり、これは受け入れられるようだと述べた。

AI ツールの大量使用によって消費されるすべてのエネルギーへの対処に関する懸念は解決可能であり、「この問題は確実に解決できる」と彼は述べました。 1年前は楽観的だったが、 メタは最近、偉大な計画を継続する上で、自然とミツバチという大きな問題に直面している

AIの超汚染への懸念

1 年前に ChatGPT が革命を起こして世界に出現して以来、人工知能がどれだけ環境を汚染するかという問題は研究と懸念の対象となってきました

calcalistech が少し前に発表したように、「この新しい技術競争には高い隠れた代償があり、この重大な局面において、気候危機を阻止しようとする国際的な試みに損害を与える可能性があります。」

仮想通貨とそのマイニングに存在した懸念と同様、AI の使用には「膨大な計算能力が必要であり、それには並外れた環境破壊が伴います」。 PitchBook のレポートによると、2025 年までに世界の炭素排出量の 3.2% が AI サーバー ファームから発生するとし、「効率よりも拡大を優先する業界の急激な成長に伴い、その環境コストは増大する一方だ」と付け加えています。

ザタカ氏が思い出したように、メタ社は原子力エネルギーと人工知能を結びつけた最初の企業ではない。 Microsoftはまた、「Microsoft CloudとそのAIが常駐するデータセンターに電力を供給する」 核分裂炉を開発する計画も明らかにした

レドモンドの会社はまた、サム・アルトマン率いる新興企業であるヘリオン・エナジーから核融合エネルギーを購入することでこの分野に投資している。この男は、忘れてはならないのですが、優れた人工知能ツールを保有するOpenAI のリーダーです。

エドゥノフからの説明

セッションとこれらの公式声明の後、エドゥノフ氏はVentureBeatに対して、彼の観察は、新たに流入するNvidias H100による追加のAIコンピューティングに必要なパワーに関するものであることを明らかにした。これらのH100は、特にAIアプリケーションを処理するように設計されているため、最も注目すべきもの。

この媒体には、H100 に加えて、 Nvidia GPU の古いモデル、AMD および Intel CPU、AI の推論を行う専用の AI アクセラレータがあることを覚えておいてください。)

いずれにせよ、エドゥノフ氏は、エネルギーの使用について話すとき、心に留めておかなければならない 2 つの側面があると述べました。それは、推論に対処するために必要であるということと、トレーニングのために必要であるということです。彼の最初の答えは、組織が AI アプリケーションを導入するときにほとんどのプロセスが発生する推論に関するものでした。

彼は、推論側の単純な計算をどのように行ったかについて説明しました。彼は、AI プロセッサの主要なサプライヤーであるNvidia がその H100 GPU を 100 万から 200 万個出荷すると述べました。これらすべての GPUS が「トークン」の生成に使用された場合、地球上の 1 人あたり 1 日あたり合計約 100,000 個のトークンが生成されると同氏は述べました。

LLM (大規模言語モデル) のトレーニングは別の課題だとエドゥノフ氏は言います。主な制限は、トレーニングに必要な十分なデータを取得できることです。同氏は、GPT4 がインターネット上でトレーニングされたのではないかと広く推測されていると述べた。ここで彼はいくつかの簡単な仮定を立てました。インターネット全体が公開されており、すべての情報をクリーンアップして重複を排除できるため、使用する際に情報の数が少なくなることが記載されています。

同氏はまた、「質の高い情報に焦点を当てれば、その量はさらに少なくなる。人類が何世紀にもわたって生み出した知識の量はそれほど多くない」ため、一見したように見えるほどエネルギーは多くないと説明した。

最新記事一覧