ホーム AI NVIDIA はすでに AI 分野で君臨しています。今、それはさらに驚くべきことを達成しました:GPT-4を超えるものを発売します

NVIDIA はすでに AI 分野で君臨しています。今、それはさらに驚くべきことを達成しました:GPT-4を超えるものを発売します

Nvidia は、あまり騒がずに、パーソナライズされ最適化されたバージョンのLlama 3.1を発表しました。これは、AI の分野を揺るがす 70,000 万個のパラメータを備えたモデルである「Nemotron」の名を冠したもので、いくつかの「ベンチマーク」で GPT-4 を上回りました。および Claude 3.5 Sonic 言語モデル。そしてついでに、「オープンソース」モデルの可能性も明らかにしました。

Nemotron が優れた成績を収めた最も注目すべきテストの 1 つはArena Hard Benchmarkで、Nemotron は 85 のスコアを達成し、GPT-4 (79.3) や Claude 3.5 Sonic (79.2) を上回りました。

このモデルはメタ言語モデルをベースとして開発されましたが、Nvidia はポストトレーニング (「微調整」として知られるプロセス) を追加し、人間の好みとのモデルの調整という点で大幅な改善をもたらしました。

このアプローチにより、モデルはより有用で正確な応答を提供し、パフォーマンスに基づいて報酬スコアを割り当てることができます。スペインの AI 専門家カルロス サンタナ氏の言葉を借りれば

「私の結論は、Nemotron は Llama よりも改良されており、より多くの推論を生成するように誘導し、GPT-4o や Sonnet が失敗するいくつかのプロンプトを解決するというものです。」

「ここでの NVIDIA の『最終目標』は、オープン ソース モデルの登場を支持することだと思います […] なぜなら、最終的には、それらを実行するには NVIDIA の GPU が必要になるからです。覚えておいてください、NVIDIA は常に勝つのです。」

また、Nvidia は AI ハードウェアのリーディング カンパニーであり、そのグラフィックス プロセッシング ユニット (GPU) は、研究および商用アプリケーションの両方で現在使用されているほとんどの高度な AI システムのバックボーンであることを忘れないでください。

大切なのは大きさではなく使い方(AI)

Llama 3.1 Nemotron など、パラメータが「わずか」 700 億個しかないモデルが、パラメータ数が大幅に多いいくつかのベンチマークで、Claude 3.5 や GPT-4 などの巨人を上回ることに成功したという事実は、強調する価値があります (後者の数は 1,750 億以上と推定されており、これは Nemotron の 2 倍以上です)。

どちらも、処理能力とより洗練された応答の生成の点で明らかな利点があるはずです。ただし、 Nvidia が Nemotron で示したことは、モデルのサイズだけではなく、モデルがどのようにトレーニングされ、調整されるかが重要であるということです

これにより、AI 開発における新たな視点への扉が開かれ、最も重要なのは必ずしもモデルのサイズではなく、トレーニングの質や微調整技術などが重要になります。

モデルの比較

Nvidia は、質問に答えるとき、または指示に従うときに、AI モデルの品質を比較する方法に取り組む必要がありました。問題は、これらのモデルは通常、異なる種類のデータでトレーニングされるため、それらを公平に比較​​することが困難であることです。

これを解決するために、彼らはHelp Steer 2と呼ばれるデータセットを作成しました。これは基本的に 2 種類の情報、つまり人々がモデルの反応をどのように好むか (好みランキング) とモデルがどの程度うまく反応するかを測定する数値スコアを混合するツールです。

このデータセットを使用することで、Nvidia はモデルのトレーニング方法、特にモデルが良い答えを出したときにモデルに「報酬」を与える方法を改善することができました。これにより、Nemotron の応答の質が向上しました。

これらの手法の影響は、さまざまなベンチマークで得られた結果から明らかです。前述のArena Hard Benchmarkに加えて、Llama 3.1 Nemotron はApaka Evol 2 LCMT Benchmarkなどのテストでも際立っており、ここでも OpenAI や Anthropic などの主要モデルを上回りました。

Llama 3.1 Nemotron へのアクセスと使用

現在、このモデルにアクセスするには主に 2 つの方法があります。 1 つ目は、ユーザーがモデルと直接対話できる AI プラットフォームであるNvidia NeMo を使用する方法です。 2 番目の簡単なオプションは、 ハグ チャットを使用する方法です。無料アカウントを作成することで簡単にアクセスできます。 Nemotron をさらに実験したい場合は、モデルをダウンロードし、 LM Studioなどのアプリケーションを使用してローカルで実行できます (これには 32 GB の RAM と適切な GPU のみが必要です)。

これは AI の将来にとって何を意味しますか?

Llama 3.1 Nemotron の成功は、オープン ソース モデルの大幅な進歩を反映しており、今やテクノロジー大手のクローズド ソース モデルと同じレベル、またはそれを超えることができます。ただし、すべての分野でオープン ソース モデルを上回るという意味ではありません。 。サンタナはそれについて次のように考えています。

「一般的な使用 (チャットボット モード) には問題ありません。しかし、明らかに、彼らが公開したベンチマークが測定するものは、私たちの多くがプライベート モデル (プログラミング、数学など) を実際に使用することを評価していません。その意味では、プライベートモデルは依然として優れています。」

Nvidia は、あまり騒がずに、パーソナライズされ最適化されたバージョンのLlama 3.1を発表しました。これは、AI の分野を揺るがす 70,000 万個のパラメータを備えたモデルである「Nemotron」の名を冠したもので、いくつかの「ベンチマーク」で GPT-4 を上回りました。および Claude 3.5 Sonic 言語モデル。そしてついでに、「オープンソース」モデルの可能性も明らかにしました。

Nemotron が優れた成績を収めた最も注目すべきテストの 1 つはArena Hard Benchmarkで、Nemotron は 85 のスコアを達成し、GPT-4 (79.3) や Claude 3.5 Sonic (79.2) を上回りました。

このモデルはメタ言語モデルをベースとして開発されましたが、Nvidia はポストトレーニング (「微調整」として知られるプロセス) を追加し、人間の好みとのモデルの調整という点で大幅な改善をもたらしました。

このアプローチにより、モデルはより有用で正確な応答を提供し、パフォーマンスに基づいて報酬スコアを割り当てることができます。スペインの AI 専門家カルロス サンタナ氏の言葉を借りれば

「私の結論は、Nemotron は Llama よりも改良されており、より多くの推論を生成するように誘導し、GPT-4o や Sonnet が失敗するいくつかのプロンプトを解決するというものです。」

「ここでの NVIDIA の『最終目標』は、オープン ソース モデルの登場を支持することだと思います […] なぜなら、最終的には、それらを実行するには NVIDIA の GPU が必要になるからです。覚えておいてください、NVIDIA は常に勝つのです。」

また、Nvidia は AI ハードウェアのリーディング カンパニーであり、そのグラフィックス プロセッシング ユニット (GPU) は、研究および商用アプリケーションの両方で現在使用されているほとんどの高度な AI システムのバックボーンであることを忘れないでください。

大切なのは大きさではなく使い方(AI)

Llama 3.1 Nemotron など、パラメータが「わずか」 700 億個しかないモデルが、パラメータ数が大幅に多いいくつかのベンチマークで、Claude 3.5 や GPT-4 などの巨人を上回ることに成功したという事実は、強調する価値があります (後者の数は 1,750 億以上と推定されており、これは Nemotron の 2 倍以上です)。

どちらも、処理能力とより洗練された応答の生成の点で明らかな利点があるはずです。ただし、 Nvidia が Nemotron で示したことは、モデルのサイズだけではなく、モデルがどのようにトレーニングされ、調整されるかが重要であるということです

これにより、AI 開発における新たな視点への扉が開かれ、最も重要なのは必ずしもモデルのサイズではなく、トレーニングの質や微調整技術などが重要になります。

モデルの比較

Nvidia は、質問に答えるとき、または指示に従うときに、AI モデルの品質を比較する方法に取り組む必要がありました。問題は、これらのモデルは通常、異なる種類のデータでトレーニングされるため、それらを公平に比較​​することが困難であることです。

これを解決するために、彼らはHelp Steer 2と呼ばれるデータセットを作成しました。これは基本的に 2 種類の情報、つまり人々がモデルの反応をどのように好むか (好みランキング) とモデルがどの程度うまく反応するかを測定する数値スコアを混合するツールです。

このデータセットを使用することで、Nvidia はモデルのトレーニング方法、特にモデルが良い答えを出したときにモデルに「報酬」を与える方法を改善することができました。これにより、Nemotron の応答の質が向上しました。

これらの手法の影響は、さまざまなベンチマークで得られた結果から明らかです。前述のArena Hard Benchmarkに加えて、Llama 3.1 Nemotron はApaka Evol 2 LCMT Benchmarkなどのテストでも際立っており、ここでも OpenAI や Anthropic などの主要モデルを上回りました。

Llama 3.1 Nemotron へのアクセスと使用

現在、このモデルにアクセスするには主に 2 つの方法があります。 1 つ目は、ユーザーがモデルと直接対話できる AI プラットフォームであるNvidia NeMo を使用する方法です。 2 番目の簡単なオプションは、 ハグ チャットを使用する方法です。無料アカウントを作成することで簡単にアクセスできます。 Nemotron をさらに実験したい場合は、モデルをダウンロードし、 LM Studioなどのアプリケーションを使用してローカルで実行できます (これには 32 GB の RAM と適切な GPU のみが必要です)。

これは AI の将来にとって何を意味しますか?

Llama 3.1 Nemotron の成功は、オープン ソース モデルの大幅な進歩を反映しており、今やテクノロジー大手のクローズド ソース モデルと同じレベル、またはそれを超えることができます。ただし、すべての分野でオープン ソース モデルを上回るという意味ではありません。 。サンタナはそれについて次のように考えています。

「一般的な使用 (チャットボット モード) には問題ありません。しかし、明らかに、彼らが公開したベンチマークが測定するものは、私たちの多くがプライベート モデル (プログラミング、数学など) を実際に使用することを評価していません。その意味では、プライベートモデルは依然として優れています。」

最新記事一覧