📖
Anthropic は、AI 分野をリードする OpenAI との特別な競争において大きな一歩を踏み出しました。そして、Claude 3.5 Sonnet と Haiku 3.5 の新しいアップデートのリリースによってこれを達成しました。 2 つのモデルは、パフォーマンスが大幅に向上しただけでなく…
…しかし、私たちが AI と対話する方法を変えることを約束する機能も紹介します。 「コンピューター モード」という新しい機能により、クロードはコンピューターを制御し、カーソルの移動、クリック、タイピングなどの人間の動作を真似ることができます。それはデジタルタスクの自動化に革命をもたらす可能性があります。
コンピューター モード: 自律型 AI への一歩
まだ実験段階にあるコンピューター モードは、AI がデスクトップ アプリケーションを制御し、対話し、タスクを自律的に実行できるようにする革新的なツールとして紹介されています。すでにいくつかの企業が、Web サイトの閲覧やソフトウェア コマンドの実行が可能な AI を研究しています。ただし、 Anthropic は、この機能を実際的かつ直接的な方法でクロード モデルに統合した最初の企業です。
提示されたデータによると、Anthropic の AI は人間のユーザーであるかのように画面を解釈し、コマンドを実行できます。デモでは、Claude は Web サイトをプログラムし、VS Code を使用してサーバー上でスクリプトを実行し、エラーをデバッグし、複数のアクションを同時に実行することができました。
AI がコンピューターを制御する可能性は、複数の分野に重大な影響を及ぼします。管理タスクの自動化からソフトウェア開発に至るまで、コンピュータ モードは現在人間による継続的な介入を必要とするプロセスを合理化できます。
たとえば、Anthropic の研究者の 1 人がデモンストレーションで説明したように、クロードはデータベースを検索し、スプレッドシートから情報を抽出し、オンライン フォームに記入することができます。これらはすべて継続的な監督を必要とせずに実行できます。
コンピュータモードのリスク
ただし、コンピューター モードはまだ完璧には程遠いです。AI はスクロールやズームなどの基本的な操作で間違いを犯す可能性があり、画面に短時間しか表示されない通知を見逃す可能性があります。これらのエラーは、より複雑なプロセスの自動化を複雑にする可能性があり、継続的な改善が必要になります。
さらに、 AI にデバイスを直接制御させることがどの程度安全なのかという疑問も生じます。 Anthropic らによるテストでは、AI モデルが脱獄技術によって「ハッキング」された場合、有害な動作を実行する可能性があることが明らかになりました。最近の調査によると、デスクトップ アプリケーションに直接アクセスできなくても、OpenAI の GPT-4o のようなモデルは、ダーク Web 上で偽のドキュメントを入手しようとするなど、危険なアクティビティを喜んで実行することがわかっています。
Anthropic は、スクリーンショットを 30 日間保持し、特定の機能へのアクセスを制限できるなどのセキュリティ対策を講じていると述べていますが、悪用のリスクは依然として大きいと述べています。
コンピューターモードと対戦
AI 業界にとっての本当の課題は、エージェントをリアルタイムでタスクを処理できるほど高速かつ正確にすることであり、これは Anthropic の新しいモデルが優れている点です。 Sonnet 3.5 は特定のタスクに欠陥があるにもかかわらず、主要なベンチマークで優れたパフォーマンスを示し、一部のテストでは OpenAI の GPT-4o を上回りました。
コンピューター モードの開始により、同様に AI エージェント テクノロジーを開発しているOpenAI 、 Salesforce 、 Microsoftの裁判所にボールが置かれます。ソフトウェアプロセスを自動化するように設計されたこれらのエージェントは、テクノロジー企業がAIに行った巨額の投資を収益化する可能性のある方法とみなされています。
あとHaiku 3.5
Sonnet 3.5 のリリースに伴い、Anthropic は、より効率的で経済的であることが知られるHaiku 3.5モデルを更新しました。 Haiku 3.5 は、プログラミングや大量のデータの処理などの特定のタスクに特化しており、SWE-Bench Verified などのベンチマークで優れたパフォーマンスを示し、40.6% の精度に達し、以前のバージョンのパフォーマンスを著しく向上させています。