ホーム AI すべての主要国は、AI が核の赤いボタンを制御すべきではないことに同意しています。全員…1人を除いて

すべての主要国は、AI が核の赤いボタンを制御すべきではないことに同意しています。全員…1人を除いて

テクノロジーは飛躍的に進歩しています。ずっと前に、人工知能はフェイクニュースや宿題の盗用に関する議論でのみ取り上げられる問題ではなくなり、軍事分野を含むさまざまな分野で重要な問題になりました…それは、今週ソウルで開催された最近の軍事分野における責任ある人工知能に関するサミット ( REAIM ) によって実証されています。

ロシアとウクライナの紛争におけるAI搭載ドローンの使用は、サミット中に提示された具体例だった。これらのデバイスは、アルゴリズムの失敗のリスクを引き起こす人間の監視を最小限に抑えながら、戦場で非常に効果的であることが証明されています。

このイベントの終わりに、米国といくつかの NATO 加盟国を含む 60 か国以上が、戦場でこの技術を責任を持って使用するためのガイドラインを確立する協定に署名しました。

しかし、主要大国である中国は、軍事AIの管理をめぐる地政学的亀裂の深さを浮き彫りにし、協定に署名しないことを決定した

「人間中心」の戦争

この新しい協定には拘束力さえないが、署名者らは、戦争におけるAIの使用に伴うリスクと、武力行使、特に軍事兵器に関する決定において人間による厳格な管理を維持することの重要性を概説する上で、大きな前進となると述べている。核兵器などの大量破壊兵器。

大多数の国が採択した協定は、軍事用 AI が「倫理的かつ人間中心」の方法で開発および使用されることを保証することを目的としていますが、この文言がそのような文脈に適用されると衝撃的になるかもしれません。

中国、国際合意を拒否

首脳会談で最も注目すべき驚きの一つは、中国が協定への署名を拒否したことだった。アジアの巨人は、2023年のサミットで以前のそれほど具体的ではない合意を支持していたが、今回はこのイニシアチブに参加しないことを決定した。

この事実は、軍事分野での AI の使用に関して大国間に存在する戦略的な違いを「白地に黒」で示しています。中国は、革命を起こす可能性のある AI や機械学習などの先端技術の開発でリーダーシップを強化する決意をしています。戦争。

実際、オーストラリア戦略政策研究所が 8 月に発表した報告書では、中国が AI 研究の最前線に位置しており、分析された 64 のカテゴリーのうち 90% で他国を上回っています。この技術的優位性が、この分野での開発を制限する可能性のある協定への署名を拒否する理由の1つである可能性があります

一方、 非軍事 AI 企業の間では、これまでに見たことのないことは何も起こっていません。

戦争

課題と次の目標

サミットで議論された主なトピックの 1 つは、軍事AI の技術進歩が政府の規制プロセスよりもはるかに速いため、軍事 AI に効果的な規制を課すことの難しさでした。

一方で、紛争に関与している国(そして超大国は直接的または間接的に関わらず継続的に関与する傾向がある)には、これらの技術の開発を遅らせるインセンティブがほとんどなく、そのことが軍事AIの規制について世界的な合意に達する可能性をさらに複雑にしている。 。

次の目標は、この問題を2024年10月の国連総会で議論することであり、そこでは各国の代表が軍事分野におけるAIの影響について議論を続けることが期待されている。しかし、拘束力のある合意に至るまでの道のりは長く、複雑になるだろう。

ザタカで | マイクロソフト社長、殺人ロボットは「止められない」と考え、新たなジュネーブ条約で阻止するよう呼びかけ

テクノロジーは飛躍的に進歩しています。ずっと前に、人工知能はフェイクニュースや宿題の盗用に関する議論でのみ取り上げられる問題ではなくなり、軍事分野を含むさまざまな分野で重要な問題になりました…それは、今週ソウルで開催された最近の軍事分野における責任ある人工知能に関するサミット ( REAIM ) によって実証されています。

ロシアとウクライナの紛争におけるAI搭載ドローンの使用は、サミット中に提示された具体例だった。これらのデバイスは、アルゴリズムの失敗のリスクを引き起こす人間の監視を最小限に抑えながら、戦場で非常に効果的であることが証明されています。

このイベントの終わりに、米国といくつかの NATO 加盟国を含む 60 か国以上が、戦場でこの技術を責任を持って使用するためのガイドラインを確立する協定に署名しました。

しかし、主要大国である中国は、軍事AIの管理をめぐる地政学的亀裂の深さを浮き彫りにし、協定に署名しないことを決定した

「人間中心」の戦争

この新しい協定には拘束力さえないが、署名者らは、戦争におけるAIの使用に伴うリスクと、武力行使、特に軍事兵器に関する決定において人間による厳格な管理を維持することの重要性を概説する上で、大きな前進となると述べている。核兵器などの大量破壊兵器。

大多数の国が採択した協定は、軍事用 AI が「倫理的かつ人間中心」の方法で開発および使用されることを保証することを目的としていますが、この文言がそのような文脈に適用されると衝撃的になるかもしれません。

中国、国際合意を拒否

首脳会談で最も注目すべき驚きの一つは、中国が協定への署名を拒否したことだった。アジアの巨人は、2023年のサミットで以前のそれほど具体的ではない合意を支持していたが、今回はこのイニシアチブに参加しないことを決定した。

この事実は、軍事分野での AI の使用に関して大国間に存在する戦略的な違いを「白地に黒」で示しています。中国は、革命を起こす可能性のある AI や機械学習などの先端技術の開発でリーダーシップを強化する決意をしています。戦争。

実際、オーストラリア戦略政策研究所が 8 月に発表した報告書では、中国が AI 研究の最前線に位置しており、分析された 64 のカテゴリーのうち 90% で他国を上回っています。この技術的優位性が、この分野での開発を制限する可能性のある協定への署名を拒否する理由の1つである可能性があります

一方、 非軍事 AI 企業の間では、これまでに見たことのないことは何も起こっていません。

戦争

課題と次の目標

サミットで議論された主なトピックの 1 つは、軍事AI の技術進歩が政府の規制プロセスよりもはるかに速いため、軍事 AI に効果的な規制を課すことの難しさでした。

一方で、紛争に関与している国(そして超大国は直接的または間接的に関わらず継続的に関与する傾向がある)には、これらの技術の開発を遅らせるインセンティブがほとんどなく、そのことが軍事AIの規制について世界的な合意に達する可能性をさらに複雑にしている。 。

次の目標は、この問題を2024年10月の国連総会で議論することであり、そこでは各国の代表が軍事分野におけるAIの影響について議論を続けることが期待されている。しかし、拘束力のある合意に至るまでの道のりは長く、複雑になるだろう。

ザタカで | マイクロソフト社長、殺人ロボットは「止められない」と考え、新たなジュネーブ条約で阻止するよう呼びかけ

最新記事一覧