ホーム ビデオゲーム ゲームデバイス マック テクノロジーの多様性の欠如が AI に損害を与えている

テクノロジーの多様性の欠如が AI に損害を与えている

テクノロジー業界には多様性の問題がありますが、それは新しいことではありません。しかし、この多様性の問題は人工知能開発の将来に悪影響を及ぼすと世界経済フォーラムのAIおよび機械学習責任者のケイ・ファース・バターフィールド氏は主張する。
テクノロジーの多様性の欠如が AI に損害を与えている
中国の天津で行われたイベントで講演したファースバターフィールド氏は、AIアルゴリズム内の偏見の問題を指摘し、西側諸国でも業界を「より多様化」させる必要性を訴えた。
関連項目を参照
「AIアルゴリズムには明らかな問題がいくつかありました」と彼女はCNBCに語り、2015年にGoogleの画像認識ソフトウェアが黒人男性とその友人を「ゴリラ」とラベル付けした事件について言及した。 Wired が今年初めに発表したレポートによると、Google はまだこの問題を適切に修正しておらず、単に霊長類の検索語をブロックすることを選択しているとのことです。
「こうした問題がますます発生するのを目にするにつれて、人工知能をめぐる倫理的議論はさらに大きくなってきました」とファース・バターフィールド氏は述べた。同氏はまた、欧州での一般データ保護規則(GDPR)の導入にも言及し、これによってデータとテクノロジーに関する倫理的問題が「前面に」出ていると主張した。
次を読む: イーロン・マスク氏、AI は「人間のコントロールの外にある」と警告
テクノロジーの構築における「特定の年齢の白人男性」の優位性が、AI の背後にあるアルゴリズムに忍び込むバイアスの根本原因であることが示唆されました。人種的に不均一なデータセットで機械学習システムをトレーニングすることは、特に顔認識ソフトウェアにおいて問題であると以前から指摘されていました。
たとえば、マサチューセッツ工科大学 (MIT) で今年初めに行われた実験では、マイクロソフト、IBM、中国企業 Megvii が開発した 3 つの市販の顔認識システムのテストが行​​われました。その結果、システムは白人男性の性別を99%の確率で正確に識別したが、黒人女性の場合、この成功率は35%に急落したことが判明した。同じことがアマゾンの認識ソフトウェアにも当てはまり、米国議会議員 28 名を犯罪者として誤認しました。
アラン・チューリング研究所の人工知能プログラムディレクターであるエイドリアン・ウェラー博士は、アルファー氏に次のように語った。これらのシステムがすべての人々を公平に扱うことを保証することが急務であり、いかなる個人やサブグループに対しても不適切な差別を行ってはなりません。
続きを読む: 英国は人材の海外流出に伴い、AI の頭脳流出に直面している
「これは、歴史的な偏見を反映している可能性のある過去の人間の決定に基づいてシステムを訓練するために機械学習手法が使用される場合に特に懸念されます。」
ウェラー氏は、アルゴリズムを公平、透明、倫理的にするという課題に取り組む研究が増えていると指摘した。この見通しは、世界経済フォーラムが「人類の利益のために」AIの成長を保証しようとしていると強調したファース・バターフィールド氏の見通しと似ている。
AI の偏見が直面している問題は人間の多様性だけではないかもしれません。カーディフ大学とマサチューセッツ工科大学による最近の研究では、自律型マシンのグループが、この動作を相互に識別し、コピーし、学習するだけで偏見を示す可能性があることが判明しました。

「テクノロジーの多様性の欠如が AI に損害を与えている」に関するベスト動画選定!

【衝撃】GoogleのAI開発の天才が発表した「2045年までに実現されること一覧」がヤバすぎる!
【最先端犯罪】生成AIで悪事を?テクノロジーは社会を悪くする?安全にする?元警察官と考える次なる脅威|アベプラ
テクノロジー業界には多様性の問題がありますが、それは新しいことではありません。しかし、この多様性の問題は人工知能開発の将来に悪影響を及ぼすと世界経済フォーラムのAIおよび機械学習責任者のケイ・ファース・バターフィールド氏は主張する。
テクノロジーの多様性の欠如が AI に損害を与えている
中国の天津で行われたイベントで講演したファースバターフィールド氏は、AIアルゴリズム内の偏見の問題を指摘し、西側諸国でも業界を「より多様化」させる必要性を訴えた。
関連項目を参照
「AIアルゴリズムには明らかな問題がいくつかありました」と彼女はCNBCに語り、2015年にGoogleの画像認識ソフトウェアが黒人男性とその友人を「ゴリラ」とラベル付けした事件について言及した。 Wired が今年初めに発表したレポートによると、Google はまだこの問題を適切に修正しておらず、単に霊長類の検索語をブロックすることを選択しているとのことです。
「こうした問題がますます発生するのを目にするにつれて、人工知能をめぐる倫理的議論はさらに大きくなってきました」とファース・バターフィールド氏は述べた。同氏はまた、欧州での一般データ保護規則(GDPR)の導入にも言及し、これによってデータとテクノロジーに関する倫理的問題が「前面に」出ていると主張した。
次を読む: イーロン・マスク氏、AI は「人間のコントロールの外にある」と警告
テクノロジーの構築における「特定の年齢の白人男性」の優位性が、AI の背後にあるアルゴリズムに忍び込むバイアスの根本原因であることが示唆されました。人種的に不均一なデータセットで機械学習システムをトレーニングすることは、特に顔認識ソフトウェアにおいて問題であると以前から指摘されていました。
たとえば、マサチューセッツ工科大学 (MIT) で今年初めに行われた実験では、マイクロソフト、IBM、中国企業 Megvii が開発した 3 つの市販の顔認識システムのテストが行​​われました。その結果、システムは白人男性の性別を99%の確率で正確に識別したが、黒人女性の場合、この成功率は35%に急落したことが判明した。同じことがアマゾンの認識ソフトウェアにも当てはまり、米国議会議員 28 名を犯罪者として誤認しました。
アラン・チューリング研究所の人工知能プログラムディレクターであるエイドリアン・ウェラー博士は、アルファー氏に次のように語った。これらのシステムがすべての人々を公平に扱うことを保証することが急務であり、いかなる個人やサブグループに対しても不適切な差別を行ってはなりません。
続きを読む: 英国は人材の海外流出に伴い、AI の頭脳流出に直面している
「これは、歴史的な偏見を反映している可能性のある過去の人間の決定に基づいてシステムを訓練するために機械学習手法が使用される場合に特に懸念されます。」
ウェラー氏は、アルゴリズムを公平、透明、倫理的にするという課題に取り組む研究が増えていると指摘した。この見通しは、世界経済フォーラムが「人類の利益のために」AIの成長を保証しようとしていると強調したファース・バターフィールド氏の見通しと似ている。
AI の偏見が直面している問題は人間の多様性だけではないかもしれません。カーディフ大学とマサチューセッツ工科大学による最近の研究では、自律型マシンのグループが、この動作を相互に識別し、コピーし、学習するだけで偏見を示す可能性があることが判明しました。

「テクノロジーの多様性の欠如が AI に損害を与えている」に関するベスト動画選定!

【衝撃】GoogleのAI開発の天才が発表した「2045年までに実現されること一覧」がヤバすぎる!
【最先端犯罪】生成AIで悪事を?テクノロジーは社会を悪くする?安全にする?元警察官と考える次なる脅威|アベプラ

最新記事一覧