ホーム Uncategorized AI の偏見は社会に悪影響を与える可能性があるため、今すぐ対処する必要があります

AI の偏見は社会に悪影響を与える可能性があるため、今すぐ対処する必要があります

AI はまだ完全には成熟していませんが、現在ではほとんどの人がその利点を理解できる段階に来ています。
AI の偏見は社会に悪影響を与える可能性があるため、今すぐ対処する必要があります
関連項目を参照
ただし、これらの潜在的な利点すべてに対して、AI の活用を検討している企業は、依然として倫理的配慮と偏見の回避を最優先事項とする必要があります。これは今週サンフランシスコで開催されたSalesforceのDreamforceイベントで開催されたパネルセッションで明らかになった。
Salesforce の首席科学者 Richard Socher 氏は、「今では精度レベルが非常に高くなっており、1 年でできるようなことは、数年前には数百人規模では不可能でした」と述べています。 「これがうまく機能しているので、倫理的な影響について真剣に考える必要があります。」
次を読む: イーロン・マスク氏、AI は「人間のコントロールの外にある」と警告
Salesforce の倫理 AI プラクティスのアーキテクトである Kathy Baxter 氏もこれに同意し、次のように付け加えました。 AI は非常に多くの素晴らしい恩恵をもたらしますが、知らず知らずのうちに個人に害を及ぼす可能性もあります。 AI が魔法のように社会の偏見を排除することは期待できません。偏見は組み込まれています。」
「現状の世界ではなく、私たちが望む世界をどのように表現するのでしょうか?」とバクスター氏は続けた。
AI は本質的に学習する必要があるため、人間から主導権を握ることになります。 AI 開発に関しては、倫理的に行動し、正しいことを行うことが私たちの責任です。あるいは、Salesforce の未来学者である Peter Schartz が司会を務めるパネルはそう信じています。
バクスター氏は特に、性別や人種など、変更または制御できない要因によって人々が悪影響を受けないようにする必要があると強調した。
AIの倫理に関する問題が浮上するのはこれが初めてではない。イーロン・マスク氏は、奇行にもかかわらず、AI に対するこの立場を長年にわたって擁護しており、今月初め、世界経済フォーラムの AI 担当責任者も同様の意見を述べました。
Dreamforce のパネルディスカッションは、スマート システムのメリットを促進するのと同じくらい、AI の欠点と潜在的な偏見について人々を教育することが重要であると強調しました。結局のところ、今日のテクノロジーと同様に、得られる結果は、入力されたデータと同じくらい優れています。同様のことが、現在の AI にも当てはまります。
続きを読む: 英国は人材の海外流出に伴い、AI の頭脳流出に直面している
「AIはインターネットよりも人類に大きな影響を与えるだろう」とソーチャー氏は付け加えた。 「AI は偏見を拾い上げ、それを増幅するか、継続させます。 AI はトレーニング データと同じくらい優れているということを人々に教育する必要があります。」
いわゆるトレーニングデータに関しては、Salesforce が意識と教育レベルを高める役割を認識しているとバクスター氏は述べました。このクラウド会社は、Trailhead やその他の AI に重点を置いたリソースを使用して、人々が可能性と落とし穴に目を向け、情報に基づいた意思決定ができ​​るように支援したいと考えています。
「トレーニング データの品質が重要です。顧客がデータを見て理解するのに役立ち、エラーがあった場合にそこに偏りがあるかどうかを特定して修正できるようになります。」とバクスター氏は付け加えた。
「倫理はチェックリストではなく考え方であり、早い段階で浸透させる必要があります。」

「 AI の偏見は社会に悪影響を与える可能性があるため、今すぐ対処する必要があります」に関するベスト動画選定!

【自民党】AIめぐり国家戦略の必要性を提言
AIに“偏見”? 画像生成AIで「日本人」は和服 「モデル」は白人女性 「ラッパー」は黒人男性 宮田教授「AIの“偏り” 最後は人間が…」【news23】|TBS NEWS DIG
AI はまだ完全には成熟していませんが、現在ではほとんどの人がその利点を理解できる段階に来ています。
AI の偏見は社会に悪影響を与える可能性があるため、今すぐ対処する必要があります
関連項目を参照
ただし、これらの潜在的な利点すべてに対して、AI の活用を検討している企業は、依然として倫理的配慮と偏見の回避を最優先事項とする必要があります。これは今週サンフランシスコで開催されたSalesforceのDreamforceイベントで開催されたパネルセッションで明らかになった。
Salesforce の首席科学者 Richard Socher 氏は、「今では精度レベルが非常に高くなっており、1 年でできるようなことは、数年前には数百人規模では不可能でした」と述べています。 「これがうまく機能しているので、倫理的な影響について真剣に考える必要があります。」
次を読む: イーロン・マスク氏、AI は「人間のコントロールの外にある」と警告
Salesforce の倫理 AI プラクティスのアーキテクトである Kathy Baxter 氏もこれに同意し、次のように付け加えました。 AI は非常に多くの素晴らしい恩恵をもたらしますが、知らず知らずのうちに個人に害を及ぼす可能性もあります。 AI が魔法のように社会の偏見を排除することは期待できません。偏見は組み込まれています。」
「現状の世界ではなく、私たちが望む世界をどのように表現するのでしょうか?」とバクスター氏は続けた。
AI は本質的に学習する必要があるため、人間から主導権を握ることになります。 AI 開発に関しては、倫理的に行動し、正しいことを行うことが私たちの責任です。あるいは、Salesforce の未来学者である Peter Schartz が司会を務めるパネルはそう信じています。
バクスター氏は特に、性別や人種など、変更または制御できない要因によって人々が悪影響を受けないようにする必要があると強調した。
AIの倫理に関する問題が浮上するのはこれが初めてではない。イーロン・マスク氏は、奇行にもかかわらず、AI に対するこの立場を長年にわたって擁護しており、今月初め、世界経済フォーラムの AI 担当責任者も同様の意見を述べました。
Dreamforce のパネルディスカッションは、スマート システムのメリットを促進するのと同じくらい、AI の欠点と潜在的な偏見について人々を教育することが重要であると強調しました。結局のところ、今日のテクノロジーと同様に、得られる結果は、入力されたデータと同じくらい優れています。同様のことが、現在の AI にも当てはまります。
続きを読む: 英国は人材の海外流出に伴い、AI の頭脳流出に直面している
「AIはインターネットよりも人類に大きな影響を与えるだろう」とソーチャー氏は付け加えた。 「AI は偏見を拾い上げ、それを増幅するか、継続させます。 AI はトレーニング データと同じくらい優れているということを人々に教育する必要があります。」
いわゆるトレーニングデータに関しては、Salesforce が意識と教育レベルを高める役割を認識しているとバクスター氏は述べました。このクラウド会社は、Trailhead やその他の AI に重点を置いたリソースを使用して、人々が可能性と落とし穴に目を向け、情報に基づいた意思決定ができ​​るように支援したいと考えています。
「トレーニング データの品質が重要です。顧客がデータを見て理解するのに役立ち、エラーがあった場合にそこに偏りがあるかどうかを特定して修正できるようになります。」とバクスター氏は付け加えた。
「倫理はチェックリストではなく考え方であり、早い段階で浸透させる必要があります。」

「 AI の偏見は社会に悪影響を与える可能性があるため、今すぐ対処する必要があります」に関するベスト動画選定!

【自民党】AIめぐり国家戦略の必要性を提言
AIに“偏見”? 画像生成AIで「日本人」は和服 「モデル」は白人女性 「ラッパー」は黒人男性 宮田教授「AIの“偏り” 最後は人間が…」【news23】|TBS NEWS DIG

最新記事一覧