カメがカメでなくなるのはいつですか?銃のとき。いいえ、それはひどく面白くないジョークではありません。Google の画像認識 AI が、3D プリントされたカメの置物を実際にはライフルであると簡単に信じ込ませることができるという憂鬱な事実です。
このようなことが起こったのはこれが初めてではなく、3D プリントされたカメは「敵対的な画像」であるため、Google の AI を混乱させることに成功しました。これらの画像は、AI システムを混乱させ、別のものを見ていると信じ込ませる特別なパターンを使用して、画像認識ソフトウェアを騙すように意図的に設計されています。
それは驚くべきことではないかもしれませんが、AI が人間の安全を守ることになった場合、そのような間違いは壊滅的な結果をもたらす可能性があります。誰かが AI を騙して、AI が見ている銃が実際にはカメにすぎないと信じ込ませたらどうなるでしょうか?
「具体的に言えば、これは人間のドライバーにとってはまったく普通に見えるヤードセールの看板を構築できる可能性が高いことを意味するが、自動運転車にとっては道路の隣に突然現れる歩行者として見えるかもしれない」とLabsixは書いている。研究を発表したMITの学生チーム。 「ニューラルネットワークがますます普及する(そして危険になる)につれて、敵対的な例は人々が考慮しなければならない実際的な懸念事項です。」
Labsix の研究は、これらの敵対的な画像が 3D 形式で動作する最初のケースであり、AI は複数の角度や照明条件からの 3D プリントによって混乱します。通常、これらの画像は、AI が認識できるように画像を回転させるだけで克服できますが、これは複数の角度から機能するため、将来の AI 研究にとって大きな危険となる可能性があります。
ただし、Labsix のハックはあなたが思っているほど単純ではないことに注意してください。 The Verge が指摘しているように、Google の Inception-V3 画像認識 AI がだまされない角度はいくつかあるため、あらゆる角度から機能するという Labsix の主張は完全に正しいわけではありません。また、敵対的な 3D オブジェクトでは、Labsix が最初に Google のツールがオブジェクトをどのように認識するかを調べて弱点を特定し、それを悪用できるようにする必要があります。これは、これらの画像を作成するときに多くの人が行うことはできないことです。
これがより広範な問題になれば、何か重大な問題が起こる可能性があるという以前の警告にもかかわらず、実際にはこのようなことが起こる可能性は低いです。人々はこれらの問題を排除しようと懸命に取り組んでいるだけでなく、この問題が事前に解決されていなければ、安全に重大な影響を与える製品を世に出す可能性は低いでしょう。
それでも、AI が私たち全員が思っているほど賢くないのを見るのはいつも面白いことです。
「カメを銃と間違えたAI」に関するベスト動画選定!
【アメリカ】銃撃事件が相次ぐ…市民巻き添え
【アメリカ・メーン州“銃乱射”】“関わった人物”銃器の指導員訓練を受けていた