一般的な経験則として、法律と政府は動きが遅く、慎重です。これは、正しく対処する必要がある重要なことを行う場合には非常に便利ですが、問題は、破壊的テクノロジーの方がはるかに速く進む傾向があることです。あなたが話している破壊的テクノロジーが(たとえば)シェアリングエコノミーである場合、これは十分に悪いことですが、それがイーロン・マスクがかつて「潜在的に核兵器よりも危険である」と表現したものである場合、事態はより深刻です。
それは人工知能です。 Amazon Echo が 10 回連続で「REM を再生して」と言うのを理解できなかったとしても、それほど脅威を感じるのは難しいですが、その脅威は – 潜在的に – 現実的なものです。ビル・ゲイツ、イーロン・マスク、スティーヴン・ホーキング博士のような知的な人々は、少なくとも検討する価値のないことを恐れたりはしないでしょう。
しかし、最悪の「HAL 9000」シナリオは実現せず、AI は人間にとって概してプラスであると仮定してみましょう。このテクノロジーには克服する必要があり、真剣に議論する価値のある問題がまだ数多くあります。
1. 人間はひどい教師になる
5_問題を克服する必要がある_-_1
完璧で偏りのない AI を作成するという考えは、空想的ですが非現実的な理想です。問題は、AI が真っ白なキャンバスである一方で、石の棒に文字が突き刺さるように、すでに偏見や偏見が蔓延している社会の市民から学習していることです。
これは、インターネット荒らしが Microsoft のチャットボットにアドルフ・ヒトラーを支持させ始めた方法を見ればわかりますが、ボットが文脈を無視して言葉をオウム返ししているだけであることを考えると、これは非常にわかりやすい例です。もっと悪質で巧妙な例としては、美人コンテストの審査員が圧倒的に白い肌を支持した AI や、別の AI が黒人の名前が白人の名前よりも「心地よくない」と判断した方法などが挙げられます。
これらの AI が結論に達したのは、白人至上主義者がずっと正しかったからではありません。私たちが深層学習マシンに供給するデータが私たちの社会によって形成されており、その不完全性がすべて持ち込まれているからです。真に客観的な人工知能を実現するには、これらのバイアスを除去する方法が必要ですが、途中でさらにバイアスを持ち込まずにバイアスを修正するにはどうすればよいでしょうか?
2. ディープラーニングにはプライバシーが踏みにじられることがよくあります
人工知能が学習するには、大量のデータが必要です。たとえ善意であっても (悪意のある人のことを考えていなくても)、安全策が講じられていたとしても、そのデータが失われ、ユーザーに対して悪用される可能性があります。スマートフォンで追跡される日常生活から個人的な健康記録に至るまで、AI があなたに関するすべてにアクセスできるようになると、これは非常に大きな問題です。
これは法律である程度規制できますが、AI が吸収できるデータが多ければ多いほど効果が高まるため、プロセスに影響を及ぼします。それは厄介なキャッチ22です。
3. 仕事をせずに何をしますか?
5_問題を克服する必要がある_-_2
人工知能が進歩すればするほど、人間の仕事をできるようになる可能性が高くなります。また、ロボットには給料が発生しないため、企業にとっては当然のことです。一部の専門家は、2050 年までに人類になすべき仕事はほとんど残されていないと考えています。
仕事が足りなくなったらどうするのでしょうか?もし今不平等が問題であれば、失業者数が給与所得者を上回る段階になれば、事態はさらに数百倍悪化するでしょう。
これは非常に大きな問題であり、現在、解決策は 2 つありますが、どちらも現時点での社会の運営にはあまり適合しません。 1つ目はイーロン・マスク氏が支持した、ある種のユニバーサル・ベーシック・インカム(UBI)だ。言い換えれば、国家はすべての国民にただ存在するだけで基本賃金を支払うということです。現在、これは政治的にかなり有害であり、現在の給付制度は寛大すぎると国民が一貫して主張しています。現在、英国ではUBIを支持しているのは緑の党のみであり、昨年スイスで行われた国民投票ではこの問題は77%対23%で否決された。
では、代替手段は何でしょうか?ビル・ゲイツは、労働者の代わりに人工知能を導入する企業に対するロボット税を支持しているが、これはおそらく、そのプロセスを阻害するため、あるいは、逃した人間のためにより寛大なセーフティネットに資金を提供するためのアイデアだろう。これも理想的な解決策ではありません。「代表なくして課税なし」というスローガンは 1750 年代に生まれたと考えられますが、今でも反響を呼んでいます。
そして、どちらもより基本的な問題、つまりお金があるか無いか、人間はその自由時間をどうするのかという答えにはなりません。
それでも、法律専門家はしばらく仕事をしなければならないだろう。まず、彼らは次のことを理解する必要があります…
4. ロボットに殺されたら誰を訴えますか?
5_問題を克服する必要がある_-_3
終末シナリオがなければ、AI が直接的または間接的に誰かの死を引き起こす可能性は非常に高いです。悲観的に聞こえるかもしれませんが、自動運転車の例を考えてみましょう。車の AI ドライバーは、同乗者と歩行者を殺すか傷つけるかの選択を迫られる状況に陥る可能性がもっとも高くあります。
医師やドライバーがあなたを殺した場合、悲しんでいる親戚が誰を追いかけるべきかは明らかですが、人工知能の場合はまったく別の問題になります。最終的な責任は誰にありますか?ソフトウェアのユーザーですか? AIを開発した人ですか?機能するために必要なデータを使用してトレーニングした人ですか?あなたに売った業者ですか?そもそも合法化したのは政府なのか?
これは、AI の「思考プロセス」が視界から隠され、解読できない、いわゆる「ブラック ボックス」学習ではさらに複雑になります。 AI がどのようにしてその決定に至ったのかを証明できなければ、責任を追及することはさらに難しくなります。
その結果…
5. コントロールを維持するにはどうすればよいですか?
5_問題を克服する必要がある_-_4
現時点では、人間が AI を把握し続けるのは非常に簡単です。悪夢のようなシナリオが概説されると、AI に最も近い関係者がやや防御的になってしまうのはおそらくこれが理由です。しかし、2 番目の人工知能が人間を上回り、状況は一変します。
ティム・アーバンは「Wait But Why」で次のように書いています。「チンパンジーは、人間とは何か、超高層ビルが何であるかには慣れることができますが、その超高層ビルが人間によって建てられたものであることを理解することは決してできません。彼の世界では、これほど巨大なものはすべて自然の一部であり、時代の一部であり、超高層ビルを建てることが彼を超えているだけでなく、誰でも超高層ビルを建てることができるということを理解することも彼を超えています。それは知能の質のわずかな違いの結果です。
「たとえ機械が私たちに説明しようとしても、[超知能 AI] ができることを理解することさえ、私たちには決してできません。ましてや自分でそれを行うことはできません。それは何年にもわたって私たちに自分が知っていることの最も簡単なヒントを教えようとするかもしれませんが、その努力は絶望的でしょう。」
つまり、AI が何をしているのかだけでなく、なぜそれをしているのかも理解できなければ、人類が制御を維持し続ける希望はかなり遠いことになります。