世界

ロボットが生きるか死ぬかを決定できるとき

コンピューターは、自分自身で特定の決定を下すのが得意です。自動スパムフィルターは、ほとんどの不要なメールをブロックします。一部の米国の診療所では、人工知能を搭載したカメラを使用して、失明のリスクがある糖尿病患者にフラグを立てています。しかし、人間を殺すかどうかを決定するためにマシンを信頼することはできますか?

これは、の第8話)で取り上げられた質問ですSleepwalkersポッドキャスト、AI革命。 AI技術の力の最近の急速な成長により、一部の軍事専門家は、独立した、しばしば不透明な行動が可能な新世代の致死兵器を心配しています。

超人的なシンクタンクであるCenter for a New American Securityのテクノロジーおよび国家安全保障プログラムのディレクターであるPaul Scharre氏は、次のように述べています。

致命的な力をいつ展開するかを決定するマシンを想像するのは衝撃的なように思えるかもしれませんが、ScharreはRubiconがすでに事実上越えられたと言います。 中国、インド、韓国に販売されているイスラエルのハーピードローンは、敵レーダーを自動的に検索し、人間なしで攻撃することができます

自分自身で決定を下せる戦場機器は、ペンタゴンそして、中国やロシアのようなライバル超大国の軍隊はすべて、将来の紛争の戦略の中心に人工知能を置いています。彼女は以前、研究機関DARPAの責任者でした。彼女は、既存のAIテクノロジーの限界、たとえば人ができる方法ではその決定を説明できないという事実を鋭く認識しています。

画像のコンテンツ。テストでは、ソフトウェアは印象的な精度を示しましたが、電動歯ブラシを持っている赤ちゃんの写真を解釈するように頼まれたとき、野球のバットを持った小さな男の子が見えました。

「それで何がうまくいかなかったのか」と言うのは本当に不透明です」とPrabhakarはそのような画像認識アルゴリズムについて語っています。致命的な武器を誰または何に向けるかを決定するためにテクノロジーに依存している場合、それははるかに大きな問題です。

このような困難により、AIで作業する一部の人々はそれらが構築するものの倫理的結果。 「私たちには、社会の進歩を形作ることができる強力な技術に取り組むことができるという非常に大きな特権があります。これには、何が間違っている可能性があるのか​​を尋ねる責任が伴います。」 )戦争は予測不可能なビジネスであるため、エンジニアは軍事用AIシステムがうまくいかない可能性のあるすべての方法を予測することはできません。海軍の元秘書であるリチャード・ダンジグは、AIのリスクを抑えるには新しい形態の国際協力が必要だと言います。地雷や核兵器などの以前の軍事革新が新しい条約を導いたように「これらのリスクを軽減する方法について共通の理解が必要です」と彼は言います。 「それから、これらが逃げる偶発性のためのいくつかの共同計画が必要です。」


さらに素晴らしいWIREDストーリー

2019

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

Close