世界

ペンタゴンのAIチーフが戦いに備える

ほぼ毎日、世界中の戦争地帯で、アメリカ軍は火力支援を求めています。遠く離れたhow弾砲に座標を無線で送信することにより、歩兵は60対抗部隊のmm砲弾。ワシントンの防衛当局が彼らのやり方を持っているなら、人工知能はをずっとずっと速く処理しようとしています

ジャック・シャナハン中将は、ペンタゴンが人工知能を武器システムに統合する方法を実証するために使用している「結果の低いミッション」として説明している少数のイニシアチブの1つです。 Joint Artificial Intelligence Centerのヘッドとして、58-国防総省内の個人情報センターは、AIの採用をスピードアップすることに重点を置いており、シャナハンと彼のチームは、確立されたAIドメインでアプリケーションを構築しています。 —しかし、この技術をアメリカの戦闘の中心とする、よりエキゾチックで追求しているAI機能にも挑戦します。

シャナハンはAIを使ってより速く動くアメリカ軍を構想しています。人間の知能アナリストが画面を凝視してターゲットを特定し追跡すると、コンピューターがそのタスクを実行します。今日、人間の将校は敵に対して使用する武器の選択肢を提示するかもしれません。 以内数年かそこらで、コンピューターは「武器の使用に関する決定を下すために、できるだけ早く人間に推奨事項を提示することができました」とShanahanはWired今月のインタビューで。戦場の状態を追跡する複数の指揮統制システムを1つに統合する必要があります。

これは、誰が生きて死ぬかを決定するキラーロボットのビジョンではありません。 Wazeに似ていますが、戦争のためです。または、シャナハンが言ったように、「人間が決定のためのさまざまな行動コースを提示できるように、できるだけ多くのマシンツーマシン相互作用」。

その計画を実施するためのハードル軍団です。これらのコンピュータービジョンと意思決定アルゴリズムを構築するために必要な大量のデータセットが、必要な品質になることはめったにありません。そして、アルゴリズムは、それらが構築されたデータセットと同じくらい良いだけです。

おそらくより深く、インテリジェントなコンピューターシステムの軍事統合は、人間の生活のいくつかの領域、例えば暴力的な行為は、コンピューター対応でなければなりません。 「その人間の制御の喪失は、私たちがまだ解決していない承認と説明責任の問題に私たちを動かします」と、ピーター・シンガー、防衛アナリスト、そして来るべきtechnothrillerの著者Burn-In

これらの倫理的質問は、人工知能イニシアチブでペンタゴンと協力することについて、シリコンバレー内の格差を暴露しました。 JAICを率いる前に、シャナハンは、空中監視映像を大量に取り、敵軍の検出を自動化することを目的としたコンピュータービジョンプロジェクトProject Mavenを運営していました。従業員の騒ぎに直面して、Googleはでそのプロジェクトから撤退しました。 、しかしそれはイニシアチブが前進するのを止めていません。先週、Business Insiderは、Peter Thielのデータ分析会社であるPalantirが、

AIに費やしているペンタゴンの大きさ-正確に判断するのは難しいが、推定会計年度は40億ドル2016-技術系の巨人が長く留まらないようにします。 Mavenから撤退したにも関わらず、Googleの役員は、会社がペンタゴンと協力したいと強く望んでいると主張しています。 「私たちはもっと多くのことをしたいと思っています」Googleのシニアバイスプレジデントであるケントウォーカーは、先月、人工知能に関する国家安全保障会議に出席しました。一方、Amazon CEOのジェフ・ベゾスは、この問題を利用して、彼の会社を、軍の仕事を引き受ける論争と恥ずかしくない会社として区別しています。 「大手技術者が国防総省に背を向けるなら、この国は困っている」と彼はレーガンでの発言中に言った今月初めの国防フォーラム

アマゾンが$の賞に挑戦しているように、ベゾスのペンタゴンの公的抱擁が来る10億クラウドコンピューティング契約、JEDIまたは共同企業防衛インフラストラクチャ、マイクロソフトへ。そのシステムはShanahanのAI野望の鍵となり、膨大なデータセットを処理し、異種システムを統合するためのコンピューティングパワーと共有インフラストラクチャを彼に与えます。

そのような共有クラウドコンピューティングの欠如シャナハンにその重要性を確信させたシステム。 Mavenを実行したとき、必要な監視映像にデジタルでアクセスできず、代わりに部下を派遣してそれを取得する必要がありました。 「トラックを走らせてフルモーションビデオのテープを拾うケースがありました」とシャナハンは言います。 「エンタープライズクラウドソリューションがあれば、それは非常に簡単だったでしょう。」

システムに更新をプッシュするために、Shanahanのチームは同様に新しいバージョンを物理的にインストールするために旅行しなければなりませんでした軍事施設。今日、Mavenは毎月ソフトウェアの更新を取得しています。政府の仕事には高速ですが、それでも十分に高速ではありません、とShanahan氏は言います。

データの質の低さ。軍隊のユビキタスUH-の予測保守ツールであるJAICプロジェクトを1つだけ実行します主要なコンポーネントが壊れようとしていることを把握しようとするBlack Hawkヘリコプター。さまざまな支部からデータを収集し始めたとき、シャナハンのチームは、陸軍のブラックホークが特殊作戦司令部によって使用されるバージョンとはわずかに異なって装備されており、本質的に同一のマシンに対して異なるデータを生成していることを発見しました。

「すべてのインスタンスで、データが探しているほどの品質になることはありません」とシャナハンは言います。 「存在する場合、未完成のデータセットはまだ見ていません。」

データの質の低さは、人工知能を軍事システムに適用する際の主な落とし穴の1つです。コンピューターは、知らないことを決して知ることはありません。 「履歴データで訓練されたアルゴリズムは、訓練されたアルゴリズムとは異なる戦場状況に直面するリスクがあります」とペンシルベニア大学のマイケル・ホロウィッツ教授は言います。

シャナハンは主張します厳密なテストおよび評価プログラムはそのリスクを軽減し、エンジンブレードが割れる瞬間を予測しようとする場合に非常にうまく管理できる可能性があります。しかし、それはAIがこれまで見たことのない規模と速度の射撃戦争では完全に別の質問になります。

コンピューター推論推論の予測不可能な性質は、対になると厄介な問題を引き起こすことがあります人間の心。コンピューターは不可解な結論に達する可能性があります。コンピューターとチームを組んだ人間は、信頼するかどうかを決定しなければならないという結論に達します。 GoogleのAlphaGoがで世界最高のGoプレイヤーであるLee Sedolを破ったとき、リーが単に立ち上がった試合の瞬間がありました彼の椅子と部屋を出た。彼のコンピューターの敵は、(人間の観点から)非常に巧妙で予想外の動きをしたため、リーは混乱していました。 「人間がこの動きをするのを見たことがありません」と、ある観測者はと言った。 「とても美しい。」

ハイステークスの軍事紛争の最中に人間の司令官に同様に理解できない行動のコースを与える兵器システムを想像してください。これは、米軍が積極的に取り組んでいる問題ですが、解決策がありません。国防高等研究計画局は、プログラムに取り組んでおり、「説明可能なAI」を考案し、機械学習システムのブラックボックスは、意思決定の理由を提供できるものになります。

その信頼を築くために、シャナハンは早い段階で司令官を教育する必要があると言います。洪水と山火事のリスクを理解するためにコンピュータービジョンと衛星画像を使用するプロジェクトにより、彼のチームは専門知識を習得することで学びます。 「可能性のある芸術を理解する必要があります。さもなければ、それはすべてサイエンスフィクションです」と彼は言います。

しかし、重要な官僚的なハードルもシャナハンのやり方にあります。今週発表されたペンタゴンのAIイニシアチブに関する議会で義務付けられたレポートでは、DoDには進捗を評価するための「ベースラインと指標」がなく、DoDエコシステムにおけるJAICの役割は不明であり、JAICには目標を達成する権限がないことがわかりました。また、ペンタゴンのテストおよび検証体制を「特に安全が重要なシステムが関係する場合、AIアプリケーションのパフォーマンスと安全性を確保するのにほど近い場所ではない」という陰鬱な評価を提供します。

国防総省は声明の中で報告書を歓迎しました。ロシアや中国との対立の可能性に不可欠であると考えている技術を採用することで米軍に直面しています。 「その衝突の速度、操作速度は非常に速いでしょう」とシャナハンは言います。 「今から20年後、私たちはアルゴリズム対アルゴリズムを見ています。」

北京に対する米国の反応は、一部自動化に依存しています。陸軍は、自動化された砲塔をテストしています。空軍はドローンウイングマンを開発しています。海軍の「ゴースト艦隊」の概念は、無人の水上艦艇を調査しています。より速くするために、ペンタゴンは再びコンピューターに目を向けています。

「私たちが自問しなければならない究極の質問は、ソフトウェアで許容できる精度のレベルです」とMartijn Rasser氏元CIAアナリストであり、ニューアメリカ安全保障センターのフェロー。 「人間は正しいとしましょう31。31時間の割合。ソフトウェアが同じであっても大丈夫ですか?」

これらはペンタゴンが探求している質問です。 Defense Innovation Boardからの10月のレポートlayouta軍隊が倫理的にAIを採用する方法に関する一連の原則。シャナハンはJAICに参加するために倫理学者を雇いたいと考えており、軍事AIに関する倫理的議論に同調していることを強調するために苦労しています。彼は、「キラーロボット」と一般に考えられているものに根本的に反対し続け、「生か死を決定する監視なしの独立した自己標的システム」と呼んでいると言います。

楽観主義者。 「人間は毎日戦闘でミスを犯します。悪いことが起こります。混oticとしている。感情が高くなります。友達は死にかけています。間違いを犯します」とシャナハンは言います。 「私はキャンプにいます。AIを有効にした機能を使用して、こうしたミスの可能性を減らすために多くのことができると言います。決して排除しないでください。」


もっと素晴らしいWIREDストーリー

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

Close