キラーロボットに関する国防総省の更新されたポリシーは何ですか?

ペンタゴンは、 指令 3000.09 の更新、彼らが用語をカバーする 兵器システムの自律性 および他の人は '殺人ロボット.' 空軍やCIAのような現在のドローン MQ-9 リーパー 遠隔操作:人間 ビデオスクリーンの前に座っている 何千マイルも離れた地上のターゲットを識別し、それらを十字線に配置し、 ヘルファイアミサイル または他の武器。 自律型兵器は異なります。人間の介入なしに、独自のターゲットを選択します。 いつ、どのように使用できるかについて明確な規則が必要であり、新しい指令はそれらに一歩近づきます。

3000.09 の最初のバージョンがリリースされた XNUMX 年前、自律型兵器は SF のように見えました。 今、彼らは非常に現実的です。 国連はこう主張した トルコが供給した無人偵察機が自律的に標的を攻撃 2020年にリビアで、ロシアは現在、ウクライナに徘徊弾薬を配備しています 自律能力。

のような多くの活動家 キラーロボットを止めるキャンペーン、自律型兵器の完全な禁止を望んでおり、遠隔兵器は引き続き規制下にあると主張している 有意義な人間による制御 常に。 国連はどうするか議論してきた そのような武器を何年も管理する.

しかし、新しい指令が明らかにしているように、ペンタゴンは別の路線に固執しています。

「DoD は、自律システムと AI システムの両方に関して、『有意義な人間による制御』というポリシー標準に一貫して反対してきました。」 グレゴリーアレン、AI ガバナンスに関するプロジェクトのディレクター 戦略国際​​研究センター、私に言った。 「国防総省が好む技術用語は「人間の判断の適切なレベル」です。これは、自律型監視航空機やある種の自律型サイバー兵器など、場合によっては適切なレベルの人間による制御がほとんどまたはまったくないという事実を反映しています。 」

どのような状況下で、どのような自動兵器が許可されるのでしょうか? アレン氏は、以前のバージョンの指令は非常に不明確であったため、この分野での開発を思いとどまらせたと考えています。

「国防総省の一部の上級指導者を含め、混乱が非常に広がったため、当局は、ポリシーで許可されているだけでなく、上級審査要件から明示的に免除されているシステムの開発を控えていました」とアレンは言います。

オリジナルの 3000.09 が公開されてから XNUMX 年間、自律型兵器のレビュー プロセスに提出された兵器は XNUMX つもありません。

アレンが書いた これについてのエッセイ 昨年の CSIS では、作業が必要な XNUMX つの分野について説明しました。具体的には、自律型兵器システムの正式な定義、ポリシーにとって「AI 対応」が何を意味するか、レビュー プロセスが機械学習モデルの再トレーニングをどのように処理するか、どのような種類の兵器が必要かを明確にすることです。厳しい審査を通過。

「国防総省はそれらすべてを実装しました」とアレンは言います。

原則として、これにより、国防総省の用語である「自律システムの軍事利用に関する責任あるポリシーの確立において、透明性のあるグローバル リーダーになるための強力かつ継続的な取り組み」が保証されるはずです。

ただし、抜け穴と見なされる可能性のある追加事項がいくつかあります。たとえば、人を標的にせず、ミサイルや他のドローンを標的にすることは許可されるドローンを防御する自律型兵器(「反物質兵器」)の上級審査の免除などです。および潜在的に他のシステム。

「『防御』という言葉は、非常に大きな役割を果たしています」 ザック・カレンボーンと、ジョージ・メイソン大学のシャー政策・政府大学院の政策フェローは私に語った。 「無人偵察機が敵の領土で運用されている場合、ほとんどすべての兵器がプラットフォームを『防御』していると解釈される可能性があります。」

Kallenborn はまた、地雷のような実質的に自律型の兵器が XNUMX 世紀以上にわたって使用されてきた一方で、AI と特定の機械学習の進歩により、状況は急速に変化していると述べています。 これらは非常に有能なシステムを生み出しましたが、 技術的に脆い – 彼らが失敗するとき、彼らは、例えば、人間がしないような方法で見事に失敗します カメをライフルと間違える.

「現在支配的なアプローチの脆弱性と説明可能性の欠如を考えると、AI による自律性は間違いなくもっと懸念されるに値します」と Kallenborn は言います。

アップデートは大きなものではありません。 しかし、ペンタゴンが効果的な自律型兵器の開発に向けて継続的に取り組んでおり、彼らが従うことができるという信念を示しています。 国際人道法 — 民間人と軍関係者を区別し、民間人に危害を加えないように努め、適切かつ必要な武力のみを使用する。

キャンペーン担当者は、AI は戦時に道徳的判断を下すために必要な理解を持たず、戦争が自動化され、人間がもはや制御できない世界を作り出す危険性があると考えています。 他の人は、米軍がそうなるだろうと信じています 自律兵器を持つ敵に勝る AIが戦術レベルで組み込まれていない限り、人間の関与が多すぎる 軍用ロボットの速度を低下させる.

自律型兵器が登場し始めても、この議論は続く可能性が高く、その結果が注視されるでしょう。 いずれにせよ、キラーロボットがやってくるようです。

ソース: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/