AI の倫理と AI の法律は、AI の兵器化を回避すると言って踊るロボット メーカーによる新しい誓約について厳しい質問を投げかけます

先週、ニュースで見たり、ソーシャル メディアで、一部のロボット メーカーが、汎用ロボットの AI 兵器化を回避するという公言した目標について発表した誓約に気付いたかもしれません。 詳細については後ほど説明しますので、この件に気付いていなくても心配しないでください。

この宣言への反応は迅速で、おそらく私たちの分極化した社会ではいつものように、称賛的であると同時に、嘲笑するほど批判的であるか、まったく不快なほど懐疑的でした.

二つの世界の物語です。

ある世界では、これがまさに私たちが必要としているものだと言う人もいます 責任 宣言するAIロボット開発者。

徐々に目に見えて気になる問題の右側にいてくれてありがとう. これらのかわいいダンスロボットは、武器を運ぶためにそれらを再調整するのが非常に簡単であり、最悪の方法で使用されるため、厄介です.その他の武装)。

このコインの反対側には、いわゆる誓約はマーケティングや広報の策略にすぎないと書かれています (ちなみに、誓約と寄付の違いを知っている人はいますか?)。 いずれにせよ、懐疑論者は、これは踊るロボットの文脈における制限のない美徳のシグナルであると主張しています。 ほら、汎用ロボットが兵器化される可能性があるという事実を嘆くことは、確かに価値があり、真剣に検討すべきことです。

全体として、この問題全体は、AI の倫理と AI 法に関する非常に多くの考慮事項をもたらします。 このトピックを慎重に解き明かし、これが倫理的および合法的な AI 泥沼の二重苦である方法を確認します。 AI 倫理と AI 法に関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

また、この議論全体を通して、AI 兵器化の危険性に関する以前の分析にも言及します。 ここのリンク. 舞台裏の詳細については、その談話をご覧ください。

ワームの缶を開けるオープンレター

この分析を始めるにあたり、Boston Dynamics、Clearpath Robotics、ANYbotics、Agility Robotics、Open Robotics、および Unitree という XNUMX つの比較的有名な高度なロボット メーカーによって最近公開された Open Letter を注意深く段階的に調査することから始めましょう。 おおむね、四つん這いで跳ね回るロボットなど、主にボストン ダイナミクスのロボットを見たことがあると思います。 彼らはまるで犬のように見え、私たちは彼らが走り回っているのを見るのを楽しんでいます.

私が以前に繰り返し警告したように、そのような「踊る」ロボットを、これらのロボットがキュートで愛らしいと一般大衆に納得させる手段として使用することは、悲しいことに誤解を招き、それらを擬人化することの豊富な落とし穴に向かいます. 私たちは、これらの硬化した金属片とプラスチック片を、抱きしめたくなる忠実な犬に相当するものであるかのように考え始めます。 これらのロボットを喜んで受け入れるのは、誤った安心感と安心感に基づいています。 確かに、あなたはお金を稼ぐ必要があり、踊るロボットの周りをパレードすることでそうする可能性が高まりますが、残念なことに、これらのロボットがロボットであり、ロボットを制御する AI が誤って考案される可能性があるという本当の事実が省略されているか、一見隠されています。または失敗します。

AI のこれらの影響を考えてみてください (AI の兵器化に関する私の記事からの抜粋です。 ここのリンク):

  • AI が道を誤る原因となるエラーに遭遇する可能性がある
  • AI が圧倒され、応答しなくなってロックアップする可能性があります
  • AI には、不安定な動作を引き起こす開発者のバグが含まれている可能性があります
  • AIは悪者ウイルスを埋め込まれて破損する可能性がある
  • AIがリアルタイムでサイバーハッカーに乗っ取られる可能性
  • AI は複雑であるため予測不可能であると考えられる可能性があります
  • AI は計算上「間違った」決定を下す可能性があります (相対的に)

これらは、正しいことをするために最初から本当に考案されたタイプのAIに関するポイントです。

これらの考慮事項に加えて、悪いことをするために最初から作成された AI システムを含める必要があります。 有益な目的のために作られた AI を持つことができます。 AI For Good. また、意図的に悪い目的で作成された AI を使用することもできます。 悪い人のためのAI. さらに、あなたが持つことができます AI For Good 腐敗したり、再調整されたりします 悪い人のためのAI.

ところで、これは AI が感覚を持つようになることとは何の関係もありません。なぜなら、今日の AI は感覚を持つか、あるいは感覚を持つ寸前であると叫び続ける人がいるからです。 そうではありません。 私はこれらの神話を私の分析で分解します ここのリンク.

それでは、今日の AI の性質について同じページにいることを確認しましょう。

今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

私が注目しているタイプの AI は、今日私たちが持っている感覚を持たない AI で構成されています。 知覚力のある AI について荒々しく推測したい場合、この議論は根本的に異なる方向に進む可能性があります。 知覚力のある AI は、おそらく人間の品質を備えているでしょう。 知覚力のある AI は、人間と同等の認知能力を持っていると考える必要があります。 さらに、私たちが超インテリジェント AI を持っている可能性があると推測しているため、そのような AI は最終的に人間よりも賢くなる可能性があると考えられます (可能性としての超インテリジェント AI の私の調査については、 ここでの報道).

物事を現実的に保ち、今日のコンピューターによる非感覚的 AI について検討することを強くお勧めします。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、計算パターンマッチングを活用する機械学習(ML)とディープラーニング(DL)が広く利用されています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

今日の AI を擬人化することには十分注意してください。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI 開発者も何が起こっているのか理解していない可能性があります。 ML/DL の難解な数学は、現在隠された偏見を見つけ出すことを困難にする可能性があります。 AI 開発者が埋もれている可能性のあるバイアスをテストすることを期待し、期待するのは当然ですが、これは思ったよりも難しいことです。 比較的大規模なテストを行ったとしても、ML/DL のパターン マッチング モデルにまだバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

これらはすべて、AI の倫理に非常に重要な意味を持ち、AI を法制化しようとする際に (すべての教訓が生じる前であっても) 学んだ教訓への便利な窓を提供します。

一般にAI倫理の原則を採用することに加えて、AIのさまざまな使用を管理する法律を設ける必要があるかどうかという対応する質問があります。 AIの考案方法の範囲と性質に関係する新しい法律が、連邦、州、地方のレベルで広まっています。 そのような法律を起草して制定する努力は段階的なものです。 AI倫理は、少なくとも、考慮された一時的なギャップとして機能し、ほぼ確実に、ある程度、これらの新しい法律に直接組み込まれます。

AIを対象とする新しい法律は必要なく、既存の法律で十分であると断固として主張する人もいることに注意してください。 彼らは、これらの AI に関する法律の一部を制定した場合、社会に計り知れない利点をもたらす AI の進歩を取り締まることで、黄金のガチョウを殺すことになると警告しています。

これまでのコラムでは、AI を規制する法律を作成して制定するためのさまざまな国内および国際的な取り組みについて取り上げてきました。 ここのリンク、 例えば。 また、さまざまな国が特定して採用したさまざまな AI 倫理の原則とガイドラインについても説明しました。たとえば、200 近くの国が採用したユネスコ AI 倫理のセットなどの国連の取り組みが含まれます。 ここのリンク.

以下は、私が以前に詳しく調べた AI システムに関する倫理的な AI 基準または特性のキーストーン リストです。

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

これらの AI 倫理原則は、AI 開発者だけでなく、AI 開発の取り組みを管理する人々、さらには最終的に AI システムを整備して維持する人々によっても利用されることを真剣に想定されています。

開発と使用の AI ライフサイクル全体にわたるすべての利害関係者は、倫理的 AI の確立された規範を遵守する範囲内にあると見なされます。 これは重要なハイライトです。なぜなら、「コーダーのみ」または AI をプログラムする人だけが AI 倫理の概念を遵守する必要があると通常想定されているからです。 ここで強調したように、AI を考案して運用するには村が必要であり、村全体が AI の倫理規定に精通し、それを遵守する必要があります。

公開書簡に参加するための役立つ基礎を築いたので、飛び込む準備が整いました。

公開書簡の正式な件名は次のとおりです。

  • ロボット産業と私たちのコミュニティへの公開状、汎用ロボットは兵器化されるべきではありません」(オンラインで投稿されたとおり)。

これまでのところ、とても良い。

タイトルはまるでアイスクリームとアップルパイのようです。 AI ロボットの兵器化を回避するためのかつての呼びかけとして、これに異議を唱える者がいるでしょうか?

読んで見てください。

まず、検討材料として、公開書簡の公式の冒頭の段落を以下に示します。

  • 「当社は、新世代の高度なモバイル ロボット工学を社会に導入することに専念している世界有数の企業です。 これらの新世代のロボットは、以前の世代よりもアクセスしやすく、操作が簡単で、自律的で、手頃な価格で、適応性が高く、以前は自動化または遠隔制御技術ではアクセスできなかった場所に移動できます。 高度な移動ロボットは、産業の同僚として、また家庭での仲間として、社会に大きな利益をもたらすと信じています」(オンライン投稿による).

これらのタイプのロボットの出現の明るい面は、多くの大きなメリットが現れると予想できることです。 間違いなし。 家の掃除、皿洗い、その他の家事など、Jetson のような活動を行うことができるロボットが家にあるかもしれません。 工場や製造施設で使用するための高度なロボットがあります。 ロボットは、建物が倒壊し、人命が危険にさらされている場合など、狭いスペースに這ったり移動したりする可能性があります。 等々。

余談ですが、Tesla AI Day に関する私の最近の注目すべき報道に興味があるかもしれません。そこでは、ある種の歩行ロボットが、Tesla と社会の未来としてイーロン マスクによって描写されました。 ここのリンク.

本題に戻ります。 踊るロボットや歩くロボットについて真剣に議論するときは、この AI の使用のトレードオフまたは総 ROI (投資収益率) を慎重に考慮する必要があります。 考慮すべきコストもあるのに、利益に過度に夢中になることを許すべきではありません。

光沢のある新しいおもちゃは、かなり鋭いエッジを持っている場合があります。

これらすべてが、AI の兵器化の問題が現在発生している理由の一部は、自律的な活動に向けた AI の進歩によるものであるという、重要ではあるがやや沈黙している点に拍車をかけます。 私たちは通常、武器は一般的に人間が操作するものだと考えてきました。 人間は、武器を発射するか交戦するかを決定します。 おそらく、その人間に彼らの行動の責任を負わせることができます。

自律的に動作するように考案された、またはそうするようにだまされる可能性のある AI は、人間をループから取り除くように見えます。 その後、AI は、最終的に人間を殺したり傷つけたりする可能性のある計算上の決定をアルゴリズムで行っています。 AIを制御できないという明らかな懸念に加えて、AIの行動に関する責任を特定するのに苦労するかもしれないという不安もあります. 明らかな扇動者である人間はいません。

あたかも AI が知性を獲得したか、法人格を付与されたかのように、AI の行動に単純かつ直接的に責任を負わせる必要があると信じている人がいることを認識しています (AI が法人格を取得することに関する私の記事を参照 ここのリンク)。 それは今のところうまくいきません。 私たちは、AI を考案したか、それを運用した人間まで追跡する必要があります。 彼らは間違いなく、AI が自分たちの想像を超えたものであると主張して、法的に責任を逃れようとするでしょう。 これは、私たちが対処する必要のある論争の高まりです (関連する論争の的となっている問題についての洞察については、私の AI 法に関する記事を参照してください)。

国連 (UN) は、ジュネーブの特定の通常兵器に関する条約 (CCW) を通じて、オンラインで投稿された公式報告書 (関連する国際人道法または IHL 条項への言及を含む) に従って、致命的な自律兵器に関する XNUMX の拘束力のない指導原則を確立しました。 、 含む:

(a) 国際人道法は、自律型致死兵器システムの開発および使用の可能性を含め、すべての兵器システムに引き続き完全に適用される。

(b) 責任を機械に移すことはできないため、兵器システムの使用に関する決定に対する人間の責任は維持されなければなりません。 これは兵器システムのライフサイクル全体にわたって考慮されるべきです。

(c) 人間と機械の相互作用は、さまざまな形態をとり、兵器のライフサイクルのさまざまな段階で実施される可能性があるが、自律型致死兵器システムの分野における新興技術に基づく兵器システムの潜在的な使用が、適用される国際法、特に IHL に準拠していることを保証する必要がある。 人間と機械の相互作用の質と範囲を決定する際には、運用状況、兵器システム全体の特性と能力など、さまざまな要素を考慮する必要があります。

(d) CCW の枠組みにおけるあらゆる新興兵器システムの開発、配備、使用に対する責任は、人間の責任ある指揮統制系統内でのかかるシステムの運用を含め、適用される国際法に従って確保されなければならない。

(e) 国際法に基づく国家の義務に従って、新しい武器、戦争手段、または戦闘方法の研究、開発、取得、または採用においては、その使用が一部またはすべての状況において国際法によって禁止されるかどうかを決定しなければならない。

(f) 自律致死兵器システム、物理的セキュリティ、適切な非物理的保護手段(ハッキングやデータなりすましに対するサイバーセキュリティを含む)の分野における新興技術に基づく新しい兵器システムを開発または取得する場合、テロ集団による取得のリスクおよび拡散のリスクを考慮すべきである。

(g) リスク評価と緩和策は、あらゆる兵器システムにおける新興技術の設計、開発、試験、配備サイクルの一部であるべきである。

(h) IHL およびその他の該当する国際法的義務の遵守を維持するために、自律型致死兵器システムの分野における新興技術の使用を考慮すべきである。

(i) 潜在的な政策手段を策定する際には、自律型致死兵器システムの分野における新興技術を擬人化すべきではない。

(j) CCW の文脈内で行われる議論およびあらゆる潜在的な政策措置は、インテリジェント自律技術の平和的利用の進歩またはアクセスを妨げるものであってはなりません。

(k) CCW は、軍事的必要性と人道的配慮とのバランスをとることを目指す条約の目的と目的に照らして、自律型致死兵器システムの分野における新興技術の問題に対処するための適切な枠組みを提供する。

これらおよびその他のさまざまな戦争法および武力紛争法、または IHL (国際人道法) は、武器化された自律システムの出現について私たちが何をしようとするかを検討するための重要で常に有望なガイドとして機能します。設計または事後の方法によって。

兵器化可能な AI 自律システムを完全に禁止すべきだと言う人もいます。 そうです、世界は足を踏み入れて、AI自律システムが決して兵器化されないように強く要求する必要があります. 全面的な禁止が課されることになっています。 話の終わり。 ピリオド、ピリオド。

そうですね、致命的な兵器化された自律システムの禁止が厳密かつ従順に守られることを心から願っています。 問題は、誠実な禁止のいずれかの中で、多くの小刻みに動く余地がずる賢く見つかることです。 彼らが言うように、ルールは破るためのものです。 物事がルーシーグージーな場合、リフラフはギャップを探し出し、ルールを回避しようとします.

考慮に値する潜在的な抜け穴をいくつか示します。

  • 非致死性の主張. 非致死性の自律型兵器システムを作成し (禁止境界の外にあるため一見問題ありません)、これをわずかな時間で致命的なものに変更できます (禁止を超えるのは最後の最後になります)。
  • 自律システムのみの主張。 致死性を重視した自律システムを作らないことで禁止を維持する一方、(まだ)兵器化されていないが、XNUMX円で兵器化できる日常的な自律システムの開発をできるだけ進めてください。
  • 統合されていないという主張。 まったく兵器化されていない自律システムを作成し、時が来たら兵器化をピギーバックして、それらが XNUMX つの別個の要素であると激しく主張し、したがって、それらがオールインワンのルーブリック内に収まらないと主張できるようにします。自律兵器システムまたはそのいとこ。
  • 自律的ではないという主張。 自律能力がないように見える武器システムを作成します。 AIベースの自律性を導入するために、このおそらく非自律的なシステムに余地を残してください。 必要に応じて、自律性をプラグインすると、ロールする準備が整います (それまでは、禁止に違反していなかったようです)。
  • その他

自律型致死兵器システムを完全に禁止しようとする際には、他にも多くの困難が表明されている。 さらにいくつか説明します。

一部の専門家は、禁止は特に有益ではなく、代わりに規制規定を設けるべきだと主張する。 その考えは、これらのからくりは許可されるが、厳しく取り締まられるということである。 合法的な使用法の数々が、合法的なターゲティング方法、合法的な機能の種類、合法的な比例関係などとともに説明されています。

彼らの見解では、全面的な禁止は、砂の中に頭を突っ込んで、部屋の中の象が存在しないふりをするようなものです。 しかし、この主張は、禁止を制定することで、この種のシステムを追求する誘惑を劇的に減らすことができるという主張に反論する人々の血を沸騰させます。 確かに、禁止を誇示する人もいますが、少なくともほとんどの人はそうではないことを願っています。 そうすれば、誇示者に注意を集中させることができ、全員に注意を分散させる必要がなくなります。

こうした議論はぐるぐる回ります。

よく指摘されるもう XNUMX つの懸念は、善人が禁止を順守しても、悪人はそうしないということです。 これにより、善良な人はお粗末な姿勢になります。 悪者はこの種の兵器化された自律システムを持ち、善人はそうしません。 悪い人が持っていることが明らかになった後、良い人が追いつくには遅すぎます。 要するに、唯一の賢明なことは、火で火と戦う準備をすることです。

古典的な抑止論もあります。 兵器化された自律システムを作成することを適切に選択した場合、これを使用して、悪者が喧嘩をしようとするのを思いとどまらせることができます。 善人が武装して悪人を思いとどまらせるか、悪人がずっと秘密裏にそれらのシステムを考案してきたことをおそらく明らかにしたときに、善人が準備ができている.

これらの対抗策は、兵器化された自律システムを作ることで軍拡競争を繰り広げていることになる、というものです。 相手も同じことを求めるでしょう。 たとえ技術的にそのようなシステムを新たに作成することができなくても、「優れた」システムの計画を盗んだり、ハイテクの根性をリバースエンジニアリングしたり、仕事を遂行するための実証済みの方法と思われるものを模倣したりすることができるようになります。

あはは、いくつかの反論、これらすべては、相互の類似性によって対立の減少につながる可能性があります. もし A 側が B 側が致命的な自律システム兵器を持っていることを知っていて、B 側が A 側がそれらを持っていることを知っていれば、彼らは堅く座って打撃を受けないかもしれません。 これには、相互確証破壊 (MAD) の独特のオーラがあります。

のように。

XNUMX番目の段落をよく見る

ここではすでに多くの根拠を説明しましたが、これまでのところ、公開書簡の最初または冒頭の段落 (合計で XNUMX つの段落があります) のみを検討しました。

XNUMX 番目の段落を見てみましょう。

  • 「新しい機能を提供する新技術と同様に、高度な移動ロボットの出現は誤用の可能性をもたらします。 信頼できない人々は、それらを使用して市民権を侵害したり、他人を脅したり、危害を加えたり、威嚇したりする可能性があります。 特に懸念される分野の XNUMX つは兵器化です。 私たちは、遠隔または自律的に操作され、一般に広く利用され、人々が住んで働いている以前はアクセスできなかった場所に移動できるロボットに武器を追加すると、危害や重大な倫理的問題の新たなリスクが生じると考えています。 これらの新しい機能を備えたロボットの武器化されたアプリケーションは、テクノロジーに対する一般の信頼を損なうことにもなり、ロボットが社会にもたらす多大な利益を損なうことにもなります。 これらの理由から、私たちは高度な機動性を備えた汎用ロボットの武器化をサポートしていません。 過去にこの問題について話したことがある人、そして初めてこの問題に関与した人は、この数か月間、その場しのぎのことを目に見えて公表した少数の人々によって引き起こされた公衆の懸念が高まっていることを考えると、新たな緊急性を感じています。市販のロボットを兵器化する取り組み」(オンラインで投稿されたとおり)。

その XNUMX 番目の段落を読んで、AI の兵器化に関する私の以前の議論がどのように前面に出てきたかを理解していただければ幸いです。

いくつかの追加の点を調べてみましょう。

一部の人が心配している特定の言葉遣いについての懸念のXNUMXつは、「信頼できない人々」がこれらのAIロボットを悪用する可能性があることを物語が強調しているように見えることです. はい、確かに、AI ロボットを「悪用」する卑劣な行為をもたらすのは、悪人または悪人である可能性があります。

同時に、この議論の冒頭で指摘したように、埋め込まれたバグやエラー、およびその他の複雑な問題が原因で、AI 自体が失敗する可能性があることも明確にする必要があります。 表明された懸念は、 信頼できない人々 他の不利な可能性を無視しているように見えるということです。 ほとんどの AI 企業とベンダーはそれを認めたがりませんが、自律システムの安全性と信頼性を損なう可能性のある AI システムの問題が数多くあります。 AI の安全性と、厳格で証明可能な保護手段の必要性に関する私の記事については、以下を参照してください。 ここのリンク例えば。

公開書簡を検討した人々の間で出てきたもう XNUMX つの注目すべき点は、AI ロボットに関連する国民の信頼を損なう可能性があるという主張が含まれていることです。

一方で、これは有効な主張です。 AI ロボットが悪意のある入札に使用された場合、大衆はかなり熱狂するに違いありません。 大衆が熱狂すると、国会議員が進出し、AI ロボットと AI ロボット メーカーを取り締まる法律を制定しようとすることは間違いありません。 法律が包括的であり、AIロボティクスの利点を含む取り組みを停止した場合、これはAIロボティクス業界を不自由にする可能性があります. ある意味、赤ちゃんは風呂の水と一緒に投げ出される可能性があります(古い表現、おそらく引退するに値する).

AI ロボットに対する社会の信頼の低下を回避するというこの主張は、利己的な信条なのか、それとも私たち全員の利益のためなのか (両方である可能性はありますか?) という明らかな疑問も提起されています。

あなたが決める。

ここで、公開書簡の特に重要な部分に進みます。

  • 「私たちは、高度な機動性を備えた汎用ロボットや、高度なロボット工学を可能にするために開発したソフトウェアを兵器化しないことを約束し、他の人がそうするのをサポートしません. 可能であれば、武器化の可能性を回避するために、お客様の意図するアプリケーションを慎重に検討します。 また、これらのリスクを軽減または軽減できる技術的機能の開発を検討することを約束します。 明確にするために言うと、国や政府機関が自らを守り、法を守るために使用している既存の技術を問題視しているわけではありません」(オンラインで投稿されたとおり)。

これを開梱できます。

座って、それに応じて準備してください。

激しい二極化の準備はできていますか?

良い面としては、これらの AI ロボット メーカーがそのような約束をするだろうと声高に告げる人もいます。 これらのロボット メーカーは、ありがたいことに、「高度なモビリティの汎用」ロボットを兵器化しないように努めているようです。 さらに、オープンレターは、そうする他の人をサポートしないと述べています.

批評家は、巧妙な言葉作りが行われているのではないかと考えています。

たとえば、「高度なモビリティ」はどこから始まり、どこで終わるのでしょうか? ロボットメーカーが考案している場合 シンプルな-高度なロボットではなくモビリティ AI ロボット (未定義の専門用語) は、今後の予定の範囲から除外されますか? 兵器化? したがって、いわゆる単純移動型の AI ロボットを兵器化しても問題ないということは明らかです。 高度な.

汎用ロボットの言い回しも同様です。 AI ロボットが兵器化のために特別に考案されたものであり、したがってそうではない場合、 一般的用途 ロボット、それは範囲から実行可能な除外になりますか?

あなたはこれらの言い争いに口論し、これは単なる公開書簡であり、隅々まで詳しく説明する XNUMX ページの法的文書ではないと熱心に主張するかもしれません。

これは、一部の人が表現した一見よりマクロレベルの不安に私たちを導きます。 そもそも「約束」とは何を意味するのでしょうか。

牛肉はどこ?

このような誓約をする会社は、ゲームに真の利害関係を持たずにそうしているように見えます。 この誓約にサインアップした企業の幹部が、もはや誓約を尊重しないことを決定した場合、その企業はどうなりますか? 幹部はすぐに缶詰になりますか? 会社は閉鎖し、誓約に違反したことを深く謝罪しますか? 等々。

推測できる限り、誓約の違反に対する特別な罰則や罰則はありません。

風評被害の可能性があると主張するかもしれません。 誓約を行った会社は、もはや遵守しない誓約を行ったことで、市場で非難される可能性があります。 もちろん、これは誓約がなされたことを人々が覚えていることも前提としています。 また、誓約の違反が何らかの方法で検出されることも前提としています (会社が検出した場合、すべてを明らかにする可能性は低いと思われます)。 誓約違反者は告発されなければならないだろうが、そのような問題は、AI ロボティクス メーカーに関する現在の津波のニュースの単なるノイズになるかもしれない。

出てきた別の角度を考えてみましょう。

担保会社は、より大きな会社に買収されます。 より大きな会社は、高度なモビリティの汎用ロボットを AI 兵器バージョンに変えることを開始することを選択します。

これは誓約違反ですか?

大企業は、彼ら(大企業)が約束をしたことがないので、違反ではないと主張するかもしれません. 一方、小規模な企業が最も利他的な意図を持って組み立てて考案した無害な AI ロボットは、ほぼ一夜にして兵器化されて改造されます。

小規模な会社は、これがいつか起こるとは知らなかったと言うかもしれませんが、誓約を損なうようなものです。 彼らは自分たちの欲望に真剣でした。 より大きな購入会社が何を選択したかについては、彼らの手に負えませんでした。

また、これに法的責任があるかどうかを尋ねる人もいます。

誓約会社は、数か月後に誓約を履行しないことを決定します。 彼らは心変わりしました。 公約を放棄したとして会社を訴えることはできますか? 誰が訴えますか? 訴訟の根拠は何でしょう? 多くの法的な問題が発生します。 彼らが言うように、あなたはほとんど誰でも訴訟を起こすことができますが、あなたが勝つかどうかはまったく別の問題です.

これを別の方法で考えてください。 誓約会社は、ロボットを手に入れるために鼻からお金を払っても構わないと思っている大企業に、高度なモビリティの汎用ロボットを大量に販売するという非常に大きな取引を行う機会を得ます. これは、一生に一度の数十億ドルの購入取引のXNUMXつです。

AIロボティクス企業は何をすべきか?

AIロボティクスを約束する会社が上場している場合、彼らはほぼ確実に売却を目指しているでしょう(非公開会社についても同じことが言えますが、そうではありません). 買い手がロボットを兵器化しようとするのではないかと誓約会社が心配していると想像してみてください。 買い手がそうするかもしれないと噂されているだけです。

したがって、誓約会社は、ロボットが武器化されるべきではないことをライセンスに入れています。 買い手はこの言葉に躊躇し、購入をやめます。

約束した AI ロボティクス企業は、どれだけの利益を手にしたのでしょうか?

手持ちの利益がライセンス制限要件を含めることを上回るポイントはありますか (または、おそらく法的には、小刻みに余裕を持って取引を成立させるための制限を言います)? その苦悩がうかがえると思います。 そのようなシナリオは簡単に思い浮かびます。 問題は、この公約が効果を発揮するかどうかです。 もしそうなら、どのような歯ですか?

要するに、この議論の冒頭で述べたように、この種の誓約が行われていることに興奮している人もいれば、誓約が成立するかどうかについて暗い見方をしている人もいます.

先に進みます。

誓いを立てる

公開書簡の最後の XNUMX 番目の段落は、次のように述べています。

  • 「これらのリスクに完全に対処するには、私たちのコミットメントだけでは不十分であることを理解しています。したがって、政策立案者に協力して、これらのロボットの安全な使用を促進し、誤用を禁止するよう求めます。 また、ロボティクス コミュニティのすべての組織、開発者、研究者、およびユーザーに、そのようなロボットへの武器の取り付け、承認、サポート、または有効化を行わないという同様の誓約を行うよう求めます。 私たちは、これらの技術の人類への利益が誤用のリスクを大きく上回ると確信しており、人間とロボットが協力して世界の課題のいくつかに取り組む明るい未来に興奮しています」(オンライン投稿による).

公開書簡のこの最後の部分には、怒りを引き起こしたいくつかの追加要素があります。

政策立案者に要請することは、賢明な場合もそうでない場合もある、と断言する人もいます。 これらの問題に精通していない政策立案者が、古典的な判断への衝動を実行し、AI ロボットの進歩を奪う法律や規制を作成する可能性があります。 前に指摘したように、AI ロボットの進歩を推進しているイノベーションは、混乱するか、踏みにじられる可能性があります。

批評家は、自分が何を求めているのかを知っていることを確認してください.

もちろん、反論は、政策立案者がAIロボティクス企業と協力して、おそらく賢明にそのような法律や規制を作成する方法を見つけ出す必要があることを物語が明確に述べているということです. 反論への反論は、政策立案者が気まぐれに対応する場合、AIロボティクスメーカーを注視していると見なされる可能性があるということです. 反論の反論への反論は、テクノロジーについて知っている人たちと協力することが当然必要であるということです。 等。

おそらく口論のように、一部の人は、誰もが同様の誓約をしないように呼びかけるというラインに胸焼けを起こしました。 取り付け 兵器から高機動型汎用ロボットまで。 そこのキーワードは言葉 取り付け. 誰かが武器を組み込んだ、またはシームレスに埋め込んだ AI ロボットを作成している場合、それは次の文言を回避しているようです 取り付け なにか。 あなたは今それを見ることができます、武器が取り付けられていない、それは完全にAIロボットの一部であり小包であると激しく主張している人. それを乗り越えろ、と彼らは叫びます、私たちはその誓約の範囲内にありません。

これは、誓約の粘着性の欠如について別の不満を引き起こします.

この誓約を行うことを選択した会社または誰でも、いつでも、いつでも、いかなる理由であれ、誓約していないことを宣言できますか?

どうやらそうです。

誓約を行うことと、それがどのような牽引力をもたらすかについて、多くの喧嘩があります。

まとめ

ええ、正しいことをしようとしているこれらの企業は、正しいことをしようとしていると非難されていると言うかもしれません。

私たちの世界はどうなりましたか?

そのような誓約をする人は誰でも疑いの利益を与えられるべきです、あなたは熱心に主張するかもしれません. 彼らは、大胆かつ重要な貢献をするために公共の場に足を踏み入れています。 そうすることで彼らを困惑させ始めると、事態は確実に悪化します。 誰もそのような約束をしたくないでしょう。 企業やその他の企業は、試みさえしません。 彼らは隠れて、これらの最愛のダンスロボットが危険にさらされる可能性があることについて社会に事前に警告しません.

懐疑論者は、社会を賢くする方法には、はしゃいで踊る AI ロボットを披露するという空想的な行為をやめることなど、他の行動が必要であると宣言しています。 または、少なくともよりバランスの取れた行為にします。 たとえば、ペットに忠実な最愛の犬を単に模倣するのではなく、踊るロボットが野生の解き放たれた怒っているオオカミにどのように似ているかを示しています。

そのほうが公約よりも注目を集めるだろう、と彼らは懇願する。

誓約は間違いなくかなりの難問になる可能性があります。

マハトマ・ガンジーが雄弁に述べたように、「誓約がどれほど明白であっても、人々は自分の目的に合わせてテキストをひねったりひねったりします。」

おそらく気分を高揚させるメモでここを締めくくるために、トーマス・ジェファーソンは誓約について次のように述べています。

AI ロボット、その自律性、兵器化などに関して言えば、最終的には私たち全員が協力することになります。 私たちの相互の約束は、少なくとも、これらの問題を最前線に置き、これらの進歩に対処する方法を見つけようと努力し、私たちの名誉、財産、そして私たちの生活を守る方法を見つけることである必要があります.

私たちはそれを約束できますか?

そうだといい。

出典: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing-ロボット メーカーの言うこと、彼らは回避するだろう、AI の武器化/