AI 倫理と AI 法は、最近発表された AI 権利法案を実装するための重要な方法を検討し、驚くべきことに AI を完全に使用することによって

日常生活で設計図が必要であることは間違いありません。

長年思い描いていた夢の家を建てる場合は、まず使用可能な設計図をまとめるのが賢明です。

設計図は、目を見開いた先見の明が頭の中に閉じ込められている可能性があるものなら何でも、具体的かつ文書化された方法で紹介します。 あなたの大切な家屋を建設するために呼び出される人は、設計図を参照して、仕事を成し遂げる方法の詳細を突き止めることができます. 設計図は便利です。 青写真がないことは、あらゆる種類の複雑な雑用やプロジェクトに取り組む上で問題になることは間違いありません。

このやや感傷的ではあるが真の設計図への賛辞を、人工知能 (AI) の領域に移してみましょう。

AI にかなりの関心を持っている人は、重要な政策指向の 青写真 最近、米国で公開された、明らかに AI の未来に関連するものです。 非公式には AI権利章典宣言されたホワイト ペーパーの正式なタイトルは「AI 権利章典の青写真: 自動化されたシステムをアメリカ国民のために機能させる」であり、オンラインで簡単に入手できます。

この文書は、Office of Science and Technology Policy (OSTP) による 1970 年にわたる努力と入念な調査の結果です。 OSTP は、XNUMX 年代半ばに設立された連邦機関であり、国家的に重要なさまざまな技術、科学、および工学的側面について、アメリカ大統領および米国行政府に助言する役割を果たしています。 その意味で、この AI 権利章典は、現存する米国のホワイト ハウスによって承認され、承認された文書であると言えます。

AI 権利章典は、 人権 私たちの日常生活におけるAIの出現に関して、人類が持つべきこと。 私がこの重要な点を強調するのは、これは AI が法人格を持っていることを何らかの形で認めるものであり、これは知覚力のある AI とヒューマノイド ロボットに対する一連の権利であることに最初戸惑った人がいたためです。 いいえ、私たちはまだそこにいません。 すぐにわかるように、バナーの見出しは別のことを示しているように見えますが、私たちは知覚力のある AI にはほど遠いものです。

では、AI の時代に人権を詳しく説明する青写真は必要でしょうか?

はい、間違いなくそうです。

AI がすでに私たちの権利をますます侵害していることを知らないためには、洞窟に閉じ込められ、インターネットにアクセスできないことがほとんど必要になるでしょう。 最近の AI の時代は、最初は次のように見なされていました。 AI For Good、人類の向上のために AI を使用できることを意味します。 に続いて AI For Good 私たちも没頭していることに気づきました 悪い人のためのAI. これには、差別的になるように考案または自己変更され、過度のバイアスを吹き込む計算上の選択を行う AI が含まれます。 AI がそのように構築されている場合もあれば、その不利な領域に方向転換している場合もあります。

AI 法、AI 倫理、およびその他の主要な AI の技術的および社会的傾向に関する私の継続的かつ広範な報道と分析については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

AI 権利章典の開梱

以前に AI 権利章典について説明しましたが、ここで簡単に要約します。

余談ですが、最近発表された AI 権利章典の詳細な長所と短所を知りたい場合は、 弁護士を参照してください ここのリンクを選択します。 弁護士 は著名な法律ニュースと解説のオンライン サイトであり、法学生の記者、編集者、コメンテーター、特派員、コンテンツ開発者からなるグローバル チームを擁する、受賞歴のある法律ニュース サービスとして広く知られています。 25年以上前に始まったピッツバーグの法律。 の傑出した勤勉なチームへの叫び 弁護士.

AI 権利章典には、次の XNUMX つのキーストーン カテゴリがあります。

  • 安全で効果的なシステム
  • アルゴリズム差別保護
  • データプライバシー
  • 注意と説明
  • 人間による代替、検討、およびフォールバック

XNUMX から XNUMX までの番号を付けていないことに注意してください。これは、それらが特定の順序にある​​ことや、一方の権利が他方よりも重要であるように見えることを意味する可能性があるためです。 それらはそれぞれ独自のメリットであると想定します。 それらはすべて、ある意味で同等に価値があります。

それぞれの構成要素の簡単な例として、公式ホワイト ペーパーからの抜粋を次に示します。

  • 安全で効果的なシステム: 「安全でない、または効果のないシステムから保護する必要があります。 自動化されたシステムは、さまざまなコミュニティ、利害関係者、およびドメインの専門家からの相談を受けて開発され、システムの懸念、リスク、および潜在的な影響を特定する必要があります。」
  • アルゴリズム差別保護: 「アルゴリズムによる差別に直面するべきではなく、システムは公平な方法で使用および設計されるべきです。 アルゴリズムによる差別は、自動化されたシステムが、人種、肌の色、民族性、性別 (妊娠、出産、関連する病状、性自認、インターセックスの状態、性的指向を含む)、宗教、年齢に基づいて、不当に異なる扱いを行ったり、人々を不利な立場に置いたりする場合に発生します。 、国籍、障害、退役軍人の地位、遺伝情報、または法律で保護されているその他の分類。」
  • データのプライバシー: 「組み込みの保護機能によってデータの悪用行為から保護されるべきであり、自分に関するデータがどのように使用されるかについてエージェンシーを持つべきです。 データ収集が合理的な期待に準拠し、特定のコンテキストに厳密に必要なデータのみが収集されることを含め、そのような保護がデフォルトで含まれていることを保証する設計上の選択を通じて、プライバシーの侵害から保護する必要があります。」
  • 注意と説明: 「自動化されたシステムが使用されていることを知り、それがあなたに影響を与える結果にどのように、そしてなぜ貢献するのかを理解する必要があります. 自動化システムの設計者、開発者、および展開者は、システム全体の機能と自動化が果たす役割の明確な説明、そのようなシステムが使用されていること、システムの責任者である個人または組織、および明確で、タイムリーで、アクセスしやすい結果です。」
  • 人間の代替案、考慮事項、およびフォールバック:「必要に応じてオプトアウトできるようにし、遭遇した問題を迅速に検討して解決できる人にアクセスできるようにする必要があります. 必要に応じて、自動化されたシステムからオプトアウトして、人間の代替手段を選択できるようにする必要があります。」

概して、これらは AI 倫理と AI 法に関連してかなり長い間議論されてきた人類の権利の側面です。 ここのリンク. このホワイト ペーパーは、AI 時代のコンテキストではこれまで解明されていなかった、新たに発見または発掘された権利について、帽子から魔法のようにウサギを引き抜くようには見えません。

大丈夫。

それらをきちんとパッケージ化され、形式化された XNUMX つのコレクションにまとめることは、重要なサービスを提供すると断言できます。 さらに、絶賛されたとして油を注がれることによって AI権利章典、これはさらに、問題全体を公然と巧みに公共圏の意識に入れます。 これは、既存の多数の異なる議論を単一のセットにまとめ、あらゆる種類の利害関係者にトランペットで伝えて伝えることができるようにします。

発表された AI 権利章典に対する好意的な反応のリストを提示させてください。

  • キーストーン原則の重要な編集を提供します
  • 構築するための青写真または基盤として機能します
  • 発声された行動を促すフレーズとして機能します
  • 関心を呼び起こし、これらが真剣な考慮事項であることを示します
  • 多種多様な議論をまとめます
  • 倫理的 AI 導入の取り組みに火をつけ、貢献する
  • 間違いなくAI法の制定に貢献するだろう
  • その他

また、やるべきことがたくさんあること、そしてこれは AI を管理するという困難な道のりの長い道のりの始まりにすぎないことを考慮して、好ましくない反応についても考慮する必要があります。

そのため、AI 権利章典についてなされた建設的な批判には、次のようなものがあります。

  • 法的強制力がなく、完全に拘束力がない
  • 助言のみであり、政府の方針とは見なされない
  • 他の出版物と比較して包括性が低い
  • 主に幅広い概念で構成されており、実装の詳細が欠けている
  • 実際に実行可能な実用的な法律に変えるのは難しいでしょう
  • 状況によっては AI を禁止する可能性があるという差し迫った問題については沈黙しているように見える
  • 十分に工夫された AI を使用する利点をわずかに認めている
  • その他

おそらく最も著名な辛辣な論評は、この AI 権利章典は法的強制力がなく、明確なゴールポストの確立に関しては根拠がないという事実に集中しています。 このホワイト ペーパーは有益で励みになりますが、明らかに根拠が欠けていると言う人もいます。 彼らは、歯の抜けたと言われている気の利いた教訓のセットから何が得られるのか疑問に思っています。

これらの痛烈な発言については、すぐに説明します。

一方、ホワイト ペーパーでは、この AI 権利章典が伴うことの制限を豊富に述べています。

  • 「AI 権利章典の青写真は拘束力がなく、米国政府の政策を構成するものではありません。 既存の法律、規制、政策、または国際文書の解釈に取って代わり、修正し、または指示するものではありません。 これは、公的機関または連邦機関に対する拘束力のあるガイダンスを構成するものではなく、したがって、ここに記載されている原則への準拠を要求するものではありません。 また、国際交渉における米国政府の立場がどうなるかを決定するものでもありません。 これらの原則の採用は、既存の法律、規制、政策、または国際文書の要件、またはそれらを施行する連邦機関の要件を満たさない場合があります。 これらの原則は、法執行機関、国家安全保障、または諜報活動を含む、政府機関の合法的な活動を禁止または制限することを意図したものではなく、また、制限するものでもありません」(ホワイト ペーパーによる)。

AI の権利章典を法的拘束力がないとしてすぐに軽視した人のために、その辛辣な主張についてちょっとした思考実験をしてみましょう。 白書が公開され、法律の完全な効力があったとします。 その結果は、少なくとも宣言に対する法的および社会的反応の程度において、いくぶん激変するだろうと私はあえて言う.

議員たちは、このような法律をまとめるための規範的なプロセスや法的手続きを講じていなかったことに憤慨するでしょう。 当然のことながら、企業は激怒し、法律が何であるかについて十分な通知と認識なしに新しい法律が出現することになります。 あらゆる種類の驚愕と怒りが続くでしょう。

AI時代に人類の権利を強化することに引き寄せられる良い方法ではありません.

青写真の価値と活力を持ち出すことによって、私が以前にこの議論を始めたことを思い出してください。

誰かが青写真を作成するステップをスキップして、すぐに夢の家を建てることに飛びついたと想像してください。 家はどんな感じになると思いますか? その家が、あなたが心に描いていたものと特に一致しないことは、かなりの賭けのようです。 結果として生じる家屋敷は完全に混乱する可能性があります。

要点は、私たちには青写真が必要であり、賢明な AI 法を見つけ出し、倫理的な AI の採用を後押しするために、青写真を手に入れたということです。

したがって、この AI 権利章典の青写真をいわば家に変える方法について説明したいと思います。 設計図をどのように活用しますか? 適切な次のステップは何ですか? この設計図で十分でしょうか、それとも骨にもっと肉が必要ですか?

これらの重要な問題に飛び込む前に、まず、AI の性質と、現在の状況が何であるかについて、全員が同じページにいることを確認したいと思います.

今日の AI について記録を正す

私は非常に強調した声明を述べたいと思います。

準備は完璧?

今日、感性のあるAIはありません。

私たちはこれを持っていません。 知覚力のある AI が可能になるかどうかはわかりません。 私たちが知覚力のある AI を達成するかどうか、また、知覚力のある AI が何らかの形で奇跡的に自発的に計算認知超新星 (通常は特異点と呼ばれます。 ここのリンク).

私が注目しているタイプの AI は、今日私たちが持っている感覚を持たない AI で構成されています。 知覚力のある AI について荒々しく推測したい場合、この議論は根本的に異なる方向に進む可能性があります。 知覚力のある AI は、おそらく人間の品質を備えているでしょう。 知覚力のある AI は、人間と同等の認知能力を持っていると考える必要があります。 さらに、私たちが超インテリジェント AI を持っている可能性があると推測しているため、そのような AI は最終的に人間よりも賢くなる可能性があると考えられます (可能性としての超インテリジェント AI の私の調査については、 ここでの報道).

物事を現実的に保ち、今日のコンピューターによる非感覚的 AI について検討することを強くお勧めします。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、計算パターンマッチングを活用する機械学習(ML)とディープラーニング(DL)が広く利用されています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

今日の AI を擬人化することには十分注意してください。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI 開発者も何が起こっているのか理解していない可能性があります。 ML/DL の難解な数学は、現在隠された偏見を見つけ出すことを困難にする可能性があります。 AI 開発者が埋もれている可能性のあるバイアスをテストすることを期待し、期待するのは当然ですが、これは思ったよりも難しいことです。 比較的大規模なテストを行ったとしても、ML/DL のパターン マッチング モデルにまだバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

これらはすべて、AI の倫理に非常に重要な意味を持ち、AI を法制化しようとする際に (すべての教訓が生じる前であっても) 学んだ教訓への便利な窓を提供します。

一般にAI倫理の原則を採用することに加えて、AIのさまざまな使用を管理する法律を設ける必要があるかどうかという対応する質問があります。 AIの考案方法の範囲と性質に関係する新しい法律が、連邦、州、地方のレベルで広まっています。 そのような法律を起草して制定する努力は段階的なものです。 AI倫理は、少なくとも、考慮された一時的なギャップとして機能し、ほぼ確実に、ある程度、これらの新しい法律に直接組み込まれます。

AIを対象とする新しい法律は必要なく、既存の法律で十分であると断固として主張する人もいることに注意してください。 彼らは、これらの AI に関する法律の一部を制定した場合、社会に計り知れない利点をもたらす AI の進歩を取り締まることで、黄金のガチョウを殺すことになると警告しています。

これまでのコラムでは、AI を規制する法律を作成して制定するためのさまざまな国内および国際的な取り組みについて取り上げてきました。 ここのリンク、 例えば。 また、さまざまな国が特定して採用したさまざまな AI 倫理の原則とガイドラインについても説明しました。たとえば、200 近くの国が採用したユネスコ AI 倫理のセットなどの国連の取り組みが含まれます。 ここのリンク.

以下は、私が以前に詳しく調べた AI システムに関する倫理的な AI 基準または特性のキーストーン リストです。

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

これらの AI 倫理原則は、AI 開発者だけでなく、AI 開発の取り組みを管理する人々、さらには最終的に AI システムを整備して維持する人々によっても利用されることを真剣に想定されています。

開発と使用の AI ライフサイクル全体にわたるすべての利害関係者は、倫理的 AI の確立された規範を遵守する範囲内にあると見なされます。 これは重要なハイライトです。なぜなら、「コーダーのみ」または AI をプログラムする人だけが AI 倫理の概念を遵守する必要があると通常想定されているからです。 ここで強調したように、AI を考案して運用するには村が必要であり、村全体が AI の倫理規定に精通し、それを遵守する必要があります。

役立つ基礎を築いたので、AI の権利章典をさらに掘り下げる準備が整いました。

AI 権利章典を実装するための XNUMX つの重要な方法

誰かがあなたに設計図を渡し、仕事に取り掛かるように言います。

あなたは何をしますか?

青写真としての AI 権利章典の場合、前進するために次の XNUMX つの重要なステップを検討してください。

  • AI に関する法律の策定に向けた情報として役立ちます。 青写真を使用して、AI に関する法律の策定を支援します。うまくいけば、連邦、州、および地方レベルで連携して行うことができます (おそらく、国際的な AI の法的取り組みも支援します)。
  • AI 倫理をより広く採用するための支援: 青写真を使用して AI 倫理の定式化 (法的に拘束力のある「ハード ロー」と比較して「ソフト ロー」と呼ばれることもあります) を促進し、企業、個人、政府機関、およびその他の構成員をより優れた、より一貫性のある倫理に向けて刺激し、導きます。 AI の結果。
  • シェイプ AI 開発活動: 青写真を使用して、AI 開発の方法論とトレーニングの側面の作成に拍車をかけます。これにより、AI 開発者と、AI をフィールドまたは採用する人々が、望ましい AI 倫理の指針に沿って、期待に沿って AI を考案する方法をより認識できるようになります。差し迫った AI 法が制定されることについて。
  • AI の制御を支援する AI の出現を促進する: 設計図を使用して、不利な領域に進入している可能性のある他の A​​I に対してチェック アンド バランスを試みるために使用される AI を考案します。 これは、表向きは気になるものを(皮肉なことに、言うかもしれませんが)私たちを保護するのに役立てることができる巨視的な視点のXNUMXつです。

前述の XNUMX つのステップのそれぞれについて、コラムの投稿を通して説明してきました。

ここでの議論では、リストされている XNUMX 番目のステップに焦点を当てたいと思います。つまり、AI の権利章典は、AI の制御を支援する AI の出現に向けた動機付けとして機能できるということです。 これは、この AI の進歩する領域にまだ完全に足を踏み入れていない多くの人にとって、やや衝撃的または驚くべきステップです。

詳しく説明させてください。

簡単な類推でうまくいくはずです。 私たちは最近、サイバーセキュリティの侵害やハッカーの侵入に慣れています。 悪意のある悪人がデータを盗んだり、ラップトップに卑劣なランサムウェアを配置したりすることを可能にするコンピューターの最新の抜け穴について、ほぼ毎日聞いたり、影響を受けたりしています。

これらの卑劣な試みに対抗する手段の XNUMX つは、これらの侵入を阻止しようとする専用のソフトウェアを使用することです。 自宅や職場のコンピューターには、ほぼ確実にウイルス対策ソフトウェア パッケージがインストールされています。 あなたのスマートフォンにも似たようなものがあるかもしれません。

私の要点は、時には火で火と戦う必要があるということです (これに関する私の記事を参照してください。 ここのリンク & ここのリンク).

禁止された領域に着陸する AI の場合、 悪い人のためのAI、使用しようとすることができます AI For Good その悪意のある 悪い人のためのAI. もちろん、これは奇跡の治療法ではありません。 ご存知のように、私たちのコンピューターに侵入しようとする悪者と、サイバーセキュリティ保護の進歩との間で、いたちごっこが絶え間なく続いています。 それはほぼ無限のゲームです。

AI を使用して、禁じられた道を進んでいる AI に対処しようとすることができます。 そうすることで助けになります。 標的にされている不利な AI は、ほぼ確実にそのような保護を回避するように考案されているため、特に特効薬にはなりません。 AI 対 AI のいたちごっこが進行中です。

いずれにせよ、私たちが自分自身を守るために使用する AI は、悪意のある AI に対してある程度の保護を提供します。 したがって、私たちは間違いなく、私たちを保護または保護できる AI を考案する必要があります。 また、悪意のある AI が調整するのに合わせて、保護 AI を調整することも検討する必要があります。 電光石火のスピードのいたちごっこのように見えるでしょう。

この AI の役割の拡大を誰もが喜んでいるわけではありません。

すでに AI を同種の非晶質集合体として認識している人々は、この見せかけの AI 対 AI の賭けに鳥肌が立ち、悪夢にうなされるでしょう。 火と火を戦わせようとするなら、もしかしたらもっと大きな火を起こしているだけかもしれません。 AI は大規模な篝火になり、私たちが制御できなくなり、人類を奴隷にするか、地球から私たちを一掃するかを選択することになります。 AI を実存的リスクとして議論する場合、通常、すべての AI が団結すると信じ込まされます。これらの問題に関する私の議論を参照してください。 ここのリンク. ご覧のとおり、AI のすべての部分が兄弟の AI をつかみ、XNUMX つの大君主で統一された家族になると言われています。

これは、知覚力のある AI がシームレスなオール フォー ワンおよびワン フォー オール マフィアであるという恐ろしく、明らかに動揺させるシナリオです。

いつの日かこのようなことが起こるかもしれないという推測を自由に歓迎しますが、今のところ、私たちが現在持っている AI は、相互に共謀する特別な方法を持たない、切り離された異種の AI プログラムのトラックロードで構成されていることを保証します。

そうは言っても、AI陰謀論を熱烈に信じている人たちは、私が意図的に真実を隠すためにこれを言ったと主張するでしょう. あはは! たぶん、私はすでに大規模な AI 乗っ取りを計画している今日の AI によって報われているのかもしれません (そうです、AI の大君主が支配すれば、私は富を浴びることになります)。 または、私はこの別の見方を好まないことは間違いありません。おそらく、AI が私たちの背後で密かに計画を立てていることを盲目的に認識していないのかもしれません。 私が AI クーデターの一部なのか、それとも AI の卑劣な人物なのかを確認する必要があると思います (痛い、痛いです)。

地球上の考慮事項に戻り、現代の AI を使用して AI 権利章典の実装を支援する方法を簡単に探ってみましょう。 便宜的かつ要約して、これを次のように参照します。 良いAI.

AI 権利章典に具体化されている XNUMX つのキーストーンを使用します。

  • プロモーションに適した AI 安全で効果的なシステム: あなたがAIシステムの影響を受けている、またはAIシステムを使用しているときはいつでも、良いAIは、利用されているAIが安全でないか効果がないかどうかを判断しようとします. そのような検出時に、良い AI は警告を発したり、悪い AI をブロックするなどの他のアクションを実行したりする場合があります。
  • 提供するための優れた AI アルゴリズム差別保護: 差別的なアルゴリズムを含む可能性のある AI システムを使用している間、 良いAI あなたにとって不適切な保護があるかどうかを確認しようとし、使用されている AI に過度の偏見が実際に存在するかどうかを判断しようとします。 優れた AI は、AI に関する法律や法的要件によって規定されている場合に、ユーザーに通知し、他の AI をさまざまな当局に自動的に報告する可能性があります。
  • 保存に適した AI データのプライバシー: このタイプの優れた AI は、データ プライバシーの侵害からユーザーを保護しようとします。 別の AI が、おそらくあなたに本当に必要ではないデータを要求しようとしている場合、優れた AI は、その行動を超えていることを認識させます。 優れた AI は、他の AI にフィードされたときにデータのプライバシー権を保持する方法で、データをマスクする可能性もあります。 等。
  • 確立に適した AI 注意事項と説明: 私たちは皆、適切かつ適切な通知を提供することが著しく欠けており、悲しいことに、その行動について適切な説明を提示できない AI システムに遭遇する可能性があります。 優れた AI は、提供されるべき通知や説明を特定するために、他の AI を解釈したり質問したりすることができます。 特定のインスタンスでそれが実行できない場合でも、良い AI は少なくとも他の AI の失敗について警告し、規定された AI 法と法的要件に基づいて指定された当局に AI を報告する可能性があります。
  • 提供に適した AI 人間による代替案、検討、およびフォールバック: AI システムを使用していて、AI が目の前のタスクに対応していないように見えるとします。 状況が悪化していることに気付いていないか、状況に対して何をすべきかについて慎重で確信が持てない場合があります。 そのような場合、良い AI は他の AI が何をしているかを静かに調べ、その AI に関する重大な懸念について警告することができます。 次に、AI に代わる人間を要求するように求められます (または、良い AI があなたに代わってそうすることができます)。

この種の方法をさらに理解するために 良いAI 私が一般的に AI ガーディアン エンジェルと呼んでいるものについては、人気が高く評価の高い私の本 (「トップ XNUMX」に選ばれたことを光栄に思います) を参照してください。 ここのリンク.

まとめ

私はあなたが何を考えているか知っています。 私たちを守るために考案された良いAIがあれば、良いAIが腐敗して悪いAIになったとします。 有名または悪名高いラテン語のキャッチフレーズは、この可能性に完全に関連しているようです。 カストディエットipsos custodesを終了しますか?

このフレーズは、ローマの詩人ユヴェナルの作であるとされ、彼の作品に見出すことができます。 風刺、そして警備員自身を警備または監視する人を意味するものとして大まかに翻訳することができます. などの多くの映画やテレビ番組 Star Trek このラインを繰り返し活用しています。

それはきっと、優秀なポイントだからです。

案の定、制定される AI 法は、悪い AI と悪い AI の両方を包含する必要があります。 そのため、賢明で包括的な AI に関する法律を作成することが重要になります。 ランダムな法律用語を壁にぶつけて、それが AI 法に関して固執することを望んでいる議員は、ターゲットを大きく逃していることに気付くでしょう。

私たちはそれを必要としません。

私たちには、不十分に考案された AI 法に対処するための時間も、社会的費用を負担することもできません。 残念なことに、私たちは時々、構成が不十分であらゆる種類の法的問題に満ちた新しい AI 関連の法律を目にしていることを指摘してきました。 ここのリンク.

今手元にある AI の権利章典の青写真を AI に関して適切に使用するようにしましょう。 青写真を無視すると、ゲームを強化したことを失います。 設計図を誤って実装した場合、有用な基盤を奪ったことを恥ずかしく思います。

尊敬されているローマの詩人 Juvenal は、この状況で活用できる別のことを言いました。 アニマ・サナ・イン・コーポア・サノ。

一般に、これは、健全または健康な精神と健全または健康な身体の両方を持つことが賢明であるという主張に変換されます。 ユベナルによれば、これは私たちがあらゆる種類の苦労に耐えることを可能にし、平和または美徳の生活への唯一の道であることは間違いありません.

健全な精神と健全な身体を使用して、ユビキタスで時には不利な AI の出現する世界で、人類が人権を確実に保護し、しっかりと強化できるようにする時が来ました。 これはローマ人からの適切なアドバイスであり、AI の魔法の時代と、良い AI と悪い AI の両方で決定的に満たされた未来の中で、今日のラッシュで従うべきです。

ソース: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai-権利章典を含む、そして驚くべきことに、完全に AI を使用して/