法的根拠を AI に埋め込むことで、人間と価値の一致を賢く達成できる可能性がある、と AI 倫理と AI 法は述べています

今日のコラムでは、一見バラバラに見える無数の AI 関連のトピックを、うまく織り上げた XNUMX つの生地に織り上げます。

準備は完璧?

ある種の重要なタスクを実行している間、あなたを支援する AI を利用したアプリを使用していると想像してください。 おそらく問題は経済的なものであるか、健康に関連している可能性があります. 本質的には、正しいことを行い、安全で健全な方法で実行するために AI に依存しているということです。

AI が非倫理的な領域に進入したとします。

AIがそうしていることに気付かないかもしれません。

たとえば、AI は人種や性別などの潜在的に隠された差別的要因に依存している可能性がありますが、その不都合な使用法を識別する実行可能な手段がない場合があります。 あなたは、最初から問題のある方法で考案された AI を介してスティックのショートエンドを取得しています。これはすぐに)。

非倫理的な道を選択する AI に対して何ができるでしょうか。

この種の陰湿な行動を起こさないように AI を事前に構築しようとするだけでなく、 AI倫理チェック それ以外の場合はワイルド ウェストのように、AI システムが市場に放り出されて急成長している泥沼に組み込まれています。 AI を取り入れたアプリが倫理的な側面から逸脱するのを防ぐために、追加の AI を使用してチェック アンド バランスを行うことができるという考えです。 この追加された AI は、対象の AI アプリの外部にある場合もあれば、AI に直接埋め込まれたり埋め込まれたりしているコンポーネントである可能性もあります。

前に述べたように、参照してください ここのリンク: 「最近出現した傾向は、AI システムの残りの部分が事前に設定された倫理的境界を超え始めると、AI に倫理的なガードレールを構築しようとすることです。 ある意味では、目標は AI 自体を使用して、倫理的に失敗しないようにすることです。 私たちは AI が自己治癒することを目指していると言えます」(ランス・エリオット、「非倫理的な AI を監視し、悪い AI の行動を抑止しようとする倫理的な AI の作成」、 フォーブス、28 年 2022 月 XNUMX 日)。

また、私の本に関する関連する興味を見つけるかもしれません AI ガーディアン ボット、ガーディアン エンジェルと呼ばれることもあり、AI 内に組み込まれたこの最先端の AI 組み込みダブルチェッカーの技術的基盤をカバーしています。 ここのリンク.

肝心なのは、あなたが使用している AI アプリに考案されて埋め込まれた組み込みの AI ダブルチェック倫理測定要素を使用することで、ありがたいことにあなたのベーコンが救われるかもしれないということです。 しかし、AI があなたを完全に硬直させたり、さらに危険な場所に足を踏み入れたりしないことを本当に確認するには、それだけで十分な保護者になるでしょうか?

ほら、AIアプリは表向きは実行できる 違法 行為。

私たちが倫理的または非倫理的行動であると考えるものの灰色の領域に入るAIを持つことは、XNUMXつのことです. 同様に当惑させる行動と悪化する可能性が高い懸念は、いわばサメを飛び越えて、あからさまな違法行為の見掛け倒しの暗闇に陥る AI を伴います。

違法な AI は悪です。 違法な AI を放置するのはよくありません。 一部の法学者は、AI の出現と普及によって、私たちの人工知能の類似性が徐々に恐ろしく低下することを公然と懸念しています。 法の支配、私の分析を参照してください ここのリンク.

ちょっと待って、と言っているかもしれません。

AI 開発者は、 決して 法律に反するように AI をプログラムします。 想像を絶する。 そうするのは邪悪な悪役だけです (ちなみに、悪意のある目的のために意図的に AI を考案して使用している人々がいることを覚えておいてください。犯罪者や悪意のある活動に AI を使用したいと考えている人々の関心が高まっている分野です)。

申し訳ありませんが、悪意のないすべての AI 開発者が、AI が完全に法を遵守していることを厳密に確認しようとしていると仮定するのは希望的観測です。 AI が自己調整し、違法行為に迷い込んでいる可能性があります。 もちろん、AI 開発者が AI の違法行為を望んでいたか、AI の作成時に違法行為と合法行為を構成するものを認識していなかった可能性もあります (はい、これはかなり可能です。つまり、頭を下げた全技術 AI チームは、彼らの AI の法的な悪ふざけに無知である可能性があります。

これについて何ができますか?

繰り返しますが、AI が鉄壁で合法であることを保証しようとすることに加えて、勢いを得るための追加のアプローチには、残りの AI アプリに対して合法的な二重チェックを行う AI コンポーネントを埋め込むか、埋め込むことが含まれます。 この追加された AI は静かに座って、しばしば前触れもなく、AI の残りの部分を観察して、AI が不正になるかどうか、または少なくとも法的または規制が課す制限の限界を超えるかどうかを識別しようとします。

次に、AI アプリに潜在的に組み込まれている XNUMX 種類の AI ダブルチェックがあります。

  • AI 倫理ダブルチェッカー: このコンポーネントまたは AI アドインは、AI が示す倫理的および非倫理的な行動について、残りの AI をリアルタイムで評価します。
  • AI 法務ダブルチェッカー: このコンポーネントまたは AI アドインは、残りの AI をリアルタイムで評価して、法的なキーストーン内に留まることを保証し、AI による新たな違法行為を捕捉します。

明確にするために、これらは比較的新しい概念であり、現在使用している AI は次のいずれかの現状にある可能性があります。

  • ダブルチェッカーを一切含まないAI
  • AI 倫理ダブルチェッカーが含まれているが、他のダブルチェッカーがない AI
  • AI Legal ダブルチェッカーが含まれているが、他のダブルチェッカーがない AI
  • AI倫理ダブルチェッカーとAI法務ダブルチェッカーの両方を備えたAI
  • その他

AI 倫理ダブルチェッカーと AI 法務ダブルチェッカーの両方を、兄弟姉妹として AI アプリで並行して動作させることには、いくつかの非常にトリッキーな側面があります。 これは、あなたが思っているよりも調整が難しいタイプの二元論です (兄弟姉妹が最も緊密な絆を持つことができることは誰もが知っていると思いますが、時にはディケンズのように戦い、激しく反対することもあります)ビュー)。

私は、この種の困難な問題について、長々と議論してきました。 二元論: 「社会的利益のための AI では、高度な AI システムにおける人工的な道徳的機関と人工的な法的推論の両方の役割の欠如を含む、無視された二元論が発生しています。 AI研究者とAI開発者による取り組みは、AIシステムが現場で動作しているときに道徳的意思決定を導くために、人工的な道徳的エージェントを作成して埋め込む方法に焦点を当てる傾向がありましたが、人工的な法的推論能力の使用にも焦点を合わせたり、それらを組み合わせたりすることはありませんでした、これは堅実な道徳的および法的結果のために等しく必要です」(ランス・エリオット、「社会的利益のためのAIにおける人工道徳機関と人工法的推論の無視された二元論」、ハーバード大学CRCS年次会議2020、 ハーバード大学研究計算センター)

AI 倫理のダブルチェッカーと AI 法務のダブルチェッカーの間に対立が生じる理由を詳しく知りたい場合は、次の驚くべき概念的価値の引用を見つけることができるかもしれません。その行為は不道徳ですが。 そして、たとえその行為が道徳的に許されていたり、道徳的に要求されていたとしても、法律はその行為を禁止するかもしれません」 (Shelly Kagan, 道徳の限界、1998)。

焦点を少しずらして、これらのダブルチェッカーが別の高度に精査された AI トピックにどのように適合するかを見てみましょう。 責任あるAI または、人間の価値観と AI の整合性についての協調的な検討。

一般的な考え方は、適切で望ましい人間の価値観を順守する AI が必要だということです。 これを次のように参照する人もいます 責任あるAI. 他の人も同様に議論します 説明責任のある AI, 信頼できるAI, AI アライメント、すべて同じ基本原則に触れています。 これらの重要な問題に関する私の議論については、 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

AI を人間の価値観と一致させるにはどうすればよいでしょうか。

前に示唆したように、AI 開発者は、責任ある AI の遵守を達成する AI を開発することを認識していることを願っています。 残念ながら、以前に解明された理由によると、そうではないかもしれません。 さらに、彼らはそうしようとするかもしれませんが、それにもかかわらず、AI は倫理的行動の顕著な領域を超えて自己調整するか、違法な水域に入る可能性があります。

さて、これらのリスクとエクスポージャーを強化する手段として、便利なダンディ ダブルチェッカーを検討する必要があります。 よく練られた AI 倫理ダブルチェッカーを使用することで、AI を人間の価値観に合わせることができます。 同様に、巧妙に考案された AI 法務ダブルチェッカーを使用すると、AI を人間の価値観に合わせるのに実質的に役立ちます。

したがって、責任ある AI、信頼できる AI、説明責任のある AI、AI の整合性などに到達しようとする重要かつまだよく知られていない手段には、AI 倫理ダブルチェッカーなどの AI ダブルチェッカーの使用が含まれます。 AI が組み込まれている AI のダブル チェックとして精力的に機能する AI 法務ダブルチェッカー。

ここでの議論では、AI に組み込まれる可能性のある AI 法務ダブルチェッカーの性質と構造について、もう少し詳しく説明したいと思います。 そのために、全体的なトピックに関する追加の背景を共有すると役立つ場合があります。 AIと法律.

AIと法律がどのように混ざり合っているかについてのナンセンスな調査については、私の議論を参照してください。 ここのリンク. 私の目の肥えた目で、 AIと法律 AI と法律を相互に関連付ける XNUMX つの主要な方法について、次のような率直な概念を示します。

  • (1) AIに適用される法律: 私たちの社会における人工知能の規制またはガバナンスに適用される法律の策定、制定、施行
  • (2) AI適用法: 弁護士業務を自律的または半自律的に実行するための LegalTech ハイテク アプリに注入された AI ベースの法的推論 (AILR) を含む、考案され、法律に適用された人工知能技術

最初にリストされた視点は、既存の法律と新しい法律が AI をどのように管理するかを検討することです。 XNUMX 番目にリストされている視点は、AI を法律に適用することと関係があります。

この後者のカテゴリには、通常、弁護士が使用するさまざまなオンライン ツールで AI ベースの法的推論 (AILR) を採用することが含まれます。 たとえば、AI は契約ライフ サイクル管理 (CLM) パッケージの一部であり、弁護士が新しい契約の起草に役立つ契約文言を特定するのを支援したり、事故や法的な抜け穴を許すような法的に希望に満ちた文言を含む契約を検出したりする可能性があります。 (AI が識別できるいわゆる「法律のにおい」については、 ここのリンク).

一般市民が利用できるようになり、弁護士が関与する必要のない法律にAIが適用されることは避けられません。 現在、UPL (Unauthorized Practical of Law) を含むさまざまな制限の結果として、AI ベースの法律相談アプリを利用可能にすることは、厄介で物議をかもしている問題です。 ここのリンク.

AI と法律に関するこの紹介を持ち出し、法律に適用される AI の別の手段として、AI の法律ダブルチェッカーを作成することを指摘しました。

はい、AI を法律に適用するのと同じ種類の技術的能力は、AI を組み込みまたは埋め込みの AI 法務ダブルチェッカーとして使用することにより、二重の義務として機能することができます。 AI 法務ダブルチェッカーは、法的な側面に精通している必要があるコンポーネントです。 AI アプリの残りの部分がさまざまなアクションを実行している場合、AI リーガル ダブルチェッカーは、AI アプリが合法的かつ法的制約の範囲内で実行しているかどうかを評価しています。

AI 法務ダブルチェッカー コンポーネントは、法律について知っておくべきすべての範囲を必ずしもカバーする必要はありません。 AI 全体の目的とアクションに関する AI アプリの性質に応じて、AI 法務ダブルチェッカーは、含まれる法律専門知識の点で、はるかに狭い範囲になる可能性があります。

私は、法的領域の AI が一連の自律能力 (LoA) と呼ばれる一連の自律能力にどのように及ぶかを示すための有用なフレームワークを特定しました。 概要については、私の フォーブス 21 年 2022 月 XNUMX 日のコラム投稿、「弁護士が AI と法律について知る必要がある理由についてのナンセンスで包括的な説得力のある事例」 ここのリンク、詳細な技術的描写については、私の詳細な研究記事を参照してください。 MIT計算法ジャーナル 7 年 2021 月 XNUMX 日の、参照 ここのリンク.

このフレームワークは、法的な取り組みで使用される AI の XNUMX つのレベルを明らかにしています。

  • レベル 0: AI ベースの法務業務の自動化なし
  • レベル 1: AI ベースの法務業務のための単純な支援自動化
  • レベル 2: AI ベースの法務業務のための高度な支援自動化
  • レベル 3: AI ベースの法務業務の半自律的な自動化
  • レベル 4: AI ベースの法務業務のためのドメイン自律
  • レベル 5: AI ベースの法務業務のための完全自律型

ここではそれらについて簡単に説明します。

レベル 0 は、自動化されていないレベルと見なされます。 法的推論と法的タスクは手動の方法で実行され、主に紙ベースのアプローチで行われます。

レベル 1 は、AI の法的推論のための単純な支援自動化で構成されます。 このカテゴリの例には、日常的なコンピューター ベースのワード プロセッシングの使用、日常的なコンピューター ベースのスプレッドシートの使用、電子的に保存および取得されるオンラインの法律文書へのアクセスなどが含まれます。

レベル 2 は、AI の法的推論のための高度な支援自動化で構成されています。 このカテゴリの例には、クエリ スタイルの初歩的な自然言語処理 (NLP)、機械学習 (ML) の単純化された要素、訴訟予測のための統計分析ツールなどの使用が含まれます。

レベル 3 は、AI の法的推論のための半自律的な自動化で構成されています。 このカテゴリの例には、法的推論のための高度な知識ベース システム (KBS) の使用、法的推論のための機械学習とディープ ラーニング (ML/DL) の使用、高度な NLP などが含まれます。

レベル 4 は、AI の法的推論のためのドメイン自律型コンピューター ベースのシステムで構成されます。 このレベルでは、自動運転車に使用されている運用設計ドメイン (ODD) の概念を再利用していますが、法的なドメインにも適用されています。 法的領域は、家族法、不動産法、破産法、環境法、税法などの機能分野によって分類される場合があります。

レベル 5 は、AI の法的推論のための完全に自律的なコンピューター ベースのシステムで構成されています。 ある意味で、レベル 5 は、考えられるすべての法的ドメインを網羅するという点で、レベル 4 のスーパーセットです。 これは非常に難しい注文であることを認識してください。

これらの自動運転レベルは、自動運転車と自動運転車について議論する際の同様の用途と同等に考えることができます (これも公式の SAE 規格に基づいています。 ここのリンク)。 SAE レベル 5 の自動運転車はまだありません。 私たちは SAE レベル 4 の自動運転車に近づいています。 ほとんどの従来の車は SAE レベル 2 ですが、一部の新しい車は SAE レベル 3 に近づいています。

法的ドメインでは、レベル 5 の AILR はまだありません。 非常に狭い ODD ではありますが、いくつかのレベル 4 に触れています。 レベル 3 は日の目を見始めていますが、今日の AILR の主力は主にレベル 2 です。

法律に適用される AI に関する最近の研究記事は、 法律はコードを通知します。 研究者は次のように述べています。 法律はコードを通知する 議題は、AI に法の精神に従うように教えることです。 ノースウェスタン ジャーナル オブ テクノロジー アンド 知的財産、第 20 巻、近日公開予定)。 いくつかの重要な考慮事項があります。 法律はコードを通知する マントラが持ち上がり、それらの重要な教訓のいくつかについて説明します.

このトピックに飛び込む前に、まず AI、特に AI の倫理と AI の法律に関する重要な基礎を築き、議論が文脈的に理にかなっていることを確認したいと思います。

倫理的 AI と AI 法に対する意識の高まり

最近の AI の時代は、最初は次のように見なされていました。 AI For Good、人類の向上のために AI を使用できることを意味します。 に続いて AI For Good 私たちも没頭していることに気づきました 悪い人のためのAI. これには、差別的になるように考案または自己変更され、過度のバイアスを吹き込む計算上の選択を行う AI が含まれます。 AI がそのように構築されている場合もあれば、その不利な領域に方向転換している場合もあります。

今日の AI の性質について、私たちが同じページにいることを十分に確認したいと思います。

今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

私が注目しているタイプの AI は、今日私たちが持っている感覚を持たない AI で構成されています。 知覚力のある AI について荒々しく推測したい場合、この議論は根本的に異なる方向に進む可能性があります。 知覚力のある AI は、おそらく人間の品質を備えているでしょう。 知覚力のある AI は、人間と同等の認知能力を持っていると考える必要があります。 さらに、私たちが超インテリジェント AI を持っている可能性があると推測しているため、そのような AI は最終的に人間よりも賢くなる可能性があると考えられます (可能性としての超インテリジェント AI の私の調査については、 ここでの報道).

物事を現実的に保ち、今日のコンピューターによる非感覚的 AI について検討することを強くお勧めします。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、計算パターンマッチングを活用する機械学習(ML)とディープラーニング(DL)が広く利用されています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

今日の AI を擬人化することには十分注意してください。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI 開発者も何が起こっているのか理解していない可能性があります。 ML/DL の難解な数学は、現在隠された偏見を見つけ出すことを困難にする可能性があります。 AI 開発者が埋もれている可能性のあるバイアスをテストすることを期待し、期待するのは当然ですが、これは思ったよりも難しいことです。 比較的大規模なテストを行ったとしても、ML/DL のパターン マッチング モデルにまだバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

これらはすべて、AI の倫理に非常に重要な意味を持ち、AI を法制化しようとする際に (すべての教訓が生じる前であっても) 学んだ教訓への便利な窓を提供します。

一般にAI倫理の原則を採用することに加えて、AIのさまざまな使用を管理する法律を設ける必要があるかどうかという対応する質問があります。 AIの考案方法の範囲と性質に関係する新しい法律が、連邦、州、地方のレベルで広まっています。 そのような法律を起草して制定する努力は段階的なものです。 AI倫理は、少なくとも、考慮された一時的なギャップとして機能し、ほぼ確実に、ある程度、これらの新しい法律に直接組み込まれます。

AIを対象とする新しい法律は必要なく、既存の法律で十分であると断固として主張する人もいることに注意してください。 彼らは、これらの AI に関する法律の一部を制定した場合、社会に計り知れない利点をもたらす AI の進歩を取り締まることで、黄金のガチョウを殺すことになると警告しています。

これまでのコラムでは、AI を規制する法律を作成して制定するためのさまざまな国内および国際的な取り組みについて取り上げてきました。 ここのリンク、 例えば。 また、さまざまな国が特定して採用したさまざまな AI 倫理の原則とガイドラインについても説明しました。たとえば、200 近くの国が採用したユネスコ AI 倫理のセットなどの国連の取り組みが含まれます。 ここのリンク.

以下は、私が以前に詳しく調べた AI システムに関する倫理的な AI 基準または特性のキーストーン リストです。

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

これらの AI 倫理原則は、AI 開発者だけでなく、AI 開発の取り組みを管理する人々、さらには最終的に AI システムを整備して維持する人々によっても利用されることを真剣に想定されています。

開発と使用の AI ライフサイクル全体にわたるすべての利害関係者は、倫理的 AI の確立された規範を遵守する範囲内にあると見なされます。 これは重要なハイライトです。なぜなら、「コーダーのみ」または AI をプログラムする人だけが AI 倫理の概念を遵守する必要があると通常想定されているからです。 ここで強調したように、AI を考案して運用するには村が必要であり、村全体が AI の倫理規定に精通し、それを遵守する必要があります。

私も最近調べました AI権利章典 これは、科学技術政策局 (OSTP) による XNUMX 年間にわたる取り組みの結果である、「AI 権利章典の青写真: アメリカ国民のために自動化されたシステムを機能させる」というタイトルの米国政府の公式文書の正式なタイトルです。 )。 OSTP は、国家的に重要なさまざまな技術的、科学的、および工学的側面について、米国大統領および米国行政府に助言する連邦組織です。 その意味で、この AI 権利章典は、現存する米国のホワイト ハウスによって承認され、承認された文書であると言えます。

AI 権利章典には、次の XNUMX つのキーストーン カテゴリがあります。

  • 安全で効果的なシステム
  • アルゴリズム差別保護
  • データプライバシー
  • 注意と説明
  • 人間による代替、検討、およびフォールバック

私はそれらの教訓を注意深く見直しました。 ここのリンク.

これらの関連する AI の倫理と AI の法律のトピックに役立つ基礎を築いたので、AI の法的ダブルチェッカーとその領域の頭の痛いトピックに飛び込む準備ができました。 法律はコードを通知する.

人間と価値の整合性のために AI に組み込まれた AI 法的ダブルチェッカー

たまに参考にします AI 法務ダブルチェッカー AI-LDC の頭字語を介して。 これは、頭字語に慣れていない人にとっては視覚的に少し不快です。 そのため、このディスカッションではこの特定の頭字語を使用しませんが、念のために言及したいと思います。

AI 法務ダブルチェッカーの複雑さの一部を解明するために、次の主要なポイントに対処しましょう。

  • AI の人間的価値観の調整メカニズムとしての AI 法務ダブルチェッカーの使用
  • より広範な AI には、それに応じてより堅牢な AI 法務ダブルチェッカーが必要になります。
  • AI 法務ダブルチェッカーが法律を制定し、特に法律を制定していない (おそらく)
  • ルールと標準としての AI の法律の法的具現化の間の微妙なバランス
  • AIが法律を遵守することになると、プディングの証拠が必要になります

紙面の都合上、今はこれら XNUMX つのポイントだけを取り上げますが、これらの急速に進化し、前進している問題について、同様に注目に値する追加の考慮事項をカバーする私のコラムでさらに詳しく取り上げますので、注目しておいてください。

今すぐシートベルトを締めて、爽快な旅の準備をしましょう。

  • AI の人間的価値観の調整メカニズムとしての AI 法務ダブルチェッカーの使用

AI と人間の価値観を調和させるには、さまざまな方法があります。

前述のように、私たちは AI の倫理指針を作成して公布し、AI 開発者や AI を運用して運用する人々に、それらの要点を順守させるよう努めることができます。 残念ながら、これだけではうまくいきません。 必然的にメッセージを受け取らない考案者がいます。 倫理的 AI を見せびらかし、やや緩い規定の原則を回避しようとする工夫がいくつかあります。 等々。

AI倫理を伴う「ソフトロー」アプローチの使用は、AIを作成または利用するすべての人に大きなシグナルを送る法律や規制を通過させるなどの「ハードロー」手段とほぼ容赦なく組み合わせる必要があります。 AI を慎重に活用していない場合、法の支配者があなたを捕まえる可能性があります。 刑務所のドアがカチャカチャという音は、鋭い注目を集める可能性があります。

ただし、大きな問題は、納屋のドアがすでに馬を出し入れしている場合があることです。 配備された AI は、あらゆる種類の違法行為を生み出す可能性があり、逮捕されるまではもちろん、違法行為の流れを妨害するために何らかの執行機関が最終的に介入するまで、そうし続けます。 そのすべてに時間がかかる場合があります。 その間、人間は何らかの形で害を受けています。

この進出には、AI法務ダブルチェッカーが含まれます.

AI リーガル ダブルチェッカーは、AI アプリ内に常駐することで、AI が法律に違反しているように見える場合に即座に検出できます。 AI 法務ダブルチェッカーは、AI を軌道に乗せる可能性があります。 または、コンポーネントは、識別された違法行為について人間に警告し、監督者に緊急の是正措置を迫ることができるタイムリーに警告を発する可能性があります。 コンポーネントが作成できる、考慮された形式化されたログもあり、AI の不利なアクションを体系化する目的で、監査証跡の具体的な類似物を提供します。

私たちの法律は、マルチエージェントの集合体の一種であると言われているため、法律は必然的に、適切な社会的行動と不適切な社会的行動の相反する可能性のある見解の間でバランスをとろうとして社会が求めてきたものの混合物です. したがって、私たちの法律に基づく AI 法務ダブルチェッカーは、その混合物を具現化しています。

特に、これは決定的な法的規則のリストをプログラミングするだけではありません。 法律は、微視的な規則の最も細かい部分を指定するよりも、より順応性が高く、包括的な基準に向けて努力する傾向があります。 複雑さはたくさんあります。

前述の研究論文に戻ると、これらの考慮事項が AI 整合の追求に関してどのように表示されるかを次に示します。 アライメントが問題です。 事前に AI の適切な動作を完全かつ証明可能な形で指示するルールを指定します。 同様に、法的契約の当事者は、関係のすべての不測の事態を予測することはできず、立法者は、法律が適用される特定の状況を予測することはできません. それが、法律の多くが一連の基準である理由です」(同書)。

法律を AI 法務ダブルチェッカーに組み込むことは、最初に想定するよりもはるかに困難です。

AIが進歩するにつれて、それに応じてそのような進歩を活用する必要があります。 ガチョウに良いことは、ガンダーにも良いことがわかりました。 法律に適用されるように AI の進歩を遂げている私たちは、AI の限界を押し広げており、最終的に AI の進歩に完全につながる可能性のある新しい進歩を間違いなく作り上げています。

  • より広範な AI には、それに応じてより堅牢な AI 法務ダブルチェッカーが必要になります。

いたちごっこがこの話題に立ち向かう。

AI がさらに進歩するにつれて、AI 法務のダブルチェッカー コンポーネントが対処するのがますます困難になる可能性があります。 たとえば、精査されている AI アプリは、AI が行っている違法行為を隠すための非常に卑劣な方法を新たに考案した可能性があります。 AI が不正なルートをたどっていない場合でも、AI の全体的な複雑さだけでも、AI 法務のダブルチェッカーによる評価を求める際の困難なハードルになる可能性があります。

これが特に重要になる方法を次に示します。

AI 開発者または AI を利用する企業が、AI ベースのアプリに AI 法務ダブルチェッカーが組み込まれていると宣言したとします。 ほら、彼らは今、それ以上の懸念から手を洗ったようです. AI法務ダブルチェッカーがすべてを処理します。

そうではない。

AI 法務ダブルチェッカーは、関連する AI アプリの性質に対して不十分である可能性があります。 また、AI アプリに関連する最新の法律に更新されていないため、AI 法務ダブルチェッカーが時代遅れになる可能性もあります。 AI 法務のダブルチェッカーが存在するだけでは特効薬にならない理由については、さまざまな理由が予測できます。

先に引用した研究によるこれらの洞察を考慮してください。 開発者が自分のシステムがタスクに関する高度な機能を備えていると主張する場合、それに応じて高度な法的理解と AI の法的推論能力を示す必要があります。これには、時間、前例、および管轄権を超えた法律や規制の泥沼を考慮する際に、事実上、難易度の上限がありません。 」(同上)。

  • AI 法務ダブルチェッカーが法律を制定し、特に法律を制定していない (おそらく)

これらの AI 法務のダブルチェッカーを持つという考えに驚いている人もいると思います。

よく聞かれる懸念の XNUMX つは、AI が私たちに代わって法律を決定することを明らかに許すことになるということです。 なんてこった、あなたは考えているかもしれません。自動化の一部が人類を追い越します。 それらの忌まわしい組み込み AI 法務ダブルチェッカーは、私たちの法律のデフォルトの王になります。 彼らが何をするにしても、法律がそうであるように見えるでしょう。

人間はAIに支配される。

そして、これらの AI 法務のダブルチェッカーは、私たちをそこに導く滑りやすい坂道です。

反論は、そのような話は陰謀論のようなものだというものです. あなたは乱暴に仮定していて、自分自身をぐちゃぐちゃにしています。 現実には、これらの AI 法務ダブルチェッカーは知覚力がなく、地球を乗っ取るつもりはありません。また、彼らの実存的リスクについて誇大宣伝することは、明らかにばかげており、非常に誇張されています。

全体として、冷静で合理的な姿勢を保ちながら、AI 法務のダブルチェッカーは法律を適切に反映する役割を果たしており、意図的にではなく、偶発的に、何らかの形で尊敬されている作成の領域にデフォルトを設定することにもならないことに注意する必要があります。法。 感覚の外挿はさておき、AI法務ダブルチェッカーが特定の法律の本質を誤って伝えてしまう可能性があるという現実的かつ差し迫った懸念があることに、私たちは確かに同意することができます.

言い換えれば、その特定の「誤って伝えられた」法律は、実際の法律によって意図されたものを適切に意味しなくなったため、本質的に新たに作成されていると主張することができます. 率直に言って、これが微妙ではあるが説得力のある考慮事項であることがお分かりいただけると思います。 いつでも、AI 法務ダブルチェッカーは、AI コンポーネントが AI で最初に述べられた、または AI で具現化された法律をどのように解釈するかによって、新しい法律を作成することによって仮想ベースで、または「幻覚」と言うことができます (私の報道では)。いわゆるAIの 幻覚を参照してください ここのリンク).

これに関する注意は、厳重に行使されなければなりません。

このトピックに関して、前述の調査研究は、その神聖な一線を越えることを回避しようとするという観点から、この平行した考えを提示しています。 実際、これは私たちのアプローチを弱体化させます (そして、それを防ぐために多大な努力を払う必要があります)。 むしろ、Law Informing Code の最も野心的な目標は、既存の法的概念と標準の一般化可能性を計算によってエンコードし、検証済みの AI パフォーマンスに埋め込むことです」(同書)。

  • ルールと標準としての AI の法律の法的具現化の間の微妙なバランス

法律は厄介です。

書籍に掲載されているほぼすべての法律について、法律が実際に何を規定しているかについては、さまざまな解釈が存在する可能性があります。 AI 分野の用語では、法律は意味的にあいまいであると呼んでいます。 それが、法律に適用される AI の開発を非常に刺激的であると同時に厄介な課題にしている理由です。 たとえば金融指向の AI アプリケーションで見られる正確な数値計算とは異なり、私たちの法律を AI に具体化したいという欲求は、意味論的曖昧さの津波に対処することを伴います。

AI Legal Reasoning (AILR) の基礎に関する私の財団の著書では、法律を一連の限定されたルールに成文化するだけの以前の試みが、法的な領域で行きたいと思っていたほどうまくいかなかった方法について説明しています。 ここのリンク)。 今日の AILR は、ルールの使用と、法律が表す包括的な基準と呼ばれるものとの統合を包含しなければなりません。

この重要なバランスは、次のように表すことができます。 AIシステムの目的を特定するとき」(同上)。

  • AIが法律を遵守することになると、プディングの証拠が必要になります

何かを欲しがることと、何かを持つことは違います。

AI法務のダブルチェッカーが必要な場合もありますが、それらが機能し、正しく機能することを十分に保証する必要があると提案すると、その知恵が浮かび上がります. これは、別の困難で厳しいハードルを提示することに注意してください。 AI の検証と検証における最新の進歩と課題については、以前に取り上げました。 ここのリンク.

研究論文で指摘されているように、「このギャップに対処するために、AI モデルがますますエージェント機能に展開される前に、たとえば、主要道路での完全自動運転車など、展開する当事者は、システムが人間の目標、ポリシー、および法的基準を理解していることを実証する必要があります。 検証手順は、法的概念の「意味」に対する AI の「理解」を示すことができます」(同上)。

まとめ

AI 法務のダブルチェッカーを構築して運用するというこの崇高な探求に、私と一緒に参加することを検討してください。 この高潔な追求にもっと注意を払い、リソースを投入する必要があります。

これは、前述のように、弁護士を支援するために使用でき、一般大衆が直接使用できる可能性がある AI Legal Reasoning (AILR) を達成するという二重の義務も提供します。 実際、司法への完全なアクセス(A2J)の感覚に到達する唯一の実行可能な手段は、法的能力を体現し、すべての人がアクセスできる AI の作成によるものであると激しく主張する人もいます。

今のところ、簡単な最後のポイントを XNUMX つ。

これまでの議論では、AI 法務ダブルチェッカーが AI に組み込まれるか、埋め込まれることが強調されてきました。 これはまさに、この新たな領域を研究し、取り組んでいる人々の主な焦点です。

ここで、熟考する価値のある質問があります。

あなたの思考の帽子をかぶってください。

すべてのソフトウェアで AI 法務ダブルチェッカーを利用してみませんか?

要点は、AI の法的ダブルチェッカーだけを AI で使用するのではなく、視野を広げる必要があるのではないかということです。 あらゆる種類のソフトウェアが法的に迷う可能性があります。 AI は、日常生活で人間に影響を与える骨の折れる決定を下すなど、AI が通常使用される方法により、大きな注目を集めていることは確かです。 ただし、同様のことを行う AI 以外のシステムがたくさんあることは容易に理解できます。

本質的に、法律を回避または回避するために、ソフトウェアにただ乗りをさせてはなりません。

先ほど、AI と法律を組み合わせた XNUMX つのカテゴリについて言及したことを思い出してください。 ここでは、法律に適用される AI の使用に焦点を当ててきました。 コインの反対側には、AI への法律の適用があります。 AI法務ダブルチェッカーの使用を要求する法律を制定するとします。

これは、最初は特にリスクが高いと評価された AI システムに限定される可能性があります。 徐々に、同じ AI 法務ダブルチェッカー要件が非 AI ソフトウェアにも拡張される可能性があります。 繰り返しますが、無料の乗り物はありません。

あなたが上記の考慮事項にうんざりしている間、私は終わりのティーザーとして物事にスパイスを加えます. AI 法務のダブルチェッカーを義務付けようとしているのであれば、AI の倫理ダブルチェッカーについても同様に行う必要があるかもしれません。 AI 法務ダブルチェッカーの使用は話の半分にすぎず、AI の倫理に関する懸念も無視したり忘れたりすることはできません。

この気晴らしの談話は、私のお気に入りの引用の XNUMX つで締めくくります。 米国の最高裁判所長官を務めた有名な法学者、アール ウォーレンの賢明な言葉によると、「文明化された生活では、法律は倫理の海に浮かんでいます。」

私たちの安全を危険にさらす酸っぱい AI と不機嫌な非 AI システムからの潜在的に迫り来る荒海から頭を守りたいのであれば、これらの新進気鋭の AI 法的ダブルチェッカーと AI 倫理ダブルチェッカーを熱心に使用するのが最善かもしれません。 .

彼らは人類の救命胴衣かもしれません。

出典: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- and-ai-law/