AI倫理とAI法は、既存および将来のすべてのAIに安全警告を義務付けるように促され、推進される可能性があります

あなたの日々の活動は、間違いなく、何千もの予防的警告にさらされています。

サイズについては、これらを試してください。

  • 安全メガネは常に着用する必要があります
  • 危険: 危険な化学物質が近くにあります
  • 高電圧 - 立ち入り禁止
  • 警告: 周囲に注意してください
  • 鏡の中の物体は見た目より近くにある
  • 折りたたむ前にお子様を降ろしてください (ベビーカーに記載されています)。
  • 注意: このメッセージは無視してください

それらのほとんどは、うまくいけば私たちを安全に保つのに役立つ、便利で完全に思慮深い標識またはラベルです.

いくつかの注目すべき点を示すために、リストにいくつかの「外れ値」を抜粋したことに注意してください.

たとえば、ベビーカーに、赤ちゃんがまだ装置の中に座っている間はベビーカーを折りたたまないように警告するラベルが貼られているのはおかしいと考える人もいます。 この記号は確かに適切であり、忠実に有用ですが、基本的な常識はすでに十分であるように思われます.

最初に赤ちゃんを連れ去る必要があることに、自分のマインドフルな意志で気付かない人がいるでしょうか?

そうですね、そのようなラベルが重要な目的を果たしていると強調する人もいます。 まず、ベビーカーを折りたたむ前に赤ちゃんを降ろさなければならないことを本当に忘れている人がいるかもしれません。 おそらくその人は、折りたたみ操作が赤ちゃんに害を及ぼさないようにベビーカーが巧妙に設計されていると思っていたのでしょう。 または、ベビーカー内に子供がいるときはいつでも折りたたまれるのを防ぐ組み込みの安全機能があるかもしれません. 等。

また、その人が気が散っていて、ベビーカーを無意識に折りたたんで、赤ちゃんなどを包み込んでいた可能性がありますが、ラベルは幸運にもそうしないように促しました (そのような人がラベルに気付く可能性は低いと主張する人もいます)。とりあえず)。 そのようなラベルが存在しない場合、誰かがベビーカーのメーカーを訴える可能性があるという事実もあります. 赤ちゃんが負傷し、ベビーカーに警告サインが貼られていなかったために親がXNUMX万ドルを獲得することを決定した、多額の訴訟のXNUMXつを想像することができます. ベビーカー会社は、警告サインを作成してベビーカーに貼り付けるのに必要な数セントを費やさなかったことを後悔するでしょう.

上に挙げた最後の警告メッセージもよく見てください。

最近、人々が楽しみのために購入したり作ったりする偽の警告ラベルがたくさんあるので、メッセージを無視することを確認するという卑劣なメッセージを配置することにしました. これは真の哲学的マインドベンダーです。 警告を無視するようにという警告を読んだ場合、警告を読んだ後に正確に何をすべきですか? あなたはすでにそれを読んでいるので、表向きはあなたの心の中にあります。 もちろん、無視することもできますが、何を無視すべきかについては、まったくアドバイスされません。 ぐるぐる、この冗談は続きます。

もちろん、善意の警告ラベルは通常、冗談やユーモラスな性質のものではありません。

私たちは警告を非常に真剣に受け止めなければなりません。

通常、注意された警告に従わなかった場合、個人的に重大なリスクを負うことになります。 また、警告を遵守しないと、他の人も過度の危険にさらされる可能性があります。 車を運転する行為を考えてみましょう。 あなたが車のハンドルを握っている瞬間、運転者としてのあなたの行動は自分自身を傷つける可能性があり、さらにあなたは同乗者を傷つけ、他の車の乗客や近くの歩行者などの他人を傷つける可能性があります. その意味で、警告はあなたのためだけではなく、他の人のためにもなる可能性があります。

警告や注意ラベルのこれらの側面を取り上げているのはなぜですか?

一部の人々は、今日の人工知能 (AI) に関する警告と警告の兆候が必要であると強く主張しています。

実際には、現在の AI と将来の AI にもそのようなラベルを付けるという考え方です。 全体として、すべての AI は、それに関連付けられた警告または警告表示の何らかの形式または変形を持つことになります。

良いアイデアですか、それとも悪いアイデアですか?

実用的か非実用的か?

先に進んで概念を解き明かし、それから何ができるか見てみましょう。

まず、AI、特に AI の倫理と AI の法律について、いくつかの重要な基礎を築き、AI の警告のトピックが文脈上適切なものになるようにします。 倫理的 AI と AI 法に一般的に関心がある方は、次の URL で私の広範な継続的な記事を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

倫理的 AI と AI 法に対する意識の高まり

最近の AI の時代は、最初は次のように見なされていました。 AI For Good、人類の向上のために AI を使用できることを意味します。 に続いて AI For Good 私たちも没頭していることに気づきました 悪い人のためのAI. これには、差別的になるように考案または自己変更され、過度のバイアスを吹き込む計算上の選択を行う AI が含まれます。 AI がそのように構築されている場合もあれば、その不利な領域に方向転換している場合もあります。

今日の AI の性質について、私たちが同じページにいることを十分に確認したいと思います。

今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

私が注目しているタイプの AI は、今日私たちが持っている感覚を持たない AI で構成されています。 知覚力のある AI について荒々しく推測したい場合、この議論は根本的に異なる方向に進む可能性があります。 知覚力のある AI は、おそらく人間の品質を備えているでしょう。 知覚力のある AI は、人間と同等の認知能力を持っていると考える必要があります。 さらに、私たちが超インテリジェント AI を持っている可能性があると推測しているため、そのような AI は最終的に人間よりも賢くなる可能性があると考えられます (可能性としての超インテリジェント AI の私の調査については、 ここでの報道).

物事を現実的に保ち、今日のコンピューターによる非感覚的 AI について検討することを強くお勧めします。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、計算パターンマッチングを活用する機械学習(ML)とディープラーニング(DL)が広く利用されています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

今日の AI を擬人化することには十分注意してください。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI 開発者も何が起こっているのか理解していない可能性があります。 ML/DL の難解な数学は、現在隠された偏見を見つけ出すことを困難にする可能性があります。 AI 開発者が埋もれている可能性のあるバイアスをテストすることを期待し、期待するのは当然ですが、これは思ったよりも難しいことです。 比較的大規模なテストを行ったとしても、ML/DL のパターン マッチング モデルにまだバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

これらはすべて、AI の倫理に非常に重要な意味を持ち、AI を法制化しようとする際に (すべての教訓が生じる前であっても) 学んだ教訓への便利な窓を提供します。

一般にAI倫理の原則を採用することに加えて、AIのさまざまな使用を管理する法律を設ける必要があるかどうかという対応する質問があります。 AIの考案方法の範囲と性質に関係する新しい法律が、連邦、州、地方のレベルで広まっています。 そのような法律を起草して制定する努力は段階的なものです。 AI倫理は、少なくとも、考慮された一時的なギャップとして機能し、ほぼ確実に、ある程度、これらの新しい法律に直接組み込まれます。

AIを対象とする新しい法律は必要なく、既存の法律で十分であると断固として主張する人もいることに注意してください。 彼らは、これらの AI に関する法律の一部を制定した場合、社会に計り知れない利点をもたらす AI の進歩を取り締まることで、黄金のガチョウを殺すことになると警告しています。

これまでのコラムでは、AI を規制する法律を作成して制定するためのさまざまな国内および国際的な取り組みについて取り上げてきました。 ここのリンク、 例えば。 また、さまざまな国が特定して採用したさまざまな AI 倫理の原則とガイドラインについても説明しました。たとえば、200 近くの国が採用したユネスコ AI 倫理のセットなどの国連の取り組みが含まれます。 ここのリンク.

以下は、私が以前に詳しく調べた AI システムに関する倫理的な AI 基準または特性のキーストーン リストです。

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

これらの AI 倫理原則は、AI 開発者だけでなく、AI 開発の取り組みを管理する人々、さらには最終的に AI システムを整備して維持する人々によっても利用されることを真剣に想定されています。

開発と使用の AI ライフサイクル全体にわたるすべての利害関係者は、倫理的 AI の確立された規範を遵守する範囲内にあると見なされます。 これは重要なハイライトです。なぜなら、「コーダーのみ」または AI をプログラムする人は、AI 倫理の概念に従う必要があると通常想定されているからです。 ここで強調したように、AI を考案して運用するには村が必要であり、村全体が AI の倫理規定に精通し、それを遵守する必要があります。

私も最近調べました AI権利章典 これは、科学技術政策局 (OSTP) による XNUMX 年間にわたる取り組みの結果である、「AI 権利章典の青写真: アメリカ国民のために自動化されたシステムを機能させる」というタイトルの米国政府の公式文書の正式なタイトルです。 )。 OSTP は、国家的に重要なさまざまな技術的、科学的、および工学的側面について、米国大統領および米国行政府に助言する連邦組織です。 その意味で、この AI 権利章典は、現存する米国のホワイト ハウスによって承認され、承認された文書であると言えます。

AI 権利章典には、次の XNUMX つのキーストーン カテゴリがあります。

  • 安全で効果的なシステム
  • アルゴリズム差別保護
  • データプライバシー
  • 注意と説明
  • 人間による代替、検討、およびフォールバック

私はそれらの教訓を注意深く見直しました。 ここのリンク.

これらの関連する AI の倫理と AI の法律のトピックに役立つ基礎を築いたので、AI に警告ラベルを付ける必要があるかどうかという頭の痛いトピックに飛び込む準備ができました。

目を見張るような有益な旅に備えましょう。

人類を守る手段としてAIに警告ラベルを貼る

おそらく AI は何らかの警告を発するべきだという噂が広まっています。

たとえば、最近の記事では MITテクノロジーレビュー AI の監査を行うことへの関心の高まりについて論じた論文では、警告サインを提供するという概念が生まれました。 化学薬品や食品などの他のセクターでは、製品が安全に使用できることを確認するために定期的な監査を受けています。 このようなことが AI の標準になる可能性はありますか?」 (MITテクノロジーレビュー、メリッサ・ヘイッキラ、24 年 2022 月 XNUMX 日)。

警告と注意の兆候について、全体的に少しお話しましょう。

私たちは皆、日常的な性質の多数の製品やサービスに警告や注意を喚起する兆候をすでによく知っています。 安全標識が必要であると法律で規定されている場合もあれば、そのような標識の使用に関して裁量権がある場合もあります。 さらに、ANSI Z535 規格および OSHA 1910.14 規格に従って指定されているなど、一部の安全標識は標準化されています。 これらの基準は、標識の文言、使用される色とフォント、標識の形状、およびその他のさまざまな詳細などの側面をカバーしています。

そのような警告標識の基準を設けることは理にかなっています。 このような標識を目にするたびに、規定の基準を満たしていれば、その標識が正当であると信じる可能性が高くなり、標識を分析して理解するための認知処理が少なくて済みます。 標準化されたアプローチではない兆候の場合、多くの場合、その兆候が何を伝えているかを頭の中で計算する必要があり、行動を起こすための貴重な時間を失ったり、兆候を完全に誤解して目の前の警告を適切に理解できなかったりする可能性があります。

そのような兆候の範囲が存在する可能性があり、それらはしばしば次のように分類されます。

  • 危険の兆候:最も懸念され、深刻な結果を招く差し迫った危険を示します
  • 警告サイン: 「危険」よりは小さいが、それでもかなり深刻な危険を示します。
  • 注意のサイン: 「警告」よりは少ないが、実際には深刻な潜在的な危険を示します。
  • 通知サイン:「注意」よりは少ないが、懸念すべき側面を伴う情報提供の注意喚起を示します

警告と警告標識に関する前述の背景を考えると、AI の使用にこれをコンテキストに適用してみることができます。

まず、AI サイネージが日常の兆候と同様の重大度の範囲にある可能性があることに、何らかの形で同意できる可能性があります。たとえば、次のようになります。

  • AI 危険サイン: 最も懸念される AI であり、重大な結果をもたらす可能性が高い差し迫った危険を示す AI
  • AI 警告サイン: 「危険」よりは少ないが、それでもかなり深刻なハザードを示す AI
  • AI 警告サイン: AI が潜在的な危険を「警告」未満であるが実際に深刻に示す
  • AI 通知サイン: 「注意」よりは少ないが、懸念すべき側面を伴う情報提供の注意喚起を示す AI

要点は、すべての AI が同じように当惑させる懸念があるわけではないということです。 AI が多大なリスクをもたらすか、わずかなリスクしか持たない可能性があります。 したがって、標識はどれがどれであるかを反映する必要があります。 すべての AI の警告または警告サインが単に同じ口径のものとして示されている場合、AI について非常に懸念するべきか、それともわずかに懸念するだけなのか、おそらくわからないか、認識していないでしょう。 類型化された文言スキームを使用すると、AI 関連の警告サインを見て解釈する際の作業が楽になる可能性があります。

伝えられるメッセージの詳細に関して、標識が他に何を言っているのか疑問に思われるかもしれません。

それは確かに取り組むのが難しい問題です。 安全でないと考えられていることや気になることを AI が実行できる可能性は非常に大きく、ほぼ無限です。 それらを、それぞれほんの一握りの単語で綴られたルーチン化されたセットに煮詰めることができますか? それとも、文言がどのようになるかについて、より自由なアプローチを許可する必要がありますか?

その未解決の問題について考えさせてください。

先に進むと、オブジェクトに警告標識が掲示されているのを目にする傾向があります。 AIシステムは、慣習的な標識の貼り付けと同じ意味で、必ずしも「オブジェクト」ではありません。 これにより、AI の警告サインがどこに表示されるのかという問題が生じます。

たとえば、スマートフォンでアプリを実行しているときに、AI を使用している場合、AI 関連の警告を含むメッセージが表示される可能性があります。 アプリは、AI の根本的な使用について警告します。 これは、ポップアップ メッセージである場合もあれば、さまざまな視覚的、さらには聴覚的な方法で提示される場合もあります。

また、AI と直接対話していない場合でも、AI に支えられたサービスを使用している状況もあります。 たとえば、住宅ローンの取得について人間のエージェントと会話している場合、そのエージェントは AI システムを使用して裏方で静かに作業を進めています。

したがって、次のような AI の警告サインが両方の AI ユース ケースに存在する必要があると予想する必要があります。

  • 製品固有の AI: 製品としての AI には、明確な AI 警告または警告サインが必要です
  • サービス指向の AI: サービスとしての AI (直接的または間接的) には、AI の警告または警告の兆候が必要です。

懐疑論者は、AI の警告サインがアプリ メーカーによって巧妙に偽装されている可能性があることをすぐに示唆し、アラートが特に目立たないようにすることは確かです。 おそらく、警告は一瞬だけ表示され、それが表示されたことに気付かないでしょう。 もう XNUMX つの卑劣なトリックは、一種のゲームを作成して、警告の深刻さを軽視し、警告が取るに足らないものであると人々に思わせることです。

はい、AI 関連の警告サインは、伝えられるはずの警告メッセージの精神と意図の範囲内にない方法でだまされて使用されることはほぼ間違いありません。

これらの懐疑論はすべて、AI 倫理を「ソフトロー」として使用して AI 関連の警告と警告を推進しようとするのか、それとも裁判所の支援を受けて制定された法律を含む「ハードロー」を使用するのかということに当てはまります。 理論的には、ソフトローの推進により、問題をいじくりまわすように見せることができますが、本の法律は政府の施行の可能性を伴い、より厳格になります。

もう XNUMX つの懸念事項は、AI サイネージがとにかく違いを生むかどうかです。

消費者行動に関する多くの研究は、消費者に警告ラベルを提供することに関して、混乱した結果を示す傾向があります. 警告が効果的な場合もあれば、そうでない場合もあります。 その研究の一部を AI のコンテキストに適用してみましょう。

次の側面を考慮してください。

  • 検出: 実行可能な AI 警告サインを含む AI を使用している人は、サインが表示されていることを積極的に認識または検出しますか (そのようなサインが発生したと仮定して)?
  • 読解: 気づいた人は、AI の警告サインが彼らに何を示唆しようとしているのかを理解しているでしょうか?
  • アクション: その精神的な飛躍を遂げた人にとって、AI の警告サインは彼らに行動を促したり、それに応じて彼らの行動を誘導したりするのに役立ちますか?

AI の警告サインの勢いが増せば、研究者はこの問題を綿密に研究するようになると予想できます。 アイデアは、警告が役立つ状況とそうでない状況を明確にするのに役立つことです。 これは、関連するデザインとルック アンド フィールに関連しています。 また、これらの AI の警告や警告の兆候の出現について、一般大衆が慣れるように教育または情報提供する必要があると予想されるかもしれません。

考慮すべき紆余曲折がたくさんあります。

AI の警告または警告サインは、使用中のアプリの開始時にのみ発生する必要がありますか? おそらく、出発点だけでは十分ではありません。 人は一見、アプリが警告を使用して安全にプレイしているだけであると考え、警告をあまり考慮していない可能性があります。 その人がアプリを使い始めたら、追加の警告が必要になるかもしれません。 その時点で、その人はアプリが何を行っているかをより認識しており、以前に示された警告メッセージをすでに忘れている可能性があります.

その後、AI の警告または警告が発生する可能性があります。

  • アプリを起動する前、およびアプリが呼び出されようとしているとき
  • アプリが開始されると、開始点でのみ表示されます
  • 開始時と途中で再度表示されます
  • AI の使用中に複数回表示される
  • アプリ利用終了時に付与
  • アプリを終了した後、場合によっては数分、数時間、または数日後に提供する

AI の使用者は、そのような AI の警告または警告サインを確認または認識する必要があると思いますか?

警告を見たことを認めるように要求されるべきだと主張する人もいます。 これにより、警告メッセージがなかったと主張する人を未然に防ぐことができます。 また、警告表示を観察したかどうかを確認するように求められていることを考えると、人々がメッセージをより真剣に受け止める原因になる可能性もあります。

ここにあなたにとって難しい質問があります。

すべき AI は警告または安全表示を提供する必要がありますか?

はい、すべての AI がこれを備えている必要があると主張するかもしれません。 AI がほんのわずかな安全上のリスクにすぎないとしても、何らかの警告サイン、場合によっては単なる通知または情報表示が必要です。 他の人はこの主張に異議を唱えるでしょう。 彼らはあなたが船外に出ていると反論するでしょう. すべての AI がこれを必要とするわけではありません。 さらに、すべての AI にそれを強制すると、目的が希薄になります。 人々は警告表示を見ることに無感覚になります。 アプローチ全体が茶番になります。

関連する角度から、AI メーカーが何を言いそうなのかを考えてみましょう。

XNUMX つの見方としては、これは、何を導入するかを決めるのに苦労するだろうということです。 すべての AI システムを変更してこの機能を追加する必要があると、コストがかかる可能性があります。 将来的に追加する方が費用はかからないかもしれませんが、それでもこの規定を含めることに関連する費用はかかります。

かすみは、別の潜在的な苦情です。 どのようなメッセージを表示する必要がありますか? 標準がない場合、AI メーカーは新たに何かを作成する必要があることを意味します。 この追加費用が発生するだけでなく、訴えられる可能性があります。 AI メーカーは、警告が他の AI システムほど良くなかったというタスクを課される可能性があることは想像に難くありません。 弁護士は、結果として生じる混乱からバンドルを作成することになります。

また、これらの安全メッセージによって人々が過度に怖がるという懸念もあります。

AI メーカーは、単に情報提供の注意を提供することを意図した安全メッセージが原因で、ユーザー数が急激に減少する可能性があります。 人々はメッセージをどう解釈すればよいかわかりません。 以前にそのようなメッセージを見たことがない場合、彼らはすぐにびっくりして、不必要に AI の使用を避ける可能性があります。

AI の警告や安全メッセージを含め始めても「害はない」とすでに宣言している人もいるので、これらの側面について言及します。 彼らにとって、このアイデアはアップルパイと同じくらい理想的です。 AI 関連の安全性や警告を常に要求することのメリットを真剣に否定する人は誰もいません。 しかしもちろん、それはこの問題についての現実世界の考え方ではありません。

さらに進んで、AI の警告メッセージが何らかの集団ヒステリーを引き起こす可能性があると主張することもできます。 突然 AI システムにそのようなメッセージを強制し始めた場合、人々はその意図を誤解する可能性があります。 ご存知のように、AI が世界を乗っ取り、人類を一掃しようとしている AI の実存的危機に直面しているという説がたくさんあります。 ここのリンク そのような主張の私の分析のために。

AI の警告メッセージを使用すると、一部の人々は終わりが近づいていると信じるようになる可能性があります。 他になぜメッセージが表示されるのでしょうか? 確かに、これは最終的に、AI が私たちの抑圧的な支配者になる準備ができていることを示しています。

AIに差別的な能力やその他の能力をどのように注入できるかを一般の人々に認識させることによって、正しいことをしようとする一種の絶望的に暗い結果 悪い人のためのAI 側面。

まとめ

アメリカの有名な詩人、ジェームズ・ラッセル・ローウェルはかつてこう言いました。

AI の警告または安全メッセージの問題について、いくつかの結論を述べるために、私は高尚な発言を持ち出します。

AI が悪いことをしているという認識がある程度広まるまでは、AI 関連の警告メッセージに対する騒ぎはあまり起こらない可能性があります。 自発的にそうすることを選択した AI メーカーはおそらく称賛されるでしょうが、不注意で不当な嫌がらせを受けることにもなりかねません。 一部の専門家は、一見警告が必要と思われる AI を活用しているとして彼らを追いかけるかもしれません。

あなたがそうするなら、おそらくあなたがそうしないなら、おそらくそうではありません。

別の考慮事項は、優れた概念的アイデアのように見えるものを実用的で有用な実践に変えることです。 手を振って、AI が警告と安全のメッセージを表示する必要があると漠然と大声で叫ぶのは簡単です。 困難な部分は、それらのメッセージが何であるべきか、いつ、どこで提示されるべきか、それらのコストが十分な利益をもたらしているかどうか、またはどの程度得られているかなどを決定するときに発生します。

ここでジェームズ・ラッセル・ローウェルがこのトピックに関する最後の言葉を (詩的にそう) 与えます。

袖をまくり上げて、これに取り掛かる時が来たと思います。 それは単なる警告ではなく、行動です。

出典: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety-すべての既存および将来の AI に関する警告/