自律型AIシステムでバイアスアルゴリズムを呼び出すためのいわゆるレッドフラッグAI法の確立に懐疑的なAI倫理

レッドフラッグ法について話しましょう。

あなたは間違いなく、レッドフラッグ法の概念が最近ニュースで広く取り上げられていることを知っています。 トピックをカバーする見出しはたくさんあります。 そのような問題に関する情熱と熱烈な議論は、社会的な関心事として頭に浮かび、現在のそして急速に出現している赤旗銃法を伴う。

1800年代後半に制定された、自動車や今日の現代の自動車の先駆者に関する他のレッドフラッグ法に精通していないかもしれません。 はい、そうです、今日の現代の焦点と比較して他のトピックをカバーしていますが、レッドフラッグ法は歴史に遡ります。 これらは通常、レッドフラッグ交通法と呼ばれます。

これらの今やXNUMX年前の、そして完全に廃止された法律は、蒸気によって推進されるモーター付きの馬車またはエンジンは、当時、大人を車両の前に置き、警告の目的で赤い旗を掲げることを要求していました。 家畜は、土やわずかに舗装された道路をゆっくりと不均一にバレルで下る騒々しくて気まぐれな仕掛けに警戒するかもしれないという考えでした。 ご参考までに、鉄道と電車は、レールに一体的に結合された車両であり、それらの行動をカバーする他の法律があったため、同じ法律から除外されたと見なされました。

私たちの公道のすべての車の要件として、今日、赤い旗を振らなければならないことを想像してみてください。

たとえば、近所の通りを降りてくる普通の運転手は、赤い旗を振っている大人が車の前に立ち、パレードしていることを確認する必要があります。 これは、通りを通過するすべての車両に対して行われる必要があります。 たぶん人々は、彼らの前に行って規定された手を振る行動をすることができる友人や親戚がいなかった通りすがりの車の運転手に雇われた赤旗の職人になるでしょう。

今日、私たちは高速道路関連の赤旗を振っている道路を道路建設現場と関連付ける傾向があります。 掘り起こされた道路に近づくと、労働者はあなたの注意を引くために赤い旗を掲げています。 これは、速度を落とし、警戒するように指示します。 あなたの道に突入しようとしているブルドーザーがあるかもしれません。 巨大な穴が前方にある可能性があり、慎重にその周りを横断する必要があります。

しかし、1800年の赤旗の使用に戻りましょう。

信じられないかもしれませんが、赤旗を振るう人は、次の電動機の前に少なくともXNUMX分のXNUMXマイルの距離にあるはずでした。 それはかなり長い距離のようです。 当時はこれが理にかなっていたと思います。 エンジンの驚くべき音と、おそらく車の単なる視界は、動物を不安にさせるのに十分かもしれません。 その時代のレッドフラッグ法のいくつかは、暗くなった距離から視覚的に明らかな赤い予防的警告を見ることができるように、夜間に輝く赤いライトを高く掲げることも要求していました。

一般的に、私たち社会は、何かが潜在的に間違っているか、少なくとも私たちの敬虔な注意が必要であるという一種の信号または標識として赤旗を関連付ける傾向があると断言するのは公正だと思います。

この赤旗現象に少しひねりを加える準備をしてください。

人工知能(AI)に関しては、危険信号の規定を要求する必要があるという論争が浮かんできます。

それは少し驚くべきことであり、多くの頭を悩ませる驚くべき概念です。 いわゆる、どのように、またはなぜあるべきかについて、あなたは戸惑うかもしれません。 レッドフラッグAI法。 この問題を赤旗交通法(1800年代後半のものなど)と区別し、今日の他のより一般的な赤旗銃法と区別するために、これを赤旗AI法とラベル付けしていることに注意してください。

AIの問題に明確かつ排他的に向けられたレッドフラッグAI法が実際に必要ですか?

提案されたアプローチを支持する人々は、過度の偏見を含み、差別的な方法で行動するAIを取り締まるのに役立つ法的規定が絶対に必要であると主張するでしょう。 現在、AIの構築と展開は、西部開拓時代の状況に似ています。 悪いAIを抑える努力は、現在AI倫理ガイドラインの策定と採用に依存しています。 AI倫理と倫理的AIに関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

悪いAIを封じ込める法律はゆっくりと考案され、制定されています。 ここのリンク。 議員たちが十分な速さで進んでいないのではないかと心配する人もいます。 偏ったAIを世界で育てることを可能にする水門は、現在大きく開かれているようです。 手作業によると、新しい法律が本に登場するまでに、邪悪な魔神はすでにボトルから出ているでしょう。

それほど速くはありませんが、反論は進みます。 法が早すぎると、いわば金のガチョウを殺してしまい、AIの取り組みが枯渇し、新しいAIシステムの社会的なメリットが得られなくなるのではないかと心配しています。 AIを管理する一連の新しい法律が、連邦、州、地方のレベルで突然施行された場合、AIの開発者や企業は、AIを使用したいと思うかもしれません。もちろん、進行中の国際的なAI関連の法律も同様です。

この厄介な事件の中には、レッドフラッグAI法の要求があります。

想定される赤旗AI法の根底にある野生的で羊毛のような考慮事項についてもう少し肉とジャガイモに入る前に、非常に重要なトピックに関するいくつかの追加の基礎を確立しましょう。 AI倫理、特に機械学習(ML)とディープラーニング(DL)の登場について簡単に説明する必要があります。

最近のAIの分野で、そしてAIの分野の外でさえ、最も大きな声のXNUMXつが、倫理的なAIのより優れた類似性を求める声で構成されていることを漠然と知っているかもしれません。 AI倫理と倫理AIを参照することの意味を見てみましょう。 その上で、機械学習とディープラーニングについて話すときの意味を探ります。

多くのメディアの注目を集めているAI倫理のXNUMXつの特定のセグメントまたは部分は、不利な偏見や不平等を示すAIで構成されています。 AIの最新の時代が始まったとき、今では何人かが呼んでいるものに対する熱意が爆発的に高まったことをご存知かもしれません。 AI For Good。 残念ながら、その噴出する興奮に続いて、私たちは目撃し始めました 悪い人のためのAI。 たとえば、さまざまなAIベースの顔認識システムには、人種的バイアスや性別バイアスが含まれていることが明らかになっています。 ここのリンク.

反撃するための努力 悪い人のためのAI 活発に進行中です。 声高に加えて 法的 不正行為を抑制することを追求する一方で、AIの卑劣さを正すためにAI倫理を採用することへの実質的な推進力もあります。 概念は、AIの開発とフィールド化のために、主要な倫理的AI原則を採用し、承認する必要があるということです。 悪い人のためのAI 同時に、好ましいものを告げると同時に促進する AI For Good.

関連する概念として、私はAIの問題の解決策の一部として、AIをそのような考え方で火と戦うことを試みることを提唱しています。 たとえば、倫理的なAIコンポーネントをAIシステムに組み込んで、AIの残りの部分がどのように動作しているかを監視し、差別的な取り組みをリアルタイムでキャッチする可能性があります。 ここのリンク。 また、一種のAI倫理モニターとして機能する別のAIシステムを用意することもできます。 AIシステムは、別のAIが非倫理的な深淵に入る時期を追跡および検出するための監督者として機能します(このような機能の分析を参照してください。 ここのリンク).

すぐに、AI倫理の根底にあるいくつかの包括的な原則をあなたと共有します。 あちこちに浮かんでいるこれらの種類のリストがたくさんあります。 あなたはまだ普遍的な魅力と同意の唯一のリストがないと言うことができます。 それは残念なニュースです。 幸いなことに、少なくともすぐに利用できるAI倫理リストがあり、それらは非常に似ている傾向があります。 とにかく、これは、ある種の合理的な収束の形によって、AI倫理が構成されているものの一般的な共通性に向けて私たちが道を見つけていることを示唆しています。

最初に、AIを作成、フィールド化、または使用する人にとって重要な考慮事項となるものを説明するために、倫理的なAIの全体的な原則のいくつかを簡単に説明しましょう。

たとえば、バチカンが ローマはAI倫理を求める そして、私が詳細にカバーしたように ここのリンク、これらは、特定されたXNUMXつの主要なAI倫理原則です。

  • 透明性: 原則として、AIシステムは説明可能でなければなりません
  • インクルージョン: すべての人間のニーズを考慮に入れて、すべての人が利益を得ることができ、すべての個人が自分自身を表現し、成長するための最良の条件を提供できるようにする必要があります
  • 責任: AIの使用を設計および展開する人は、責任と透明性を持って進めなければなりません
  • 公平性: 偏見に従って作成または行動しないでください。これにより、公平性と人間の尊厳が保護されます。
  • 信頼性: AIシステムは確実に機能する必要があります
  • セキュリティとプライバシー: AIシステムは安全に機能し、ユーザーのプライバシーを尊重する必要があります。

米国国防総省(DoD)が 人工知能の使用に関する倫理原則 そして、私が詳細にカバーしたように ここのリンク、これらはXNUMXつの主要なAI倫理原則です。

  • 責任者: DoDの担当者は、AI機能の開発、展開、使用に責任を持ちながら、適切なレベルの判断と注意を払います。
  • 衡平: 部門は、AI機能の意図しないバイアスを最小限に抑えるために慎重な措置を講じます。
  • 追跡可能: 部門のAI機能は、関連する担当者が、透過的で監査可能な方法論、データソース、設計手順とドキュメントなど、AI機能に適用可能なテクノロジー、開発プロセス、運用方法を適切に理解できるように開発および展開されます。
  • 信頼性のある: 部門のAI機能には明確で明確な用途があり、そのような機能の安全性、セキュリティ、および有効性は、ライフサイクル全体にわたってそれらの定義された用途内でテストおよび保証の対象となります。
  • 統治可能: 部門は、意図しない結果を検出して回避する機能と、意図しない動作を示す展開済みシステムを非アクティブ化または非アクティブ化する機能を備えながら、意図した機能を実行するAI機能を設計および設計します。

また、AI倫理の原則のさまざまな集合的分析についても説明しました。これには、「AI倫理ガイドラインのグローバルランドスケープ」というタイトルの論文(公開の 自然)、そして私の報道はで探求していること ここのリンク、このキーストーンリストにつながった:

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

ご想像のとおり、これらの原則の根底にある詳細を特定しようとすると、非常に困難になる可能性があります。 さらに言えば、これらの幅広い原則を完全に具体的で詳細なものに変えて、AIシステムを作成するときに使用できるようにする努力も、難しい問題です。 AI倫理の原則が何であるか、そしてそれらが一般的にどのように守られるべきかについて全体的に手を振るのは簡単ですが、AIコーディングでは、道路に出会う真のゴムでなければならないというより複雑な状況です。

AI倫理の原則は、AI開発者、AI開発の取り組みを管理する開発者、さらにはAIシステムのフィールド化と維持を最終的に実行する開発者によっても利用されます。 開発と使用のAIライフサイクル全体にわたるすべての利害関係者は、倫理的AIの確立された規範に従う範囲内であると見なされます。 これは重要なハイライトです。通常の想定では、「コーダーのみ」またはAIをプログラムするものは、AI倫理の概念に準拠する必要があるためです。 先に述べたように、AIを考案してフィールド化するには村が必要であり、村全体がAI倫理の原則に精通し、それを遵守する必要があります。

また、今日のAIの性質について同じページにいることを確認しましょう。

今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

私が焦点を当てているタイプのAIは、現在私たちが持っている無感覚なAIで構成されています。 乱暴に推測したい場合 衆生 AI、この議論は根本的に異なる方向に進む可能性があります。 感性のAIはおそらく人間の品質のものでしょう。 感性AIは人間の認知的同等物であると考える必要があります。 さらに言えば、私たちが超知能AIを持っているかもしれないと推測する人もいるので、そのようなAIは人間よりも賢くなる可能性があると考えられます(可能性としての超知能AIの探求については、を参照してください)。 ここでの報道).

物事をより現実的に保ち、今日の計算上の非感覚的なAIについて考えてみましょう。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、計算パターンマッチングを活用する機械学習(ML)とディープラーニング(DL)が広く利用されています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI開発者も何が起こっているのか理解していない可能性があります。 ML / DLの難解な数学は、現在隠されているバイアスを見つけるのを困難にする可能性があります。 AI開発者が潜在的に埋もれているバイアスをテストすることを当然期待し、期待するでしょうが、これは見た目よりも難しいです。 比較的大規模なテストを行っても、ML/DLのパターンマッチングモデルにバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

レッドフラッグAI法の焦点に戻りましょう。

根底にある概念は、AIシステムが過度に偏った、または差別的な方法で動作していると信じるときはいつでも、人々は危険信号を上げることができるということです。 あなたはそれ自体が物理的な旗を掲げるのではなく、代わりにあなたの懸念を知らせるために何らかの電子的手段を使用するでしょう。 スキームまたはアプローチの危険信号の部分は、物理的な実施形態というよりも比喩です。

あなたが住宅ローンを申請していたふりをします。 あなたはローンを申請するためにオンラインバンキングサービスを使用することを選択します。 個人データを入力した後、ローンに値するかどうかを判断するために使用されているAIシステムを一時的に待ちます。 AIは、あなたがローンを拒否されたことを通知します。 あなたが拒否された理由の説明を要求すると、テキストによる説明は、AIが意思決定アルゴリズムの一部として過度に偏った要因を使用していたことを示唆しているようです。

AIについて赤旗を掲げる時が来ました。

この赤い旗はどこで正確に振られますか?

それは百万ドルの質問です。

XNUMXつの視点は、人々がAI関連の危険信号をマークできるようにする全国的なデータベースを設定する必要があるということです。 これは連邦政府によって規制されるべきであると言う人もいます。 連邦政府機関は、赤旗を調査し、信憑性について一般大衆の助けを借りて、赤旗報告の集計を刺激したと思われる「悪いAI」に対処する責任があります。

国の赤旗AI法は、議会によって確立されたようです。 法律は、AI関連の危険信号が何であるかを詳しく説明します。 法律は、これらのAIのうめき声の危険信号がどのように発生するかを説明します。 等々。 また、個々の州が独自の赤旗AI法を作成することを選択する場合もあります。 おそらく、彼らは国のイニシアチブの代わりにそうするか、あるいは彼らの特定の州に特に魅力的な詳細を増幅するためにそうします。

連邦政府または政府が支援するRedFlagAIプログラムの批評家は、これは民間企業ができることであり、ビッグブラザーが前面に出る必要はないと主張するでしょう。 業界は、人々がAIシステムに関する危険信号を登録できるオンラインリポジトリを確立することができます。 業界による自主規制措置は、これらの問題に十分に対処するでしょう。

業界のアプローチと称されるものについての不満は、それがえこひいきのように見えるということです。 企業は、個人的に運営されているRed Flag AIデータベースを喜んで遵守しますか? 多くの企業は、AIに関するマークされた危険信号を無視する可能性があります。 企業に入力された危険信号に対処させることに鋭い歯はありません。

ねえ、民間部門のアプローチの支持者は口を閉ざしている、これは全国的なYelpのようなサービスに似ているだろう。 消費者は危険信号を見て、AI指向の多数の危険信号を積み上げてきた企業とビジネスをしたいかどうかを自分で決めることができます。 AIについて多くの危険信号を受け取っていた銀行は、注意を払い、AIシステムを刷新する必要があるため、論理は進みます。そうしないと、消費者は疫病のような会社を避けてしまいます。

このアプローチ全体が政府によって行われるのか、業界によって行われるのかは、提案されている赤旗AI法の前提に直面する厄介な問題に関する氷山の一角にすぎません。

AIを開発または使用している企業の立場に立ってください。 実行可能な根拠がなかったとしても、消費者が危険信号を上げる可能性があります。 人々がAIについての危険信号を自由に投稿できれば、気まぐれに、あるいは消費者に対して何も悪いことをしなかった企業への復讐のために、そうするように誘惑されるかもしれません。

つまり、AIに関する誤検知の危険信号がたくさんある可能性があります。

もうXNUMXつの考慮事項は、結果として生じる危険信号のサイズまたは大きさです。 何百万もの危険信号が発生する可能性があります。 誰がこれらすべての危険信号をフォローアップするのでしょうか。 そうするための費用はいくらですか? レッドフラッグのフォローアップ活動の費用は誰が負担しますか? 等。

AIに関する危険信号を登録または報告する人は誰でも料金を支払わなければならないと言うなら、あなたは暗くて陰湿な領域に入りました。 懸念されるのは、裕福な人だけが危険信号を上げる余裕があるということです。 これは、貧困層が赤旗活動に平等に参加することができず、本質的に不利なAIについて警告する場所がないことを意味します。

今のところもうXNUMXつ追加の工夫があります。つまり、AIに関するこの種の危険信号の法律やガイドラインは、事前に警告として機能するのではなく、事後になっているようです。

赤旗交通法に戻ると、赤旗を使用することの重点は、最初から災害を回避することでした。 赤い旗を振る人は、次の車よりずっと先にいるはずだった。 車両の前にいることで、家畜に警告が発せられ、家畜を守っている人々は、間もなく到着する妨害源のために予防策を講じるべきであることを知るでしょう。

人々がすでに自分たちの権利を傷つけている、または弱体化させているように見えるAIについての危険信号を上げることができるだけである場合、ことわざの馬はすでに納屋から出ています。 これが達成しているように見えるのは、うまくいけば、一緒にやってくる他の人々がそのAIシステムに警戒していることを知っているということです。 その間、不当な扱いを受けたとされる人はすでに苦しんでいます。

人々がAIについての危険信号を上げることを許可できるかもしれないと示唆する人もいます 容疑者 AIを使用しておらず、AIの影響を直接受けていなくても、バイアスがかかる可能性があります。 したがって、ダメージが発生する前に赤い旗が振られます。

Yikes、レトルトに行きます、あなたは本当にAI対処の赤い旗を完全に手に負えない、混沌とした事件にするつもりです。 なんらかの理由で誰かがAIシステムについて危険信号を発することができれば、そのAIで何もしていなくても、あなたは危険信号で溢れかえります。 さらに悪いことに、もみ殻から小麦を見分けることはできません。 レッドフラッグアプローチ全体が自重で崩壊し、浮浪者とリフラフが船全体を沈めることを可能にすることでアイデアの良さを損ないます。

目がくらむような混乱。

この重要な議論のこの時点で、あなたはこのトピックを紹介するかもしれないいくつかの実例を望んでいるに違いありません。 私の心に近い特別で確実に人気のある例のセットがあります。 倫理的および法的な影響を含むAIの専門家としての私の立場では、トピックのやや理論的な性質をより簡単に把握できるように、AI倫理のジレンマを示す現実的な例を特定するように頻繁に求められます。 この倫理的なAIの難問を鮮明に表現する最も刺激的な分野のXNUMXつは、AIベースの真の自動運転車の登場です。 これは、このトピックに関する十分な議論のための便利なユースケースまたは模範として役立ちます。

次に、検討する価値のある注目すべき質問を示します。 AIベースの真の自動運転車の出現は、赤旗AI法について何かを明らかにしていますか?もしそうなら、これは何を示していますか?

質問を解くために少し待ってください。

まず、真の自動運転車には人間のドライバーが関与していないことに注意してください。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手が運転する必要はなく、人間が車両を運転するための設備もありません。 Autonomous Vehicles(AV)、特に自動運転車に関する広範囲にわたる継続的な報道については、を参照してください。 ここのリンク.

真の自動運転車とはどういう意味かをさらに明確にしたいと思います。

自動運転車のレベルを理解する

明確にするために、真の自動運転車とは、AIが完全に自力で車を運転し、運転タスク中に人間の支援がない車のことです。

これらの自動運転車はレベル4およびレベル5と見なされます(私の説明を参照してください) ここでは、このリンク)、一方、人間の運転手が運転努力を共有する必要がある車は、通常、レベル2またはレベル3と見なされます。運転タスクを共有する車は、半自律的であると説明され、通常、さまざまなADAS(先進運転支援システム)と呼ばれる自動化されたアドオン。

レベル5にはまだ真の自動運転車はなく、これを達成できるかどうか、またそこに到達するまでにどれくらいの時間がかかるかはまだわかりません。

一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路や小道で行われている、いくつかの主張、で私の報道を参照してください ここでは、このリンク).

半自律型の車には人間のドライバーが必要であるため、これらのタイプの車の採用は、従来の車の運転とそれほど変わりません。そのため、このトピックについてそれ自体をカバーすること自体はそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。

半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。

レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。

自動運転車と赤旗AI法

レベル4とレベル5の真の自動運転車両の場合、運転タスクに人間のドライバーは関与しません。

乗客はすべて乗客となります。

AIが運転を行っています。

すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。

AIが知覚力を持たないことを強調しているのはなぜですか?

AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。

その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。

このトピックで遊びに来る無数の側面に飛び込みましょう。

まず、すべてのAI自動運転車が同じであるとは限らないことを認識することが重要です。 各自動車メーカーと自動運転技術会社は、自動運転車を考案するためのアプローチを取っています。 そのため、AI駆動システムが何をするか、何をしないかについて、大胆な発言をすることは困難です。

さらに、AI駆動システムが特定のことを行わないと述べるときはいつでも、これは後で、実際にそのことを行うようにコンピューターをプログラムする開発者によって追い抜かれる可能性があります。 AI駆動システムは段階的に改善され、拡張されています。 現在の既存の制限は、システムの将来のイテレーションまたはバージョンでは存在しなくなる可能性があります。

それが、私がこれから関わろうとしていることの根底にある十分な警告を提供することを願っています。

赤旗AI法を活用する可能性のあるシナリオをスケッチしてみましょう。

AIベースの自動運転車に乗り込み、自律走行車で地元の食料品店まで運転してもらいたいと考えています。 比較的短い旅の間に、AIはあなたがやや間違っているように見えるルートをたどります。 AIは、最も直接的な方法ではなく、邪魔にならない通りに移動します。これにより、運転時間が通常よりも長くなります。

何が起こっている?

自動運転車の使用料を支払っていると仮定すると、AIがより長いルートを運転して、旅行の運賃や費用を押し上げるようにプログラムされているのではないかと疑うかもしれません。 従来の人間が運転するタクシーを利用したことがある人なら誰でも、メーターでより多くの生地を手に入れるために行われる可能性のあるトリックを知っています。 もちろん、タクシーなどに乗っているときにスマートフォンでGPSを使用している人は、不必要に長いルートをこっそりと進んでいるように見える人間のドライバーを簡単に捕まえることができます。

ルートの選択について別の懸念があることがわかりました。これは本当にあなたを悩ませています。

人種的側面のために町の特定の部分を回避するためにルーティングが行われたと仮定します。 そのような選択をしているのを捕らえられた人間の運転手の記録されたケースがあります、で私の議論を見てください ここのリンク. おそらく、AIは逆にプログラムされています。

あなたは赤旗を掲げることにしました。

議論のために、あなたの管轄をカバーする赤旗AI法が制定されたと仮定しましょう。 それは、地方法、州法、連邦法または国際法である可能性があります。 コミュニティが自動運転車の使用を採用する際の地域のリーダーシップの重要性の高まりについて、ハーバード大学のAutonomous Vehicle Policy Initiative(AVPI)と共同執筆した分析については、を参照してください。 ここのリンク.

したがって、RedFlagAIデータベースにオンラインでアクセスします。 インシデントデータベースには、自動運転車の旅に関する情報を入力します。 これには、自動運転車のブランドとモデルに加えて、運転トレッキングの日時が含まれます。 次に、疑わしいと思われるナビゲーションルートに入り、AIが偏った、または差別的な意図と能力で考案されたと示唆している、または完全に主張している。

この特定のシナリオで次に何が起こるかについては、赤旗AI法の他の詳細について推測する必要があります。 理論的には、誰かが危険信号を確認するための規定があります。 彼らはおそらく、自動車メーカーや自動運転技術会社に、記録された赤旗についての彼らの見解を説明してもらうことを目指しているでしょう。 他にいくつのそのような危険信号が登録されていますか? それらの危険信号はどのような結果を生み出しましたか?

そして、それは行きます。

まとめ

前哨戦、一部の懐疑論者は勧めます。

レッドフラッグAI法は必要ありません、彼らは厳しく行使します。 AIのペースと進歩に関しては、この種のことを行うと作業が混乱します。 そのような法律は扱いにくいでしょう。 あなたは問題を解決しない問題を作成しているでしょう。 悪いAIに対処する他の方法があります。 偏ったAIに対処するためにストローを盲目的につかまないでください。

ギアをシフトすると、闘牛士が怒っている雄牛の注意を引くために赤いマントを使用していることは誰もが知っています。 赤は私たちがこの慣習に最も関連する色ですが、科学者が雄牛はムレータの赤い色を認識しないと言っていることを知って驚くかもしれません(彼らは赤に色盲です)。 人気のショー 怪しい伝説 この問題について非常に面白い調査を行いました。 岬の動きは、選択した色ではなく、重要な要素です。

レッドフラッグAI法の必要性を捨てる人々にとって、反訴は、AI開発者やAIを展開する企業が偏った、または悪いAIを回避することを確実にするために、劇的で紛れもない手を振る性質のものが必要であるということです。 赤旗がなければ、ひらひらと舞う岬や基本的にあらゆる種類の警告アプローチは、十分な考慮を払う範囲内にあるかもしれません。

悪いAIが存在し、さらに多くの悪いAIが私たちの方向に向かっていることは確かです。 不利なAIから身を守る方法を見つけることは非常に重要です。 同様に、悪いAIが世界に侵入するのを防ぐためにガードレールを設定することも同様に重要です。

アーネスト・ヘミングウェイは、闘牛士を除いて、誰も人生をずっと生きていないことで有名です。 AIの悪さや狂気が私たちに広まっているにもかかわらず、人間がずっと生きていけるようにする必要があります。

ソース:https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out-バイアスされたアルゴリズム-in-autonomous-ai-systems/