プラトンは、良い決断は数字ではなく知識に基づいていると有名に述べています。
この鋭い洞察は、今日の人工知能(AI)について驚くほど先見の明があるようです。
AIが何らかの形で感性に達し、人間の知識と推論を具体化したと現在宣言している目立つ見出しにもかかわらず、今日のアルゴリズムの意思決定(ADM)ではまだ数の計算に依存しているため、この誇張されたAIハイパーボールは陰湿な偏見であることに注意してください)AIシステムによって行われるように。 自慢の機械学習(ML)とディープラーニング(DL)でさえ、計算パターンマッチングで構成されています。つまり、数字は依然としてML/DLの高度な使用の中心にあります。
AIが感性に到達できるかどうかはわかりません。 可能性があります、そうでない可能性があります。 これがどのように発生するかは誰にもわかりません。 ある種の感性が自発的に発生するように、計算AIの取り組みを段階的に改善すると考える人もいます。 他の人は、AIが一種の計算超新星に入り、それ自体でほとんど感覚に達するかもしれないと考えています(通常は特異点と呼ばれます)。 AIの将来に関するこれらの理論の詳細については、次の私の記事を参照してください。 ここのリンク.
だから、私たち自身をからかって、現代のAIが人間のように考えることができると誤って信じてはいけません。 次に、感性AIではなく計算AIに基づいて適切な決定を下せるかどうかについてのプラトンの発言についての質問が最前線に来ると思います。 日常のAIシステムによって実際に適切な決定を下すことができると私が主張することを知って驚かれるかもしれません。
そのコインの反対側は、悪い決定を下す日常のAIシステムも持つことができるということです。 腐った決定。 不利な偏見や不平等に満ちた決定。 AIの最新の時代が始まったとき、今では何人かが呼んでいるものに対する熱狂の大爆発があったことをご存知かもしれません。 AI For Good。 残念ながら、その噴出する興奮に続いて、私たちは目撃し始めました 悪い人のためのAI。 たとえば、さまざまなAIベースの顔認識システムには、人種的バイアスや性別バイアスが含まれていることが明らかになっています。 ここのリンク.
反撃するための努力 悪い人のためのAI 活発に進行中です。 声高に加えて 法的 不正行為を抑制することを追求する一方で、AIの卑劣さを正すためにAI倫理を採用することへの実質的な推進力もあります。 概念は、AIの開発とフィールド化のために、主要な倫理的AI原則を採用し、承認する必要があるということです。 悪い人のためのAI 同時に、好ましいものを告げると同時に促進する AI For Good.
AI倫理と倫理AIに関する私の広範な報道は次の場所にあります。 ここでは、このリンク & ここでは、このリンクちょうど少数の名前を挙げる。
ここでの議論では、AI倫理の分野の人々が当然のことながら嘆き、適切な意識を高めようとしているという、AIについて特に心配な側面を取り上げたいと思います。 冷静で当惑させる問題は、実際には非常に簡単に指摘できます。
ここにある: AIには、驚くべき世界規模でAIに染み込んだバイアスを広めるという現実世界の可能性があります。
そして、私が「大規模」と言うとき、これは明らかに世界的な大規模を意味します。 巨大なスケール。 スケールから外れるスケール。
このAIに染み込んだバイアスのスケーリングがどのように行われるかを説明する前に、AIが過度のバイアスや不平等をどのように組み込むことができるかについて、私たち全員が似ていることを確認しましょう。 これは感覚的な種類ではないことをもう一度思い出してください。 これはすべて計算能力です。
AIが人間と同じ種類の不利な偏見や不平等をどのように吹き込むことができるかについて、あなたは当惑するかもしれません。 私たちは、AIを完全に中立で、偏りのない、人間が持っているかもしれない感情的な動揺や悪い思考をまったく持たない単なるマシンであると考える傾向があります。 AIが偏見や不平等に陥る最も一般的な手段のXNUMXつは、機械学習とディープラーニングを使用するときに発生します。これは、人間がどのように意思決定を行っているかについて収集されたデータに依存した結果です。
少し詳しく説明させてください。
ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。
これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。
さらに、AI開発者も何が起こっているのか理解していない可能性があります。 ML / DLの難解な数学は、現在隠されているバイアスを見つけるのを困難にする可能性があります。 AI開発者が潜在的に埋もれているバイアスをテストすることを当然期待し、期待するでしょうが、これは見た目よりも難しいです。 比較的大規模なテストを行っても、ML/DLのパターンマッチングモデルにバイアスが埋め込まれている可能性は十分にあります。
有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定またはADMは、公理的に不平等を抱えるようになります。
良くない。
これにより、大規模な場合にAIが浸透するバイアスの問題が発生します。
まず、人間の偏見がどのように不平等を生み出しているのかを見てみましょう。 住宅ローンを組む会社は、住宅ローンの代理人を雇うことにしました。 エージェントは、住宅ローンを取得したい消費者からの要求を確認することになっています。 アプリケーションを評価した後、エージェントはローンを許可するか、ローンを拒否するかを決定します。 簡単-簡単。
説明のために、人間のローン代理店が8日あたり40件のローンを分析し、レビューごとに約2,000時間かかると想像してみてください。 週XNUMX日の勤務時間で、エージェントは約XNUMX件のローンレビューを行います。 年間ベースで、エージェントは通常、約XNUMX件のローンのレビューを行い、少しだけ寄付または受け取ります。
同社はローンレビューの量を増やしたいと考えているため、100人の追加のローンエージェントを雇っています。 それらがすべてほぼ同じ生産性を持っていると仮定しましょう。これは、年間約200,000件のローンを処理できることを意味します(エージェントあたり年間2,000件のローンレビューの割合で)。 ローン申請の処理を実際に強化したようです。
同社は、人間のエージェントと基本的に同じローンレビューを実行できるAIシステムを考案していることがわかりました。 AIはクラウド内のコンピューターサーバーで実行されています。 クラウドインフラストラクチャを介して、会社は必要となる可能性のあるあらゆる量のローンレビューに対応するために、より多くのコンピューティングパワーを容易に追加できます。
既存のAI構成では、1,000時間あたり24件のローンレビューを行うことができます。 これも7時間9日発生する可能性があります。 AIに必要な休暇時間はありません。 昼休みはありません。 AIは、過労を心配することなくXNUMX時間稼働します。 そのおおよそのペースで、AIは年間XNUMX万件近くのローン申請を処理できると言えます。
年間100万件の融資を行うことができる200,000人のヒューマンエージェントから、AIシステムを介して年間9万件の非常に高いレビュー数に何度もジャンプしたことに注意してください。 ローンリクエストの処理を大幅に拡大しました。 間違いなし。
おそらく椅子から落ちてしまうキッカーの準備をしてください。
私たちの人間のエージェントの一部が、不利なバイアスに基づいてローンの決定を行っていると仮定します。 おそらく、ローンの決定において人種的要因に重要な役割を与えている人もいます。 たぶん、性別を使っている人もいます。 他の人は年齢を使用しています。 等々。
200,000万件の年間融資レビューのうち、不利な偏見や不平等の不当な視線の下で行われているのはいくつですか。 おそらく10%で、これはローン要求の約20,000です。 さらに悪いことに、それが融資要求の50%であると仮定します。その場合、誤って決定された融資決定の非常に厄介な年間100,000万件のインスタンスがあります。
良くないね。 しかし、私たちはまださらに恐ろしい可能性を検討していません。
AIに、人種、性別、年齢などの要素で構成される隠れたバイアスがあるとします。 年間のローン分析の10%がこの不快感の対象である場合、不適切に処理されている900,000万件のローン要求があります。 これは、主にボリュームの側面が原因で、人間のエージェントが実行できる可能性をはるかに超えています。 これらの100人のエージェントは、すべてが不公平なレビューを行っていたとしても、年間200,000万件のローンレビューでこれを行うことができます。 AIは、9,000,000件の年間レビューの非常に大規模なものでも同じことを行うことができます。
Yikes!
これは、途方もない規模での本当にAIに満ちたバイアスです。
不利なバイアスがAIシステム内に埋め込まれると、有利と思われていたのと同じスケーリングが頭に浮かび、非常に魅力的な(そして邪魔な)スケーリングの結果になります。 一方では、AIは住宅ローンを要求しているより多くの人々を処理するために有益にラチェットアップすることができます。 表面的には、それはすごいようです AI For Good。 おそらく人間が必要な融資を受ける機会を拡大するために、私たちは背中を軽くたたくべきです。 一方、AIにバイアスが埋め込まれている場合、スケーリングは非常に腐った結果になり、嘆かわしいことに私たちは 悪い人のためのAI、本当に大規模に。
ことわざの両刃の剣。
AIは、必要なサービスや製品を求めている人々の意思決定へのアクセスを根本的に増やすことができます。 人間に制約された労働のボトルネックはもうありません。 並外れた! 剣のもうXNUMXつのエッジは、AIに隠れた不平等などの悪意が含まれている場合、まったく同じ大規模なスケーリングによって、想像を絶する規模でその厄介な動作が広まるということです。 苛立たしく、不法で、恥ずべきことであり、社会がそのような醜い深淵に陥ることを許すことはできません。
AI倫理の重要性に頭を悩ませる必要がある理由に戸惑った人は、AIスケーリング現象が倫理的AIを追求するための非常に重要な理由であることを理解する必要があります。 AIを作成、フィールド化、または使用する人にとって何が重要な焦点となるべきかを説明するために、いくつかの主要な倫理的AIの指針を簡単に検討してみましょう。
たとえば、バチカンが ローマはAI倫理を求める そして、私が詳細にカバーしたように ここのリンク、これらは、特定されたXNUMXつの主要なAI倫理原則です。
- 透明性: 原則として、AIシステムは説明可能でなければなりません
- インクルージョン: すべての人間のニーズを考慮に入れて、すべての人が利益を得ることができ、すべての個人が自分自身を表現し、成長するための最良の条件を提供できるようにする必要があります
- 責任: AIの使用を設計および展開する人は、責任と透明性を持って進めなければなりません
- 公平性: 偏見に従って作成または行動しないでください。これにより、公平性と人間の尊厳が保護されます。
- 信頼性: AIシステムは確実に機能する必要があります
- セキュリティとプライバシー: AIシステムは安全に機能し、ユーザーのプライバシーを尊重する必要があります。
米国国防総省(DoD)が 人工知能の使用に関する倫理原則 そして、私が詳細にカバーしたように ここのリンク、これらはXNUMXつの主要なAI倫理原則です。
- 責任者: DoDの担当者は、AI機能の開発、展開、使用に責任を持ちながら、適切なレベルの判断と注意を払います。
- 衡平: 部門は、AI機能の意図しないバイアスを最小限に抑えるために慎重な措置を講じます。
- 追跡可能: 部門のAI機能は、関連する担当者が、透過的で監査可能な方法論、データソース、設計手順とドキュメントなど、AI機能に適用できるテクノロジー、開発プロセス、運用方法を適切に理解できるように開発および展開されます。
- 信頼性のある: 部門のAI機能には明確で明確な用途があり、そのような機能の安全性、セキュリティ、および有効性は、ライフサイクル全体にわたってそれらの定義された用途内でテストおよび保証の対象となります。
- 統治可能: 部門は、意図しない結果を検出して回避する機能と、意図しない動作を示す展開済みシステムを非アクティブ化または非アクティブ化する機能を備えながら、意図した機能を実行するAI機能を設計および設計します。
また、AI倫理の原則のさまざまな集合的分析についても説明しました。これには、「AI倫理ガイドラインのグローバルランドスケープ」というタイトルの論文(公開の 自然)、そして私の報道はで探求していること ここのリンク、このキーストーンリストにつながった:
- 透明性
- 正義と公正
- 非有害
- 責任
- 個人情報保護
- 善行
- 自由と自律
- 信頼
- 3つの柱
- 尊厳
- 連帯
ご想像のとおり、これらの原則の根底にある詳細を特定しようとすると、非常に困難になる可能性があります。 さらに言えば、これらの幅広い原則を完全に具体的で詳細なものに変えて、AIシステムを作成するときに使用できるようにする努力も、難しい問題です。 AI倫理の原則が何であるか、そしてそれらが一般的にどのように守られるべきかについて全体的に手を振るのは簡単ですが、AIコーディングが道路に出会う真のゴムでなければならない場合ははるかに複雑な状況です。
AI倫理の原則は、AI開発者、AI開発の取り組みを管理する開発者、さらにはAIシステムのフィールド化と維持を最終的に実行する開発者によっても利用されます。 開発と使用のAIライフサイクル全体にわたるすべての利害関係者は、倫理的AIの確立された規範に従う範囲内であると見なされます。 通常の想定では、「コーダーのみ」またはAIをプログラムするものは、AI倫理の概念に準拠する必要があるため、これは重要なハイライトです。 AIを考案してフィールド化するには、村が必要であることに注意してください。 村全体がAI倫理についての彼らのつま先を維持しなければならないために。
AIに浸されたバイアススケーリングのしくみ
AIにバイアスを含めることができるというテーブルにたどり着いたので、AIスケーリングが非常に煩わしい理由のいくつかを調べる準備ができています。
XNUMXの根本的な理由のこのキーストーンリストを検討してください。
- 簡単に複製
- スケーリングの最小コスト
- ひどく一貫している
- 内省の欠如
- 盲従
- 手を傾けない
- 疑いを持たない受信者
- 挑発に拍車をかけない傾向がある
- 公平さの偽りのオーラ
- 反論するのは難しい
これらの重要なポイントのそれぞれについて簡単に説明します。
人間の労力でスケールアップしようとすると、そうすることは非常に複雑になる可能性があります。 あなたは人々を見つけて雇わなければなりません。 あなたは仕事をするために彼らを訓練しなければなりません。 あなたはそれらを支払い、人間の欲求とニーズを考慮に入れなければなりません。 これをAIシステムと比較してください。 あなたはそれを開発し、それを使用します。 AIを継続的に維持することを除けば、腰を落ち着けて、AIを際限なく処理させることができます。
これは、AIが簡単に複製されることを意味します。 タスクとボリュームに必要な場合は、コンピューティング能力を追加できます(採用や解雇はしません)。 ボタンを押すだけでグローバルに使用でき、インターネットが世界中で利用できるようになります。 スケールアップは、同様に人間の労働で行う場合と比較して、最小限のコストです。
人間の労働は、悪名高いほど一貫性がありません。 あなたが大規模なチームを持っているとき、あなたはあなたがあなたの手に何を持っているかもしれないかを決して知らないという点でチョコレートの真の箱を持っています。 AIシステムは非常に一貫している可能性があります。 それは同じ活動を何度も繰り返し、毎回本質的に最後と同じです。
通常、私たちはAIの一貫性を楽しんでいます。 人間が偏見を抱きやすい場合、私たちは常に人間の労働の一部を迷わせてしまいます。 AIは、その構築と計算の取り組みにおいて純粋に偏りがない場合、はるかに一貫性があります。 ただし、問題は、AIに隠れたバイアスがある場合、一貫性が痛々しいほど忌まわしいことです。 偏った行動が何度も何度も一貫して実行される可能性があります。
人間はうまくいけば、内省のいくつかのインクリングを持っており、おそらく偏った決定をしていることに気付くでしょう。 私はすべてがそうするだろうと言っているわけではありません。 私はまた、自分自身を捕まえる人々が必ずしも彼らの過ちを正すと言っているのではありません。 いずれにせよ、少なくとも何人かの人間は時々自分自身を正すでしょう。
AIには、計算による自己反映の形式が含まれている可能性はほとんどありません。 これは、AIが実行していることを実行し続けることを意味します。 AIが公平性に反していることを検出する可能性はゼロのようです。 そうは言っても、AI内にAI倫理コンポーネントを構築するなど、これに対処するためのいくつかの取り組みについて説明しました(を参照)。 ここのリンク)そして、他のAIを監視して非倫理的なAI活動を識別するAIを考案します(参照 ここのリンク).
AIは、いかなる種類の内省も欠いているため、指示されたことに対して本質的に盲目的な服従をしている可能性があります。 人間はそれほど従順ではないかもしれません。 仕事をしている一部の人間は、彼らがおそらく不公平な領域に導かれているのかどうか疑問に思う可能性があります。 彼らは非倫理的な命令を拒否するか、おそらく内部告発者の道を行く傾向があります(私の報道を参照してください ここでは、このリンク)。 日常の現代のAIがどういうわけかそのプログラミングに疑問を呈することを期待しないでください。
次に、AIを使用しているものに目を向けます。 あなたが住宅ローンを探していて、人間と話をした場合、あなたは人間があなたに公正な揺れを与えているかどうかについてあなたの警戒心を持っているかもしれません。 AIシステムを使用する場合、ほとんどの人はそれほど疑わしくないようです。 彼らは、AIが公正であり、エルゴがすぐに台無しになることはないと想定することがよくあります。 AIは、人々を「単なる機械」のトランスに落ち着かせるように見えます。 これに加えて、AIに抗議するのは難しいかもしれません。 対照的に、あなたが人間のエージェントによってどのように扱われたかに抗議することは、はるかに簡単で、はるかに一般的に受け入れられ、実行可能であると想定されます。
とにかく、偏見に浸っているAIは、偏見に染み込んでいる人間に対して不名誉な足がかりを持っています。不穏に起こっていることに気づきなさい。
この議論のこの時点で、私はあなたがAIに染み込んだバイアスの難問を大規模に示すかもしれないいくつかの追加の例を望んでいるに違いありません。
よろしくお願いします。
私の心に近い特別で確実に人気のある例のセットがあります。 倫理的および法的な影響を含むAIの専門家としての私の立場では、トピックのやや理論的な性質をより簡単に把握できるように、AI倫理のジレンマを示す現実的な例を特定するように頻繁に求められます。 この倫理的なAIの難問を鮮明に表現する最も刺激的な分野のXNUMXつは、AIベースの真の自動運転車の登場です。 これは、このトピックに関する十分な議論のための便利なユースケースまたは模範として役立ちます。
次に、検討する価値のある注目すべき質問を示します。 AIベースの真の自動運転車の出現は、AIに染み込んだバイアスについて大規模に何かを明らかにしますか?もしそうなら、これは何を示していますか?
質問を解くために少し待ってください。
まず、真の自動運転車には人間のドライバーが関与していないことに注意してください。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手が運転する必要はなく、人間が車両を運転するための設備もありません。 Autonomous Vehicles(AV)、特に自動運転車に関する広範囲にわたる継続的な報道については、を参照してください。 ここのリンク.
真の自動運転車とはどういう意味かをさらに明確にしたいと思います。
自動運転車のレベルを理解する
明確にするために、真の自動運転車とは、AIが完全に自力で車を運転する車であり、運転タスク中に人間の支援はありません。
これらの自動運転車はレベル4およびレベル5と見なされます(私の説明を参照してください) ここでは、このリンク)、一方、人間の運転手が運転努力を共有する必要がある車は、通常、レベル2またはレベル3と見なされます。運転タスクを共有する車は、半自律的であると説明され、通常、さまざまなADAS(先進運転支援システム)と呼ばれる自動化されたアドオン。
レベル5の真の自動運転車はまだありません。これが達成できるかどうか、また到達するまでにかかる時間もわかりません。
一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路や小道で行われている、いくつかの主張、で私の報道を参照してください ここでは、このリンク).
半自律型の車には人間のドライバーが必要であるため、これらのタイプの車の採用は、従来の車の運転とそれほど変わりません。そのため、このトピックについてそれ自体をカバーすること自体はそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。
半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。
レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。
自動運転車とAIバイアスの大規模
レベル4とレベル5の真の自動運転車両の場合、運転タスクに人間のドライバーは関与しません。
乗客はすべて乗客となります。
AIが運転を行っています。
すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。
AIが知覚力を持たないことを強調しているのはなぜですか?
AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。
その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。
このトピックで遊びに来る無数の側面に飛び込みましょう。
まず、すべてのAI自動運転車が同じであるとは限らないことを認識することが重要です。 各自動車メーカーと自動運転技術会社は、自動運転車を考案するためのアプローチを取っています。 そのため、AI駆動システムが何をするか、何をしないかについて、大胆な発言をすることは困難です。
さらに、AI駆動システムが特定のことを行わないと述べるときはいつでも、これは後で、実際にそのことを行うようにコンピューターをプログラムする開発者によって追い抜かれる可能性があります。 AI駆動システムは段階的に改善され、拡張されています。 現在の既存の制限は、システムの将来のイテレーションまたはバージョンでは存在しなくなる可能性があります。
私はそれが私がこれから関係しようとしていることの根底にある十分な警告の連祷を提供すると信じています。
私たちは今、自動運転車と、大規模に広まっているAIに染み込んだバイアスの調査を伴う倫理的なAIの可能性について深く掘り下げる準備ができています。
簡単な例を使用してみましょう。 AIベースの自動運転車が近所の通りで進行中であり、安全に運転しているようです。 最初は、自動運転車を垣間見るたびに特別な注意を払っていました。 自動運転車は、ビデオカメラ、レーダーユニット、LIDARデバイスなどを含む電子センサーのラックで際立っていました。 自動運転車がコミュニティを何週間もクルージングした後、あなたは今ではほとんど気づいていません。 あなたに関する限り、それはすでに混雑している公道にある別の車にすぎません。
自動運転車を見るのに慣れることは不可能または信じられないことだと思わないように、自動運転車の試乗の範囲内にあるロケールが、スプルースアップされた車を見ることに徐々に慣れてきた方法について頻繁に書いていますが、で私の分析を参照してください ここでは、このリンク。 地元の人々の多くは、やがて口を大きく開ける猛烈なゴーキングから、曲がりくねった自動運転車を目撃するために退屈の広大なあくびを放つようになりました。
おそらく、自動運転車に気付く可能性がある現在の主な理由は、苛立ちと苛立ちの要因によるものです。 著書のAI運転システムは、車がすべての制限速度と道路の規則に準拠していることを確認します。 従来の人間が運転する車に乗っている多忙な人間のドライバーにとって、厳密に法を遵守するAIベースの自動運転車の後ろに立ち往生しているとイライラすることがあります。
それは、私たち全員が正しくまたは間違って慣れなければならないかもしれないことです。
話に戻りましょう。
特に、無害で一般的に歓迎されているAIベースの自動運転車についてXNUMXつの見苦しい懸念が生じ始めていることが判明しました。
a。 AIが乗り物を拾うために自動運転車を歩き回っているところは、声に出された懸念として迫っていました
b。 通行権を持たない待機中の歩行者をAIがどのように扱っているかが差し迫った問題として浮上していた
当初、AIは町全体で自動運転車を歩き回っていました。 自動運転車への乗車をリクエストしたい人は、基本的に同じように車を呼ぶチャンスがありました。 徐々に、AIは、主に自動運転車を町のXNUMXつのセクションでローミングし続けるようになりました。 このセクションはより大きな金儲けであり、AIシステムは、コミュニティでの使用の一部として収益を最大化しようとするようにプログラムされていました。
町の貧しい地域のコミュニティメンバーは、自動運転車から乗車できる可能性が低くなりました。 これは、自動運転車が遠く離れていて、その地域の収益の高い部分を歩き回っていたためです。 町の離れた場所からリクエストが届いた場合、町の「尊敬されている」場所にある可能性が高い、より近い場所からのリクエストが優先されます。 結局、町のより豊かな部分以外の場所で自動運転車を利用できるようにすることはほぼ不可能であり、現在資源が不足している地域に住んでいた人々にとっては苛立たしいことでした。
AIは、プロキシ差別(間接差別とも呼ばれる)の形式にほぼ着地したと断言できます。 AIは、これらの貧しい地域を回避するようにプログラムされていませんでした。 代わりに、ML/DLを使用してそうすることを「学習」しました。
問題は、ライドシェアリングの人間のドライバーが同じことをすることで知られていましたが、必ずしも金儲けの角度だけではありません。 町の特定の場所でライダーを迎えに行くことに不利な偏見を持っていたライドシェアリングの人間のドライバーの何人かがいました。 これはやや知られている現象であり、市はこれを行っている人間のドライバーを捕まえるための監視アプローチを導入していました。 人間の運転手は、不快な選択の慣行を実行するために問題を起こす可能性があります。
AIが同じ種類の流砂に陥ることは決してないと想定されていました。 AIベースの自動運転車がどこに向かっているのかを追跡するための特別な監視は設定されていません。 コミュニティのメンバーが不満を言い始めて初めて、市の指導者たちは何が起こっているのかを理解しました。 自動運転車や自動運転車が提示するこれらのタイプの都市全体の問題の詳細については、次の私の記事を参照してください。 ここでは、このリンク これは、私がこのトピックについて共同執筆したハーバード主導の研究について説明しています。
AIベースの自動運転車のローミングの側面のこの例は、制御が行われている、不利な偏見を持つ人間を伴う状況が存在する可能性があり、それらの人間のドライバーを置き換えるAIがそのまま残されているという以前の兆候を示しています。自由。 残念ながら、AIは、同様のバイアスに徐々に陥り、十分なガードレールが設置されていないとそうする可能性があります。
これは、スケールの問題におけるAIの急なバイアスも示しています。
人間の運転手の場合、私たちはあちこちで何らかの形の不公平を行使していた人が何人かいたかもしれません。 AI駆動システムの場合、これは通常、自動運転車の全車両用のそのような統合AIの500つです。 したがって、町でXNUMX台の自動運転車(すべて同じAIコードで実行)から始めて、徐々にXNUMX台の自動運転車(すべて同じAIコードで実行)に増やしていった可能性があります。 これらのXNUMX台の自動運転車はすべて同じAIで運転されているため、それに応じて、AIに組み込まれた同じ派生バイアスと不平等の影響を受けます。
スケーリングはその点で私たちを傷つけます。
XNUMX番目の例では、AIが、通りを横断するための通行権を持たない歩行者を待つために停止するかどうかを決定します。
あなたは間違いなく運転していて、通りを横断するのを待っている歩行者に遭遇しましたが、彼らにはそうする権利がありませんでした。 これは、あなたが彼らを止めて交差させるかどうかについてあなたが裁量権を持っていたことを意味しました。 あなたはそれらを交差させずに進むことができ、それでも完全にそうすることの法的運転規則の範囲内にあります。
人間の運転手がそのような歩行者のために停止するか停止しないかを決定する方法の研究は、時々人間の運転手が不利なバイアスに基づいて選択をすることを示唆しました。 人間の運転手は、人種や性別などによって歩行者の外見が異なっていれば停止したとしても、歩行者に目を向けて停止しないことを選択する可能性があります。 私はこれをで調べました ここのリンク.
AIベースの自動運転車が、通行権を持たない歩行者のために停止するかどうかの問題に対処するようにプログラムされていると想像してみてください。 AI開発者がこのタスクをプログラムすることを決定した方法は次のとおりです。 彼らは、街中に配置されている町のビデオカメラからデータを収集しました。 データは、通行権を持たない歩行者のために停止する人間のドライバーと、停止しない人間のドライバーを示しています。 すべてが大きなデータセットに収集されます。
機械学習とディープラーニングを使用して、データを計算でモデル化します。 次に、AI駆動システムはこのモデルを使用して、停止するか停止しないかを決定します。 一般的に、地域の慣習が何であれ、これがAIが自動運転車を誘導する方法であるという考え方です。
市の指導者と住民を驚かせたのは、AIが人種や性別など、歩行者の外見に基づいて停止するか停止しないかを選択したことは明らかです。 自動運転車のセンサーは、待機中の歩行者をスキャンし、このデータをML / DLモデルにフィードし、モデルは停止するか続行するかをAIに送信します。 残念なことに、この町にはすでにこの点で多くの人間のドライバーの偏見があり、AIは今や同じことを模倣していました。
この例は、AIシステムが、人間の既存の不利なバイアスを単に複製する可能性があることを示しています。 さらに、それは大規模に行われます。 人間の運転手は、この厄介な形の選択を行うように教えられたり、個人的にそうするように選択されたりすることがありますが、人間の運転手の大部分がおそらくこれをまとめて行っていない可能性があります。
対照的に、自動運転車の運転に使用されているAI運転システムは、ひどく一貫して確実に派生バイアスを実行する可能性があります。
まとめ
不利な偏見を持っている、または時間の経過とともに偏見を煽るAIを考案することを回避するための方法は多数あります。 可能な限り、ハイギアに入ってスケーリングのために立ち上がる前に、問題をキャッチするというアイデアがあります。 うまくいけば、バイアスは、いわば、ドアから出てこないでしょう。
ただし、AIに何らかのバイアスが発生するとします。 AIを使用して大規模に展開されると、よく宣言されている技術者の「ファイアアンドフォーゲット」の概念のXNUMXつを実行することはできません。 AIが行っていることを熱心に把握し、修正が必要な不利なバイアスを検出するように努める必要があります。
先に指摘したように、XNUMXつのアプローチでは、AI開発者がAI倫理を認識していることを確認し、AIをプログラムしてこれらの問題を回避するように促します。 別の方法は、AIが非倫理的な行動を自己監視すること、および/または他のAIシステムが非倫理的な行動をする可能性があることを監視する別のAIを使用することです。 私は自分の執筆で他の多くの潜在的な解決策をカバーしました。
今のところ最終的な考え。 プラトンによる引用でこの議論を始めたので、プラトンによるさらに別の巧妙な発話で談話を締めくくるのはふさわしいかもしれません。
プラトンは、良いことを繰り返しても害はないと述べました。
AIを使って大規模に拡張することの容易さは、AIが AI For Good バラエティ。 私たちは良いことを繰り返すことを味わいます。 AIが 悪い人のためのAI そして、不利な偏見や不平等に満ちているので、プラトンの発言に頼って、悪いことを繰り返すことには多くの害があると言うかもしれません。
プラトンの賢明な言葉に注意深く耳を傾け、それに応じてAIを考案しましょう。
ソース:https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive-グローバルスケール-特に燃料-via-looming-fully-autonomous-systems/