人間の偏見が多い場合にAIを特に導入する必要があるというAI倫理

人間は自分の限界を知らなければなりません。

1973 年の映画で、ダーティ ハリーというキャラクターがザラザラした口調で言った、私たちの限界を知ることについての同じような有名なセリフを思い出すかもしれません。 ダーティハリー2 (ハリー・キャラハン警部としての彼の記憶に残る役割における俳優クリント・イーストウッドの話による). 全体的な考え方は、私たちは自分の限界を見落とし、それに応じて自分自身を熱狂させる傾向があるということです. 傲慢、自己中心的、または単に私たち自身の能力に盲目であるかどうかにかかわらず、私たちの傾向と欠点を認識し、明確に考慮するという教訓は、非常に賢明で役に立ちます.

賢明なアドバイスに新しいひねりを加えましょう。

人工知能 (AI) は、その限界を認識しなければなりません。

尊敬されるキャッチフレーズの変種とはどういう意味ですか?

現代の AI を世界の問題の有望な解決策として利用しようとする当初のラッシュは、今日の AI にはかなり深刻な限界があるという認識によって、汚され、完全に泥沼化してしまったことが判明しました。 私たちは高揚する見出しから行きました AI For Good ますますはまり込んでいることに気づきました 悪い人のためのAI. ご存知のように、多くの AI システムが開発され、あらゆる種類の不利な人種や性別の偏見、およびその他の無数の恐ろしい不平等と共に配備されてきました。

AI の倫理と倫理的 AI に関する私の広範かつ継続的な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

これらの AI システムで発見されているバイアスは、人間の行動に起因する「意図的な」タイプのものではありません。 これは、今日の AI に感覚がないことを強調するために言及しています。 そうではないことを示唆する大々的な見出しにもかかわらず、感覚に近づく AI はどこにもありません。 それに加えて、AI を感覚のブラケットに入れる方法がわからず、AI の感覚を獲得できるかどうかは誰にもわかりません。 いつか実現するかもしれないし、しないかもしれない。

つまり、私たちが現在持っているような AI に特に意図を割り当てることはできないということです。 そうは言っても、AIシステムを作成している人には豊富に意図を割り当てることができます. 一部の AI 開発者は、好ましくない、おそらく違法なバイアスを含む AI システムを考案したという事実に気づいていません。 一方、他の AI 開発者は、AI システムにバイアスを吹き込んでいることに気付き、意図的な不正行為を行っている可能性があります。

いずれにせよ、結果はまだ見栄えが悪く、おそらく違法です。

AI 開発者を啓発し、AI システムにバイアスを埋め込むことを回避するための適切なガイダンスを提供する AI 倫理原則を公布するための激しい取り組みが進行中です。 これは XNUMX つの方法で役立ちます。 まず、AI を作成している人々は、従うべき教訓を認識していなかったという言い訳ができなくなります。 第二に、倫理的 AI の条件から逸脱した人は、より容易に捕らえられ、実行することとしないことの両方を事前に警告されたことを回避していると示されます。

AI ビルダーが何を考え、AI 倫理の立場から厳密に取り組むべきかを説明するために、重要な AI の倫理的教訓のいくつかを簡単に検討してみましょう。

バチカンによって述べられているように ローマはAI倫理を求める そして、私が詳細にカバーしたように ここのリンク、これらは、特定されたXNUMXつの主要なAI倫理原則です。

  • 透明性: 原則として、AIシステムは説明可能でなければなりません
  • インクルージョン: すべての人間のニーズを考慮に入れて、すべての人が利益を得ることができ、すべての個人が自分自身を表現し、成長するための最良の条件を提供できるようにする必要があります
  • 責任: AIの使用を設計および展開する人は、責任と透明性を持って進めなければなりません
  • 公平性: 偏見に従って作成または行動しないでください。これにより、公平性と人間の尊厳が保護されます。
  • 信頼性: AIシステムは確実に機能する必要があります
  • セキュリティとプライバシー: AIシステムは安全に機能し、ユーザーのプライバシーを尊重する必要があります。

米国国防総省(DoD)が 人工知能の使用に関する倫理原則 そして、私が詳細にカバーしたように ここのリンク、これらはXNUMXつの主要なAI倫理原則です。

  • 責任者: DoDの担当者は、AI機能の開発、展開、使用に責任を持ちながら、適切なレベルの判断と注意を払います。
  • 衡平: 部門は、AI機能の意図しないバイアスを最小限に抑えるために慎重な措置を講じます。
  • 追跡可能: 部門のAI機能は、関連する担当者が、透過的で監査可能な方法論、データソース、設計手順とドキュメントなど、AI機能に適用できるテクノロジー、開発プロセス、運用方法を適切に理解できるように開発および展開されます。
  • 信頼性のある: 部門のAI機能には明確で明確な用途があり、そのような機能の安全性、セキュリティ、および有効性は、ライフサイクル全体にわたってそれらの定義された用途内でテストおよび保証の対象となります。
  • 統治可能: 部門は、意図しない結果を検出して回避する機能と、意図しない動作を示す展開済みシステムを非アクティブ化または非アクティブ化する機能を備えながら、意図した機能を実行するAI機能を設計および設計します。

また、AI倫理の原則のさまざまな集合的分析についても説明しました。これには、「AI倫理ガイドラインのグローバルランドスケープ」というタイトルの論文(公開の 自然)、そして私の報道はで探求していること ここのリンク、このキーストーンリストにつながった:

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

ご想像のとおり、これらの原則の根底にある詳細を特定しようとすると、非常に困難になる可能性があります。 さらに言えば、これらの幅広い原則を完全に具体的で詳細なものに変えて、AIシステムを作成するときに使用できるようにする努力も、難しい問題です。 AI倫理の原則が何であるか、そしてそれらが一般的にどのように守られるべきかについて全体的に手を振るのは簡単ですが、AIコーディングが道路に出会う真のゴムでなければならない場合ははるかに複雑な状況です。

AI倫理の原則は、AI開発者、AI開発の取り組みを管理する開発者、さらにはAIシステムのフィールド化と維持を最終的に実行する開発者によっても利用されます。 開発と使用のAIライフサイクル全体にわたるすべての利害関係者は、倫理的AIの確立された規範に従う範囲内であると見なされます。 通常の想定では、「コーダーのみ」またはAIをプログラムするものは、AI倫理の概念に準拠する必要があるため、これは重要なハイライトです。 AIを考案してフィールド化するには、村が必要であることに注意してください。 村全体がAI倫理についての彼らのつま先を維持しなければならないために。

とにかく、AI にバイアスが含まれている可能性があることを理解した今、おそらく次の XNUMX つの明白な事実に同意することができます。

1. 人間は多くの不利な偏見を持ち、それに基づいて行動することができます

2. AI は多くの不利なバイアスを持つことができ、それらのバイアスに基づいて行動することができます

AIが人間と同等の知覚能力を持っていることを何らかの形で暗示している可能性があるため、その文脈で人間とAIを積み重ねることはやや嫌です。 これは確かにそうではありません。 この議論の少し後で、AI の擬人化に関する懸念の高まりに一時的に戻ります。

不利なバイアスを示す人間とそうする AI では、どちらが悪いのでしょうか?

私はあえて、この質問がそれらの不機嫌な選択の XNUMX つを提起していると言う。 それは XNUMX つの悪のうち小さい方であると主張する人もいるかもしれません。 人間が不都合な偏見を体現していないことを願っています。 さらに、たとえ人間が不都合な偏見を持っていたとしても、それらの偏見に基づいて行動しないことを望みます. AIについても同じことが適切に言えます。 AI が不都合なバイアスを埋め込まないこと、および AI が少なくとも行動しないように内部的にコード化されたバイアスがあったとしても、それを望まないでしょう。

願い事が必ずしも世界を動かしているわけではありません。 AI 願い事の実現 社会全体で、参照してください ここのリンク).

わかりました、私たちは明らかに人間に自分の限界を知ってもらいたいと思っています。 不利な偏見を持っていることを認識することは重要です。 これらの不都合な偏見があなたの行動や決定に吹き込まれないようにすることも同様に重要です. 今日の企業は、従業員が厄介な偏見の悲惨な落とし穴に陥らないように、あらゆる種類のアプローチを試みています。 倫理的に健全な方法で仕事を遂行する方法について、専門的なトレーニングが従業員に提供されています。 プロセスは、従業員が非倫理的な慣習を示していると思われる場合に従業員に警告するように形作られています。 等々。

人間とその不都合な偏見に対処するもう XNUMX つの手段は、人間ベースの作業を自動化することです。 はい、ループから人間を削除するだけです。 人間が意思決定タスクを実行することを許可しないでください。おそらく、不都合なバイアスに対する人間の態度について、長引く心配はおそらくありません。 人間が関与していないため、潜在的な人間の偏見の問題は解決されているようです。

アルゴリズムの意思決定 (ADM) の方法で AI を使用する方向への段階的かつ大規模なシフトを目の当たりにしているため、私はこれを取り上げます。 人間の労働者を AI に置き換えることができれば、多くのメリットが生まれる可能性があります。 すでに述べたように、その人間の労働者 (もはやその仕事をしていない労働者) の人間の偏見について心配することはもうありません。 AI は、長期的な期間と比較して、全体的にコストがかからない可能性があります。 あなたは、人間の労働者に付き物である他のすべてのさまざまな困難を省きます。 等。

支持を得ている命題は次のようです。 AI を配置する最適な場所を決定しようとするときは、最初に、従業員による人間に不利な偏見が既に含まれていて、その偏りが特定の意思決定タスクを弱体化させているか、または過度に複雑にしている設定に注目してください。

要点は、AI への投資という点では、厄介なバイアス注入の観点から制御するのが難しい、非常に露出度の高い人間の意思決定タスクを正面から狙うことによって、支出に見合うだけの利益を得ることが賢明であるように思われるということです。 そのロールの人間のワーカーを削除します。 それらをAIに置き換えます。 AI はそのような不都合なバイアスを持たないという前提があります。 したがって、ケーキを持って食べることもできます。つまり、意思決定タスクを実行し、不都合な偏見の倫理的および法的亡霊を差し引いて実行します。

それを明確にすると、ROI (投資収益率) を考えると、AI の採用は簡単な選択になるでしょう。

これが通常のプレイ方法です。

会社全体を調べて、顧客に影響を与える意思決定タスクを特定してください。 これらのタスクのうち、従業員が不当な偏見を体現している場合、不適切に振り回される可能性が最も高いのはどれですか? これらの偏見をすでに抑えようとしている場合は、物事をそのままにしておくかもしれません。 一方、バイアスが繰り返し現れ、それを根絶するのが面倒な場合は、適切な AI をその役割に落とすことを検討してください。 AI をオーバーライドしたり、AI を不都合なバイアスの深淵に押し戻したりする可能性があるため、ワーカーを混在させないでください。 また、AI がタスクを上手に実行できること、およびジョブの実行に必要な意思決定の側面を十分に把握していることを確認してください。

すすぎと繰り返してください。

人間の労働者を AI に置き換えると、簡単にうまくいかないことがたくさんあることは理解していますが、それは単純な概念のように思えます。 多くの企業はそのような行動に熱心で、その方法を慎重に検討していませんでした。 その結果、彼らは最初に手にしたよりもはるかにひどい混乱をしばしば引き起こしました.

AI は万能薬ではないことを明確にし、強調したいと思います。

そういえば、偏りのないと言われている AI を使用して、人間に偏った意思決定者を一見して排除することの清潔さについて、大きな問題が XNUMX つあります。 問題は、単に一連の不利なバイアスを別のバイアスに置き換えているだけかもしれないということです。 以前の指摘によると、AI には不都合なバイアスが含まれている可能性があり、それらのバイアスに基づいて行動する可能性があります。 偏見のある人間を偏見のない AI と交換するという厚かましい仮定を立てることだけが、取り締まりのすべてではありません。

要するに、バイアス要因から厳密に問題を見るときの取り決めは次のとおりです。

  • AI には不都合な偏見がなく、AI ベースの ADM は簡単に導入できます。
  • AI は、置き換えられる人間と同じ不都合なバイアスを持っているため、AI ベースの ADM は厄介です
  • AIは、置き換えられた人間のバイアスを超えた新しい不都合なバイアスを導入し、それに応じて事態を悪化させる可能性があります
  • AI は最初は問題ないように見えますが、次第に不都合な偏見に陥ります。
  • その他

これらの可能性を簡単に説明します。

最初のものは、起こりうることの理想化されたバージョンです。 AIには不利なバイアスはありません。 AI を配置すると、AI は見事に機能します。 よかったね! もちろん、AI の組み込みによる人間の労働者の移動を、何らかの巧妙な方法で処理したことも期待できます。

XNUMX 番目のケースでは、AI を配置し、AI が人間の労働者が持っていたのと同じ不利なバイアスを示していることを発見しました。 どうすればいいの? この罠に陥る一般的な手段は、機械学習 (ML) とディープ ラーニング (DL) を使用して、その役割を担う人間が以前にどのように意思決定を行ったかについて収集されたデータに基づいています。

ちょっと説明させてください。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか、あなたは推測できると思います。 何年にもわたって作業を行ってきた人間が不都合なバイアスを組み込んでいる場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります. 機械学習またはディープ ラーニングの計算パターン マッチングは、それに応じてデータを数学的に模倣しようとします。 モデリング自体の常識やその他の知覚的側面の類似性はありません。

さらに、AI 開発者も何が起こっているのか理解していない可能性があります。 難解な数学は、現在隠された偏見を見つけ出すことを困難にするかもしれません. AI 開発者が埋もれている可能性のあるバイアスをテストすることを期待し、期待するのは当然ですが、これは思ったよりも難しいことです。 比較的大規模なテストを行ったとしても、ML/DL のパターン マッチング モデルにまだバイアスが埋め込まれている可能性は十分にあります。

結局のところ、振り出しに戻る可能性があります。 人間の同じ不都合な偏見は、現在、AI システムにコンピューター上で反映されています。 あなたは偏見を根絶していません。

さらに悪いことに、AI に偏見があることに気付かない可能性もあります。 人間の場合、通常、人間には不都合な偏見があることに警戒しているかもしれません。 これは基本的な期待です。 AI を使用すると、自動化によってあらゆる種類の人間の偏見が完全に取り除かれたとリーダーを納得させることができます。 したがって、彼らは自分の足を撃ったことを覚悟しています。 彼らは一見既知の不都合な偏見を持つ人間を排除し、そのような偏見がないと考えられていた AI に取って代わられましたが、すでに存在することが知られているのと同じ偏見を持つ AI を使用しています。

これにより、物事が本当に斜視になる可能性があります。 すでに予想されていた人間のバイアスの出現を検出して防止するために確立された、人間の労働者で使用されている他のガードレールを削除した可能性があります。 AIは自由に行動できるようになりました。 行動する前にそれを捕まえる場所は何もありません。 その後、AI は、偏った行動が膨大に蓄積された不吉な道にあなたを導き始める可能性があります。

そして、あなたはかつて偏見について知っていて、今ではそれらの偏見が大混乱を引き起こすのを許してしまった、ぎこちなく、おそらく責任のある姿勢にいます. そのような不都合な偏見に遭遇したことがなく、突然AIがそれらを突然発生させたということは、おそらくXNUMXつのことです. 「誰が推測したか」というような気を散らすものでこれを言い訳しようとするかもしれません (おそらく、あまり説得力がありません)。 しかし、以前とまったく同じ不都合な偏見のある行動を行う AI を設定したことで、言い訳はますます薄くなり、不十分になっています。

これにひねりを加えたのは、人間がタスクを実行していたときに以前は遭遇しなかった不都合なバイアスを AI が示すことを伴います。 これは、会社がこれまで探していなかった「新しい」バイアスで構成されているため、おそらく防止するのが難しいと言えます。 しかし、結局のところ、言い訳はあなたをあまり安心させないかもしれません. AI システムが非倫理的かつ違法な領域に足を踏み入れた場合、ガチョウが調理される可能性があります。

心に留めておくべきもう XNUMX つの側面は、AI は最初は問題なく開始され、その後、不都合な偏見に徐々に陥る可能性があるということです。 これは、AI を最新の状態に保つために機械学習またはディープ ラーニングを継続的に使用している場合に特に発生する可能性があります。 ML/DL がリアルタイムで動作しているか、定期的に更新を行っているかに関係なく、現在はバイアスが含まれていて、以前は存在しなかったデータを AI が取り込んでいる可能性があるかどうかに注意する必要があります。

魔法の杖を振って偏見のある人間の労働者を AI に置き換えることで無料のランチを手に入れていると考えているリーダーは、非常に失礼な目覚めを迎えています。 AI 倫理の指針でリーダーに力を与えることの重要性についての私の議論を参照してください。 ここのリンク.

この議論のこの時点で、人間の不都合なバイアスを AI ベースの不都合なバイアスに置き換える (または置き換えない) という難問を示す可能性のある実世界の例をいくつか望んでいるに違いありません。

よろしくお願いします。

私の心に近い特別で確実に人気のある例のセットがあります。 倫理的および法的な影響を含むAIの専門家としての私の立場では、トピックのやや理論的な性質をより簡単に把握できるように、AI倫理のジレンマを示す現実的な例を特定するように頻繁に求められます。 この倫理的なAIの難問を鮮明に表現する最も刺激的な分野のXNUMXつは、AIベースの真の自動運転車の登場です。 これは、このトピックに関する十分な議論のための便利なユースケースまたは模範として役立ちます。

次に、検討する価値のある注目すべき質問を示します。 AI ベースの真の自動運転車の出現は、AI の不利なバイアスについて何かを明らかにしますか?もしそうなら、これは何を示していますか?

質問を解くために少し待ってください。

まず、真の自動運転車には人間のドライバーが関与していないことに注意してください。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手が運転する必要はなく、人間が車両を運転するための設備もありません。 Autonomous Vehicles(AV)、特に自動運転車に関する広範囲にわたる継続的な報道については、を参照してください。 ここのリンク.

真の自動運転車とはどういう意味かをさらに明確にしたいと思います。

自動運転車のレベルを理解する

明確にするために、真の自動運転車とは、AIが完全に自力で車を運転する車であり、運転タスク中に人間の支援はありません。

これらの自動運転車はレベル4およびレベル5と見なされます(私の説明を参照してください) ここでは、このリンク)、一方、人間の運転手が運転努力を共有する必要がある車は、通常、レベル2またはレベル3と見なされます。運転タスクを共有する車は、半自律的であると説明され、通常、さまざまなADAS(先進運転支援システム)と呼ばれる自動化されたアドオン。

レベル5の真の自動運転車はまだありません。これが達成できるかどうか、また到達するまでにかかる時間もわかりません。

一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路や小道で行われている、いくつかの主張、で私の報道を参照してください ここでは、このリンク).

半自律型の車には人間のドライバーが必要であるため、これらのタイプの車の採用は、従来の車の運転とそれほど変わりません。そのため、このトピックについてそれ自体をカバーすること自体はそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。

半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。

レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。

自動運転車と AI に不都合なバイアスがかかる

レベル4とレベル5の真の自動運転車両の場合、運転タスクに人間のドライバーは関与しません。

乗客はすべて乗客となります。

AIが運転を行っています。

すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。

AIが知覚力を持たないことを強調しているのはなぜですか?

AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。

その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。

このトピックで遊びに来る無数の側面に飛び込みましょう。

まず、すべてのAI自動運転車が同じであるとは限らないことを認識することが重要です。 各自動車メーカーと自動運転技術会社は、自動運転車を考案するためのアプローチを取っています。 そのため、AI駆動システムが何をするか、何をしないかについて、大胆な発言をすることは困難です。

さらに、AI駆動システムが特定のことを行わないと述べるときはいつでも、これは後で、実際にそのことを行うようにコンピューターをプログラムする開発者によって追い抜かれる可能性があります。 AI駆動システムは段階的に改善され、拡張されています。 現在の既存の制限は、システムの将来のイテレーションまたはバージョンでは存在しなくなる可能性があります。

私はそれが私がこれから関係しようとしていることの根底にある十分な警告の連祷を提供すると信じています。

私たちは今、自動運転車と、AI の探求と不都合な偏見を伴う倫理的 AI の可能性について深く掘り下げる準備ができています。

簡単な例を使用してみましょう。 AIベースの自動運転車が近所の通りで進行中であり、安全に運転しているようです。 最初は、自動運転車を垣間見るたびに特別な注意を払っていました。 自動運転車は、ビデオカメラ、レーダーユニット、LIDARデバイスなどを含む電子センサーのラックで際立っていました。 自動運転車がコミュニティを何週間もクルージングした後、あなたは今ではほとんど気づいていません。 あなたに関する限り、それはすでに混雑している公道にある別の車にすぎません。

自動運転車を見るのに慣れることは不可能または信じられないことだと思わないように、自動運転車の試乗の範囲内にあるロケールが、スプルースアップされた車を見ることに徐々に慣れてきた方法について頻繁に書いていますが、で私の分析を参照してください ここでは、このリンク。 地元の人々の多くは、やがて口を大きく開ける猛烈なゴーキングから、曲がりくねった自動運転車を目撃するために退屈の広大なあくびを放つようになりました。

おそらく、自動運転車に気付く可能性がある現在の主な理由は、苛立ちと苛立ちの要因によるものです。 著書のAI運転システムは、車がすべての制限速度と道路の規則に準拠していることを確認します。 従来の人間が運転する車に乗っている多忙な人間のドライバーにとって、厳密に法を遵守するAIベースの自動運転車の後ろに立ち往生しているとイライラすることがあります。

それは、私たち全員が正しくまたは間違って慣れなければならないかもしれないことです。

話に戻りましょう。

特に、無害で一般的に歓迎されているAIベースの自動運転車についてXNUMXつの見苦しい懸念が生じ始めていることが判明しました。

を。 自動運転車が乗り物を拾うために AI がローミングしている場所は、コミュニティ全体で懸念されています。

b. 優先権のない歩行者を AI がどのように扱うかについても、大きな問題となっています。

当初、AIは町全体で自動運転車を歩き回っていました。 自動運転車への乗車をリクエストしたい人は、基本的に同じように車を呼ぶチャンスがありました。 徐々に、AIは、主に自動運転車を町のXNUMXつのセクションでローミングし続けるようになりました。 このセクションはより大きな金儲けであり、AIシステムは、コミュニティでの使用の一部として収益を最大化しようとするようにプログラムされていました。

町の貧しい地域のコミュニティメンバーは、自動運転車から乗車できる可能性が低くなりました。 これは、自動運転車が遠く離れていて、その地域の収益の高い部分を歩き回っていたためです。 町の離れた場所からリクエストが届いた場合、町の「尊敬されている」場所にある可能性が高い、より近い場所からのリクエストが優先されます。 結局、町のより豊かな部分以外の場所で自動運転車を利用できるようにすることはほぼ不可能であり、現在資源が不足している地域に住んでいた人々にとっては苛立たしいことでした。

AIは、プロキシ差別(間接差別とも呼ばれる)の形式にほぼ着地したと断言できます。 AIは、これらの貧しい地域を回避するようにプログラムされていませんでした。 代わりに、ML/DLを使用してそうすることを「学習」しました。

問題は、ライドシェアリングの人間のドライバーが同じことをすることで知られていましたが、必ずしも金儲けの角度だけではありません。 町の特定の場所でライダーを迎えに行くことに不利な偏見を持っていたライドシェアリングの人間のドライバーの何人かがいました。 これはやや知られている現象であり、市はこれを行っている人間のドライバーを捕まえるための監視アプローチを導入していました。 人間の運転手は、不快な選択の慣行を実行するために問題を起こす可能性があります。

AIが同じ種類の流砂に陥ることは決してないと想定されていました。 AIベースの自動運転車がどこに向かっているのかを追跡するための特別な監視は設定されていません。 コミュニティのメンバーが不満を言い始めて初めて、市の指導者たちは何が起こっているのかを理解しました。 自動運転車や自動運転車が提示するこれらのタイプの都市全体の問題の詳細については、次の私の記事を参照してください。 ここでは、このリンク これは、私がこのトピックについて共同執筆したハーバード主導の研究について説明しています。

AIベースの自動運転車のローミングの側面のこの例は、制御が行われている、不利な偏見を持つ人間を伴う状況が存在する可能性があり、それらの人間のドライバーを置き換えるAIがそのまま残されているという以前の兆候を示しています。自由。 残念ながら、AIは、同様のバイアスに徐々に陥り、十分なガードレールが設置されていないとそうする可能性があります。

XNUMX番目の例では、AIが、通りを横断するための通行権を持たない歩行者を待つために停止するかどうかを決定します。

あなたは間違いなく運転していて、通りを横断するのを待っている歩行者に遭遇しましたが、彼らにはそうする権利がありませんでした。 これは、あなたが彼らを止めて交差させるかどうかについてあなたが裁量権を持っていたことを意味しました。 あなたはそれらを交差させずに進むことができ、それでも完全にそうすることの法的運転規則の範囲内にあります。

人間の運転手がそのような歩行者のために停止するか停止しないかを決定する方法の研究は、時々人間の運転手が不利なバイアスに基づいて選択をすることを示唆しました。 人間の運転手は、人種や性別などによって歩行者の外見が異なっていれば停止したとしても、歩行者に目を向けて停止しないことを選択する可能性があります。 私はこれをで調べました ここのリンク.

AIベースの自動運転車が、通行権を持たない歩行者のために停止するかどうかの問題に対処するようにプログラムされていると想像してみてください。 AI開発者がこのタスクをプログラムすることを決定した方法は次のとおりです。 彼らは、街中に配置されている町のビデオカメラからデータを収集しました。 データは、通行権を持たない歩行者のために停止する人間のドライバーと、停止しない人間のドライバーを示しています。 すべてが大きなデータセットに収集されます。

機械学習とディープラーニングを使用して、データを計算でモデル化します。 次に、AI駆動システムはこのモデルを使用して、停止するか停止しないかを決定します。 一般的に、地域の慣習が何であれ、これがAIが自動運転車を誘導する方法であるという考え方です。

市の指導者と住民を驚かせたのは、AIが人種や性別など、歩行者の外見に基づいて停止するか停止しないかを選択したことは明らかです。 自動運転車のセンサーは、待機中の歩行者をスキャンし、このデータをML / DLモデルにフィードし、モデルは停止するか続行するかをAIに送信します。 残念なことに、この町にはすでにこの点で多くの人間のドライバーの偏見があり、AIは今や同じことを模倣していました。

幸いなことに、これにより、これまでほとんど誰も存在を知らなかった問題が発生します。 悪いニュースは、AI がこれを行っているのが見つかったため、ほとんどの責任が AI にあるということでした。 この例は、AI システムが、すでに存在する人間の不利なバイアスを単に複製する可能性があることを示しています。

まとめ

門外不当なバイアスを持っているか、時間の経過とともにバイアスを収集する AI の考案を回避しようとする方法は多数あります。 アプローチの XNUMX つは、AI 開発者がこの出来事を認識していることを確認し、問題を回避するために AI をプログラムするように常に注意を払うことです。 もう XNUMX つの方法は、AI 自体に非倫理的な行動を自己監視させることです ( ここのリンク) および/または潜在的に非倫理的な行動について他の AI システムを監視する別の AI を持っている (これについては、 ここのリンク).

要約すると、人間は不都合な偏見を持つ可能性があり、どういうわけか自分の限界を知る必要があることを認識する必要があります. 同様に、AI には不都合なバイアスがかかる可能性があり、何らかの形で AI の限界を知る必要があります。

AI 倫理を熱心に受け入れている人のために、私は今、誰もが知っているはずのもう XNUMX つの有名なセリフで締めくくりたいと思います。 つまり、エシカル AI の重要性を引き続き使用し、共有してください。 そうすることで、私は生意気にこう言います。

ソース: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/