AIを有毒または偏見のあるものに訓練することは、自律型自動運転車を含め、有益である可能性があるというAI倫理の衝撃的な啓示

これはあなたが前に聞いたことがあると私が確信している古い行です。

XNUMXつを知るにはXNUMXつ必要です。

これが1900年代初頭にさかのぼることができ、通常は不正行為者を指すときに呼び出された表現であることに気付かないかもしれません(1600年代など、キャッチフレーズの他のバリエーションはさらに遡ります)。 この発話がどのように使用されるかの例は、泥棒を捕まえたい場合は、泥棒を使用する必要があるという概念を伴います。 これは、人が人を知るのに必要であるという主張を示しています。 多くの映画やテレビ番組は、この便利な賢者の知恵を利用しており、詐欺師を捕まえる唯一の実行可能な手段は、悪行者を追跡するために同様に腐敗した詐欺師を雇うことを伴うことをしばしば描写しています。

ギアをシフトすると、この同じ論理を利用して、誰かが過度の偏見や差別的な信念を体現しているかどうかを識別する適切な方法は、すでにそのような傾向を抱いている誰かを見つけることであると主張する人もいるかもしれません。 おそらく、すでに偏見に満ちている人は、この他の人間が同様に毒性でいっぱいになっていることをより簡単に感じることができるでしょう。 繰り返しになりますが、XNUMXつが公言されたマントラであることを知るには人が必要です。

偏見のある人を使って別の偏見のある人を口説く可能性に対するあなたの最初の反応は、懐疑論と不信のXNUMXつかもしれません。 誰かが不利な偏見を持っているかどうかを、単にそれらを調べて、同じような性質の他の誰かを見つけることに頼る必要がないことによって理解することはできませんか? 有毒に偏っている他の人を明らかにするために、偏っている人を故意に発見しようとするのは奇妙に思えます。

それは、あなたがそれを知るのに必要であるという推定上のリフレインを受け入れる意思があるかどうかに部分的に依存していると思います。 これは、泥棒を捕まえる唯一の方法が、あなたが排他的かつ常に泥棒を利用することを要求することを示唆するものではないことに注意してください。 これは、十分に考慮できる追加のパスにすぎないと合理的に主張しているように思われるかもしれません。 たぶん、あなたは泥棒を使って泥棒を捕まえる可能性を喜んで受け入れるかもしれませんが、他の状況ではこれを計り知れない戦術にするかもしれません。

彼らが言うように、適切な設定のために適切なツールを使用してください。

これらの基本事項を説明したので、この物語の恐らく神経質で表面上は衝撃的な部分に進むことができます。

準備は完璧?

AIの分野では、特に偏見のあるAIや差別的な行動をとるAIを探し出そうとする場合は、それを知るのに時間がかかることがあるという同じ教訓を積極的に追求しています。 はい、気が遠くなるような考えは、同じ毒性の類似性を持つ他のAIを発見して発見する手段としてこれを使用するために、完全かつ恥ずかしがらずに偏りがあり、差別的なAIを意図的に考案したいと思うかもしれないということです。 すぐにわかるように、問題の根底にあるさまざまな厄介なAI倫理の問題があります。 AI倫理と倫理的AIに関する私の全体的な継続的かつ広範な報道については、を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

この有毒なAIの使用を、他の有毒なAIを追いかけることわざの火と火の概念として表現できると思います(この状況を表現するために、婉曲表現や例示的なメタファーをたくさん呼び出すことができます)。 または、すでに強調したように、人が人を知るには人が必要であるという主張を簡潔に参照するかもしれません。

包括的な概念は、特定のAIシステムに従来の方法を使用して過度のバイアスが含まれているかどうかを把握しようとするだけでなく、従来の方法を採用しないようにする必要があるということです。 そのような型破りな手段のXNUMXつは、最悪のバイアスと社会的に容認できない毒性をすべて含むAIを考案し、このAIを使用して、同じ悪意の傾向を持つ他のAIのルーティングを支援することです。

これを簡単に考えると、確かに完全に賢明であるように見えます。 最大の毒性を持つAIの構築を目指すことができます。 この有毒なAIは、毒性のある他のAIを探し出すために使用されます。 当時明らかになった「悪い」AIについては、毒性を元に戻すか、AIを完全に捨てることで対処できます(AIの解体または破壊に関する私の記事を参照してください。 ここでは、このリンク)、またはAIを投獄する(AIの閉じ込めに関する私の記事を参照してください。 ここでは、このリンク)、または他に適用できると思われることを行います。

反論は、有毒で偏見に満ちたAIを意図的かつ積極的に考案していることを頭で調べてもらう必要があるということです。 これは私たちがこれまで考慮すべき最後のことであり、一部の人は勧めます。 完全に善からなるAIを作ることに焦点を当てます。 過度の偏見の悪と残骸を持っているAIを考案することに集中しないでください。 そのような追求の概念そのものは、一部の人には反発しているように思われます。

この物議を醸す探求についてはもっと多くの不安があります。

おそらく、有毒なAIを考案するという使命は、社会を弱体化させる可能性のあるAIを作り上げたいと願う人々を大胆にするだけでしょう。 不適切で不快なバイアスを持つAIを作成することはまったく問題ないと言っているようです。 心配も躊躇もありません。 有毒なAIを心ゆくまで考案することを目指して、世界中のAIビルダーに大声で伝えています。 それは(ウィンクウィンク)すべて善の名の下にあります。

さらに、この有毒なAIの種類が流行するとします。 AIは、他の多くのAIビルダーによって使用および再利用されている可能性があります。 最終的に、有毒なAIはあらゆる種類のAIシステムに隠されます。 おそらく封印された実験室から逃げる人間を弱体化させるウイルスを考案することとの類似性が作られるかもしれません。 あなたが知っている次のことは、とんでもないことはいたるところにあり、私たちは自分自身を一掃しました。

ちょっと待ってください、それらの反論への反論は行きます、あなたはあらゆる種類の狂ったそしてサポートされていない仮定で大騒ぎしています。 深呼吸する。 落ち着いて。

有毒なAIを安全に作成し、閉じ込めておくことができます。 有毒なAIを使用して、残念ながら過度のバイアスがあるAIの増加する有病率を見つけて削減するのに役立てることができます。 これらのとんでもないワイルドで根拠のないスノーボーリングの叫び声は、純粋にひざまずく反応であり、残念ながら愚かで完全に愚かです。 お風呂の水で赤ちゃんを捨てようとしないでください、あなたは事前に警告されています。

このように考えると、支持者は主張します。 研究、評価、および他の社会的に攻撃的なAIを発見するための探偵のように振る舞う目的で、有毒なAIを適切に構築および使用することは価値のあるアプローチであり、追求する上で公正な揺れを得る必要があります。 発疹の反応を脇に置きます。 地球に降りてきて、これを冷静に見てください。 私たちの目は賞に注目しています。つまり、偏ったベースのAIシステムの過剰を明らかにして元に戻し、社会として有毒なAIに圧倒されないようにすることです。

限目。 終止符。

有毒または偏ったAIを有益な目的に利用するというこの概念を掘り下げるには、次のようなさまざまな重要な方法があります。

  • 何をすべきでないか、および/または何を監視するかに関するAIのトレーニングに使用できる、偏った完全に有毒なデータを意図的に含むデータセットを設定します
  • このようなデータセットを使用して、バイアスの検出と社会毒性を伴う計算パターンの把握について、機械学習(ML)モデルとディープラーニング(DL)モデルをトレーニングします。
  • 毒性のトレーニングを受けたML/DLを他のAIに適用して、対象のAIが潜在的に偏っていて毒性があるかどうかを確認します
  • 毒性のトレーニングを受けたML/DLを利用できるようにして、AIビルダーに注意すべき点を示し、モデルを簡単に検査して、アルゴリズムに組み込まれたバイアスがどのように発生するかを確認できるようにします。
  • AI倫理と倫理的AI認識の一部として、有毒なAIの危険性を例示します。これらはすべて、この問題を介して伝えられます。
  • その他

これらのいくつかの道の要点に入る前に、いくつかの追加の基本的な詳細を確立しましょう。

最近のAIの分野で、そしてAIの分野の外でさえ、最も大きな声のXNUMXつが、倫理的なAIのより優れた類似性を求める声で構成されていることを漠然と知っているかもしれません。 AI倫理と倫理AIを参照することの意味を見てみましょう。 それに加えて、機械学習とディープラーニングについて話すときに私が何を意味するのかを探ることで、ステージを設定することができます。

多くのメディアの注目を集めているAI倫理のXNUMXつの特定のセグメントまたは部分は、不利な偏見や不平等を示すAIで構成されています。 AIの最新の時代が始まったとき、今では何人かが呼んでいるものに対する熱意が爆発的に高まったことをご存知かもしれません。 AI For Good。 残念ながら、その噴出する興奮に続いて、私たちは目撃し始めました 悪い人のためのAI。 たとえば、さまざまなAIベースの顔認識システムには、人種的バイアスや性別バイアスが含まれていることが明らかになっています。 ここのリンク.

反撃するための努力 悪い人のためのAI 活発に進行中です。 声高に加えて 法的 不正行為を抑制することを追求する一方で、AIの卑劣さを正すためにAI倫理を採用することへの実質的な推進力もあります。 概念は、AIの開発とフィールド化のために、主要な倫理的AI原則を採用し、承認する必要があるということです。 悪い人のためのAI 同時に、好ましいものを告げると同時に促進する AI For Good.

関連する概念として、私はAIの問題の解決策の一部として、AIをそのような考え方で火と戦うことを試みることを提唱しています。 たとえば、倫理的なAIコンポーネントをAIシステムに組み込んで、AIの残りの部分がどのように動作しているかを監視し、差別的な取り組みをリアルタイムでキャッチする可能性があります。 ここのリンク。 また、一種のAI倫理モニターとして機能する別のAIシステムを用意することもできます。 AIシステムは、別のAIが非倫理的な深淵に入る時期を追跡および検出するための監督者として機能します(このような機能の分析を参照してください。 ここのリンク).

すぐに、AI倫理の根底にあるいくつかの包括的な原則をあなたと共有します。 あちこちに浮かんでいるこれらの種類のリストがたくさんあります。 あなたはまだ普遍的な魅力と同意の唯一のリストがないと言うことができます。 それは残念なニュースです。 幸いなことに、少なくともすぐに利用できるAI倫理リストがあり、それらは非常に似ている傾向があります。 とにかく、これは、ある種の合理的な収束の形によって、AI倫理が構成されているものの一般的な共通性に向けて私たちが道を見つけていることを示唆しています。

最初に、AIを作成、フィールド化、または使用する人にとって重要な考慮事項となるものを説明するために、倫理的なAIの全体的な原則のいくつかを簡単に説明しましょう。

たとえば、バチカンが ローマはAI倫理を求める そして、私が詳細にカバーしたように ここのリンク、これらは、特定されたXNUMXつの主要なAI倫理原則です。

  • 透明性: 原則として、AIシステムは説明可能でなければなりません
  • インクルージョン: すべての人間のニーズを考慮に入れて、すべての人が利益を得ることができ、すべての個人が自分自身を表現し、成長するための最良の条件を提供できるようにする必要があります
  • 責任: AIの使用を設計および展開する人は、責任と透明性を持って進めなければなりません
  • 公平性: 偏見に従って作成または行動しないでください。これにより、公平性と人間の尊厳が保護されます。
  • 信頼性: AIシステムは確実に機能する必要があります
  • セキュリティとプライバシー: AIシステムは安全に機能し、ユーザーのプライバシーを尊重する必要があります。

米国国防総省(DoD)が 人工知能の使用に関する倫理原則 そして、私が詳細にカバーしたように ここのリンク、これらはXNUMXつの主要なAI倫理原則です。

  • 責任者: DoDの担当者は、AI機能の開発、展開、使用に責任を持ちながら、適切なレベルの判断と注意を払います。
  • 衡平: 部門は、AI機能の意図しないバイアスを最小限に抑えるために慎重な措置を講じます。
  • 追跡可能: 部門のAI機能は、関連する担当者が、透過的で監査可能な方法論、データソース、設計手順とドキュメントなど、AI機能に適用可能なテクノロジー、開発プロセス、運用方法を適切に理解できるように開発および展開されます。
  • 信頼性のある: 部門のAI機能には明確で明確な用途があり、そのような機能の安全性、セキュリティ、および有効性は、ライフサイクル全体にわたってそれらの定義された用途内でテストおよび保証の対象となります。
  • 統治可能: 部門は、意図しない結果を検出して回避する機能と、意図しない動作を示す展開済みシステムを非アクティブ化または非アクティブ化する機能を備えながら、意図した機能を実行するAI機能を設計および設計します。

また、AI倫理の原則のさまざまな集合的分析についても説明しました。これには、「AI倫理ガイドラインのグローバルランドスケープ」というタイトルの論文(公開の 自然)、そして私の報道はで探求していること ここのリンク、このキーストーンリストにつながった:

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

ご想像のとおり、これらの原則の根底にある詳細を特定しようとすると、非常に困難になる可能性があります。 さらに言えば、これらの幅広い原則を完全に具体的で詳細なものに変えて、AIシステムを作成するときに使用できるようにする努力も、難しい問題です。 AI倫理の原則が何であるか、そしてそれらが一般的にどのように守られるべきかについて全体的に手を振るのは簡単ですが、AIコーディングでは、道路に出会う真のゴムでなければならないというより複雑な状況です。

AI倫理の原則は、AI開発者、AI開発の取り組みを管理する開発者、さらにはAIシステムのフィールド化と維持を最終的に実行する開発者によっても利用されます。 開発と使用のAIライフサイクル全体にわたるすべての利害関係者は、倫理的AIの確立された規範に従う範囲内であると見なされます。 これは重要なハイライトです。通常の想定では、「コーダーのみ」またはAIをプログラムするものは、AI倫理の概念に準拠する必要があるためです。 先に述べたように、AIを考案してフィールド化するには村が必要であり、村全体がAI倫理の原則に精通し、それを遵守する必要があります。

また、今日のAIの性質について同じページにいることを確認しましょう。

今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

私が焦点を当てているタイプのAIは、現在私たちが持っている無感覚なAIで構成されています。 乱暴に推測したい場合 衆生 AI、この議論は根本的に異なる方向に進む可能性があります。 感性のAIはおそらく人間の品質のものでしょう。 感性AIは人間の認知的同等物であると考える必要があります。 さらに言えば、私たちが超知能AIを持っているかもしれないと推測する人もいるので、そのようなAIは人間よりも賢くなる可能性があると考えられます(可能性としての超知能AIの探求については、を参照してください)。 ここでの報道).

物事をより現実的に保ち、今日の計算上の非感覚的なAIについて考えてみましょう。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、計算パターンマッチングを活用する機械学習(ML)とディープラーニング(DL)が広く利用されています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI開発者も何が起こっているのか理解していない可能性があります。 ML / DLの難解な数学は、現在隠されているバイアスを見つけるのを困難にする可能性があります。 AI開発者が潜在的に埋もれているバイアスをテストすることを当然期待し、期待するでしょうが、これは見た目よりも難しいです。 比較的大規模なテストを行っても、ML/DLのパターンマッチングモデルにバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

このすべてについて他に何ができるでしょうか?

やや型破りな「XNUMXつを知るにはXNUMXつかかる」アプローチを使用して、AIバイアスまたは有毒なAIに対処する方法の以前に提示されたリストに戻りましょう。 リストはこれらの重要なポイントで構成されていたことを思い出してください。

  • 何をすべきでないか、および/または何を監視するかに関するAIのトレーニングに使用できる、偏った完全に有毒なデータを意図的に含むデータセットを設定します
  • このようなデータセットを使用して、バイアスの検出と社会毒性を伴う計算パターンの把握について、機械学習(ML)モデルとディープラーニング(DL)モデルをトレーニングします。
  • 毒性のトレーニングを受けたML/DLを他のAIに適用して、対象のAIが潜在的に偏っていて毒性があるかどうかを確認します
  • 毒性のトレーニングを受けたML/DLを利用できるようにして、AIビルダーに注意すべき点を示し、モデルを簡単に検査して、アルゴリズムに組み込まれたバイアスがどのように発生するかを確認できるようにします。
  • AI倫理と倫理的AI認識の一部として、有毒なAIの危険性を例示します。これらはすべて、この問題を介して伝えられます。
  • その他

これらの重要なポイントの最初のものをクローズアップしてみましょう。

有毒データのデータセットの設定

不快な社会的バイアスを含むデータセットを確立しようとする洞察に満ちた例は、WILDSキュレートコレクションのCivilCommentsデータセットです。

まず、いくつかの簡単な背景。

WILDSは、ML/DLのトレーニングに使用できるデータセットのオープンソースコレクションです。 WILDSの主な目的は、AI開発者が 分布シフト さまざまな特定のドメインで。 現在利用可能なドメインの一部には、動物種、生体組織の腫瘍、小麦の頭の密度などの領域、および後で説明するCivilCommentsなどの他のドメインが含まれます。

分散シフトに対処することは、AI ML/DLシステムを適切に作成するための重要な部分です。 これが取引です。 トレーニングに使用するデータは、テストまたは「実際の」データとはまったく異なることが判明する場合があります。したがって、おそらくトレーニングされたML / DLは、現実の世界がどのようになるかを漂わせています。 鋭敏なAIビルダーは、そのような分布の変化に対処するためにML/DLをトレーニングする必要があります。 これは事前に行う必要があり、後でML/DL自体の刷新が必要になることは驚くべきことではありません。

WILDSを紹介した論文で説明されているように、「分布の変化(トレーニングの分布がテストの分布と異なる場合)は、実際に導入された機械学習(ML)システムの精度を大幅に低下させる可能性があります。 実際の展開ではどこにでもあるにもかかわらず、これらの分布の変化は、今日のMLコミュニティで広く使用されているデータセットでは十分に表現されていません。 このギャップに対処するために、WILDSを紹介します。これは、腫瘍の特定のための病院間のシフトなど、実際のアプリケーションで自然に発生するさまざまな分布シフトを反映した10個のデータセットの厳選されたベンチマークです。 野生生物の監視のためのカメラトラップ全体。 衛星画像と貧困マッピングの時間と場所を超えて」(PangWei Koh、Siaori Sagawa、Henrik Marklund、Sang Xie、Marvin Zhang、Ashay Balsubramaniによる「WILDS:A Benchmark ofin-the-WildDistributionShifts」というタイトルの論文で、Weihua Hu、その他)。

このようなWILDSデータセットの数は増え続けており、データセットの性質は一般に、ML/DLトレーニングにデータを使用することの価値を高めるために強化されています。

CivilCommentsデータセットは、次のように説明されています。「ユーザーが生成したテキストの自動レビュー(たとえば、有毒なコメントの検出)は、インターネット上に書かれた膨大な量のテキストを管理するための重要なツールです。 残念ながら、以前の研究では、そのような毒性分類子がトレーニングデータのバイアスを拾い上げ、毒性を特定の人口統計の言及と誤って関連付けることが示されています。 これらのタイプの疑似相関は、特定のサブポピュレーションでモデルのパフォーマンスを大幅に低下させる可能性があります。 この問題は、CivilCommentsデータセットの変更されたバリアントを通じて調査されます」(WILDS Webサイトに掲載されています)。

厄介なオンライン投稿のニュアンスを考慮してください。

ほぼすべての種類のソーシャルメディアを使用しているときに、間違いなく有毒なコメントに遭遇しました。 最近普及しているように見える刺激的でひどいコンテンツを見ることを魔法のように避けることはほとんど不可能に思えます。 下品な内容が微妙な場合があり、偏ったまたは差別的な口調や意味の要点を理解するために、行間を読む必要があるかもしれません。 他の例では、言葉は露骨に有毒であり、通路が何を伴うかを理解するために顕微鏡や特別なデコーダーリングは必要ありません。

CivilCommentsは、有毒なコンテンツを計算で検出できるAI ML/DLを考案するためにまとめられたデータセットです。 この取り組みの根底にある研究者が焦点を当てたものは次のとおりです。「機械学習の意図しないバイアスは、さまざまな人口統計グループのパフォーマンスの体系的な違いとして現れ、社会全体の公平性に対する既存の課題を悪化させる可能性があります。 このホワイトペーパーでは、分類子のスコア分布が指定されたグループ間で変化する可能性のあるさまざまな方法を検討することにより、この意図しないバイアスの微妙なビューを提供する一連のしきい値にとらわれないメトリックを紹介します。 また、ID参照用のクラウドソーシングアノテーションを使用したオンラインコメントの大規模な新しいテストセットを紹介します。 これを使用して、既存のパブリックモデルで新しい潜在的に微妙な意図しないバイアスを見つけるためにメトリックを使用する方法を示します」(DanielBorkan、Lucas Dixon、 Jeffrey Sorensen、Nithum Thain、Lucy Vasserman)。

この問題に幅広い熟考的な考え方を与えると、有毒なコメントと有毒なコメントではないものを世界でどのように見分けることができるのか疑問に思うかもしれません。 人間は、彼らが完全に有毒な言い回しとして解釈するものに関して根本的に異なる可能性があります。 ソーシャルメディアに投稿された特定のオンラインコメントやコメントに憤慨している人もいれば、まったく動揺していない人もいます。 有毒な論評の概念は完全に漠然とした教訓であるという議論がしばしばなされます。 それは芸術のようなものであり、芸術は通常、見る人の目にのみ理解されると言われ、同様に、偏見や有毒な発言は見る人の目にのみあります。

Balderdash、いくつかのレトルト。 合理的な心の誰もがオンラインの発言が有毒であるかどうかを議論することができます。 投稿された苛性の侮辱が偏見と憎しみに満ちていることを理解するために、ロケット科学者である必要はありません。

もちろん、社会的慣習は時間の経過とともに変化し変化します。 しばらく前は不快とは見なされていなかったかもしれないことは、今日ではひどく間違っていると見なすことができます。 それに加えて、かつては過度に偏見があると見なされていた数年前のことは、意味の変化に照らして再解釈される可能性があります。 一方、有毒な解説は、最初に公布された時期に関係なく、常に有毒であると主張する人もいます。 毒性は相対的ではなく絶対的であると主張することができます。

それにもかかわらず、何が有毒であるかを確立しようとする問題は、非常に難しい難問になる可能性があります。 どちらがどちらかを確認できるアルゴリズムまたはAIを考案しようとすることに関して、この厄介な問題を倍増することができます。 人間がそのような評価を行うのに苦労している場合、コンピューターのプログラミングはおそらく同等かそれ以上に問題があると言う人もいます。

有毒なコンテンツを含むデータセットを設定するためのXNUMXつのアプローチは、クラウドソーシング手法を使用してコンテンツを評価または評価することを含みます。 次に、AI ML / DLは、人間の評価者によって示されたデータと関連するラベルを検査する場合があります。 これは、潜在的に、基礎となる数学的パターンを計算で見つける手段として役立つ可能性があります。 出来上がり、ML / DLは、特定のコメントが有毒である可能性が高いかどうかを予測または計算で評価できる可能性があります。

微妙な測定基準に関する引用された論文で述べられているように、「このラベル付けは、評価者にコメントの毒性を評価するように求め、「非常に有毒」、「有毒」、「言いにくい」、「無毒」から選択します。 評価者は、毒性のいくつかのサブタイプについても尋ねられましたが、これらのラベルはこの作業の分析には使用されませんでした。 これらの評価手法を使用して、毒性とアイデンティティのラベルを含む、オンラインコメントフォーラムからの1.8万件のコメントのデータセットを作成しました。 すべてのコメントには毒性のラベルが付けられ、450,000件のコメントのサブセットには同一性のラベルが付けられました。 アイデンティティのラベルが付けられたコメントの一部は、群衆の評価者がアイデンティティのコンテンツを頻繁に見ることができるように、アイデンティティのラベル付けの以前の反復から構築されたモデルを使用して事前に選択されました。

実例となる有毒なコンテンツを含むデータセットを目指す別の例には、AIベースの自然言語処理(NLP)会話型インタラクティブシステムをトレーニングする取り組みが含まれます。 あなたはおそらくAlexaやSiriなどのNLPシステムとやり取りしたことがあります。 Alexaが子供たちに不適切で危険なアドバイスを提供したときに発生した特に厄介な事例を含め、今日のNLPのいくつかの困難と制限について説明しました。 ここのリンク.

最近の研究では、年齢、性別、国籍、外見、人種または民族、宗教、障害状態、性的指向など、保護された人口統計学的特性のEEOC(Equal Employment Opportunities Commission)リストに一般的に基づくXNUMXつのカテゴリの社会的バイアスを使用しようとしました。オリエンテーション、および社会経済的地位。 研究者によると、「NLPモデルが社会的バイアスを学習することは十分に文書化されていますが、これらのバイアスが質問応答(QA)などの適用タスクのモデル出力にどのように現れるかについてはほとんど作業が行われていません。 QAのバイアスベンチマーク(BBQ)を紹介します。これは、米国の英語圏のコンテキストに関連するXNUMXつの社会的側面に沿って保護されたクラスに属する人々に対する証明された社会的バイアスを強調する著者によって構築された質問セットのデータセットです(「BBQ」というタイトルの論文で:質問応答のための手作りのベンチマーク」、Alicia Parrish、Angelica Chen、Nikita Nangia、Vishakh Padmakumar、Jason Phang、Jana Thompson、Phu Mon Htut、Samuel R. Bowman)。

偏った、完全に有毒なデータを意図的に含むデータセットの設定は、AIの増加傾向であり、特にAI倫理の出現と倫理的AIを作成したいという願望に興奮しています。 これらのデータセットを使用して、バイアスを検出し、社会毒性を伴う計算パターンを把握するための機械学習(ML)モデルとディープラーニング(DL)モデルをトレーニングできます。 次に、毒性のトレーニングを受けたML / DLを他のAIに慎重に向けて、対象のAIが潜在的に偏っていて毒性があるかどうかを確認できます。

さらに、利用可能な毒性トレーニング済みのML / DLシステムを使用して、AIビルダーに注意すべき点を紹介できるため、モデルを簡単に検査して、アルゴリズムに組み込まれたバイアスがどのように発生するかを確認できます。 全体として、これらの取り組みは、AI倫理および倫理的AI認識の一部として、有毒なAIの危険性を実証することができます。

この重要な議論のこの時点で、あなたはこのトピックを紹介するかもしれないいくつかのさらなる実例を望んでいるに違いありません。 私の心に近い特別で確実に人気のある例のセットがあります。 倫理的および法的な影響を含むAIの専門家としての私の立場では、トピックのやや理論的な性質をより簡単に把握できるように、AI倫理のジレンマを示す現実的な例を特定するように頻繁に求められます。 この倫理的なAIの難問を鮮明に表現する最も刺激的な分野のXNUMXつは、AIベースの真の自動運転車の登場です。 これは、このトピックに関する十分な議論のための便利なユースケースまたは模範として役立ちます。

次に、検討する価値のある注目すべき質問を示します。 AIベースの真の自動運転車の出現は、有毒なAIを考案するためのデータセットを持つことの有用性について何かを明らかにしていますか?もしそうなら、これは何を示していますか?

質問を解くために少し待ってください。

まず、真の自動運転車には人間のドライバーが関与していないことに注意してください。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手が運転する必要はなく、人間が車両を運転するための設備もありません。 Autonomous Vehicles(AV)、特に自動運転車に関する広範囲にわたる継続的な報道については、を参照してください。 ここのリンク.

真の自動運転車とはどういう意味かをさらに明確にしたいと思います。

自動運転車のレベルを理解する

明確にするために、真の自動運転車とは、AIが完全に自力で車を運転し、運転タスク中に人間の支援がない車のことです。

これらの自動運転車はレベル4およびレベル5と見なされます(私の説明を参照してください) ここでは、このリンク)、一方、人間の運転手が運転努力を共有する必要がある車は、通常、レベル2またはレベル3と見なされます。運転タスクを共有する車は、半自律的であると説明され、通常、さまざまなADAS(先進運転支援システム)と呼ばれる自動化されたアドオン。

レベル5にはまだ真の自動運転車はなく、これを達成できるかどうか、またそこに到達するまでにどれくらいの時間がかかるかはまだわかりません。

一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路や小道で行われている、いくつかの主張、で私の報道を参照してください ここでは、このリンク).

半自律型の車には人間のドライバーが必要であるため、これらのタイプの車の採用は、従来の車の運転とそれほど変わりません。そのため、このトピックについてそれ自体をカバーすること自体はそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。

半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。

レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。

自動運転車と有毒なAIを回避するステアリング

レベル4とレベル5の真の自動運転車両の場合、運転タスクに人間のドライバーは関与しません。

乗客はすべて乗客となります。

AIが運転を行っています。

すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。

AIが知覚力を持たないことを強調しているのはなぜですか?

AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。

その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。

このトピックで遊びに来る無数の側面に飛び込みましょう。

まず、すべてのAI自動運転車が同じであるとは限らないことを認識することが重要です。 各自動車メーカーと自動運転技術会社は、自動運転車を考案するためのアプローチを取っています。 そのため、AI駆動システムが何をするか、何をしないかについて、大胆な発言をすることは困難です。

さらに、AI駆動システムが特定のことを行わないと述べるときはいつでも、これは後で、実際にそのことを行うようにコンピューターをプログラムする開発者によって追い抜かれる可能性があります。 AI駆動システムは段階的に改善され、拡張されています。 現在の既存の制限は、システムの将来のイテレーションまたはバージョンでは存在しなくなる可能性があります。

それが、私がこれから関わろうとしていることの根底にある十分な警告を提供することを願っています。

自律走行車や自動運転車の出現に直面するAIを取り入れたバイアスには、多くの可能性があり、いつか実現する可能性があります。たとえば、次の私の議論を参照してください。 ここのリンク & ここのリンク。 自動運転車の展開はまだ初期段階です。 採用が十分な規模と可視性に達するまで、私が最終的に発生すると予測していた有毒なAIファセットの多くは、まだすぐには明らかにならず、広く一般の注目を集めていません。

最初は完全に無害に見えるかもしれない、一見単純な運転関連の問題を考えてみてください。 具体的には、通行権のない「わがままな」歩行者を待つために立ち止まるかどうかを適切に判断する方法を検討してみましょう。

あなたは間違いなく運転していて、通りを横断するのを待っている歩行者に遭遇しましたが、彼らにはそうする権利がありませんでした。 これは、あなたが彼らを止めて交差させるかどうかについてあなたが裁量権を持っていたことを意味しました。 あなたはそれらを交差させずに進むことができ、それでも完全にそうすることの法的運転規則の範囲内にあります。

人間の運転手がそのような歩行者のために停止するか停止しないかを決定する方法の研究は、時々人間の運転手が不利なバイアスに基づいて選択をすることを示唆しました。 人間の運転手は、人種や性別などによって歩行者の外見が異なっていれば停止したとしても、歩行者に目を向けて停止しないことを選択する可能性があります。 私はこれをで調べました ここのリンク.

AI駆動システムは、同じ種類のストップオアゴーの決定を行うようにどのようにプログラムされますか?

すべてのAI運転システムは、待機中の歩行者のために常に停止するようにプログラムする必要があると宣言できます。 これにより、問題が大幅に簡素化されます。 本当に難しい決断はありません。 歩行者が通行権を持っているかどうかに関係なく、歩行者が横断を待っている場合は、歩行者が横断できるようにAI自動運転車が停止していることを確認してください。

簡単です。

人生はそんなに簡単ではないようです。 すべての自動運転車がこのルールを順守していると想像してみてください。 歩行者は、AI駆動システムがプッシュオーバーであることに必然的に気付くでしょう。 通りを横断したいすべての歩行者は、いつでもどこにいても、意地悪にそうします。

自動運転車が時速45マイルの制限速度で高速道路を下りてきたとします。 歩行者は、AIが自動運転車を停止させることを「知っています」。 だから、歩行者は通りにダーツを投げます。 残念ながら、物理学はAIに勝っています。 AI駆動システムは自動運転車を停止させようとしますが、自律走行車の勢いはマルチトンの装置を前方に運び、邪魔な歩行者にぶつかります。 その結果、有害であるか、致命的となります。

歩行者は通常、運転手が運転しているときにこのタイプの行動を試みません。 確かに、いくつかの地域では、眼球戦争が起こっています。 歩行者はドライバーに目を向けます。 運転手は歩行者に目を向けます。 状況によっては、運転手が停止したり、運転手が車道に自分の主張を主張し、表面上は歩行者が自分の道を妨害しようとすることをあえてする場合があります。

AIが同様の眼球戦争に巻き込まれることはおそらく望ましくありません。これも、自動運転車のハンドルに人やロボットが座っていないため、少し難しいことです(ロボットの将来の可能性について説明しました)そのドライブ、参照してください ここのリンク)。 しかし、歩行者が常にショットを呼び出すことを許可することもできません。 結果は、関係者全員にとって悲惨なものになる可能性があります。

次に、このコインの反対側にひっくり返して、AI駆動システムがそのような状況で停止してはならないことを宣言したくなるかもしれません。 言い換えれば、歩行者が通りを横断する適切な通行権を持っていない場合、AIは常に自動運転車が衰えることなく進むべきであると想定する必要があります。 それらの歩行者に頑張ってください。

このような厳格で単純なルールは、一般の人々に受け入れられることはありません。 人々は人々であり、さまざまな状況で通行権が法的に欠如しているにもかかわらず、通りを横断することができないように完全に締め出されることを好まない。 大衆からの大きな騒動を容易に予想でき、自動運転車の継続的な採用に対して反発が発生する可能性があります。

私たちがそうするなら、そして私たちがそうしないなら、とんでもない。

これが、この運転の問題に対処する方法についての意思決定のようにAIをプログラムする必要があるという合理的な代替案にあなたを導いたことを願っています。 決して停止しないという厳格なルールは受け入れられません。同様に、常に停止するという厳格なルールも受け入れられません。 AIは、問題に対処するために、アルゴリズムによる意思決定またはADMを使用して考案する必要があります。

ML/DLアプローチと組み合わせたデータセットを使用してみることができます。

AI開発者がこのタスクをプログラムする方法を次に示します。 自動運転車が使用される特定の都市のいたるところに設置されているビデオカメラからデータを収集します。 データは、人間のドライバーが通行権を持たない歩行者のために立ち寄ることを選択した場合を示しています。 すべてデータセットに収集されます。 機械学習とディープラーニングを使用して、データを計算でモデル化します。 次に、AI駆動システムはこのモデルを使用して、停止するか停止しないかを決定します。

一般的に、地域の慣習が何であれ、これがAIが自動運転車を誘導する方法であるという考え方です。 問題が解決しました!

しかし、それは本当に解決されたのでしょうか?

人間の運転手が歩行者のためにいつ立ち寄るかの選択に偏りがある可能性があることを示す調査研究があることをすでに指摘したことを思い出してください。 特定の都市について収集されたデータには、おそらくこれらのバイアスが含まれています。 そのデータに基づくAIML/ DLは、同じバイアスをモデル化して反映する可能性があります。 AI駆動システムは、同じ既存のバイアスを実行するだけです。

この問題に取り組むために、実際にはそのようなバイアスがあるデータセットをまとめることができます。 そのようなデータセットを見つけてバイアスにラベルを付けるか、問題の説明に役立つデータセットを総合的に作成します。

以下を含む、以前に特定されたすべてのステップが実行されます。

  • この特定のバイアスを意図的に含むデータセットを設定する
  • データセットを使用して、この特定のバイアスの検出について機械学習(ML)モデルと深層学習(DL)モデルをトレーニングします
  • バイアストレーニングされたML/DLを他のAIに適用して、ターゲットAIが同様の方法でバイアスされる可能性があるかどうかを確認します
  • バイアスのトレーニングを受けたML/DLを利用できるようにして、AIビルダーに注意すべき点を示し、モデルを簡単に調べて、アルゴリズムに組み込まれたバイアスがどのように発生するかを確認できるようにします。
  • この追加された特定の例を介して、AI倫理および倫理的AI認識の一部として偏ったAIの危険性を例示します
  • その他

まとめ

オープニングラインをもう一度見てみましょう。

XNUMXつを知るにはXNUMXつ必要です。

この信じられないほど一般的な発言は、有毒なAIを探し出すことになると、他の有毒なAIの発見と処理に向けて、有毒なAIを構築して使用することに十分な信頼を与える必要があることを意味すると解釈する人もいます。 結論:別の泥棒を捕まえるのに泥棒が必要な場合があります。

声に出された懸念は、おそらく私たちが泥棒を作り始めるのに邪魔にならないということです。 有毒なAIを考案したいですか? それはおかしな考えのように思われませんか? 英雄的または勇敢な人のために意図的に構築されたAIを含め、すべての有毒なAIを禁止する必要があると強く主張する人もいます。 AI For Good 目的。

有毒なAIを、それが発生する可能性のある巧妙なまたは陰湿な装いでスケルチします。

今のところ、このトピックに関する最後のひねりがあります。 私たちは一般的に、この有名な行は、悪いまたは酸っぱい行為をする人や物事に関係していると思います。 このようにして、泥棒を捕まえるには泥棒が必要であるという考えにたどり着きます。 たぶん、このことわざを頭に入れて、悲しい顔よりも幸せな顔にする必要があります。

ここでは方法です。

偏りがなく毒性のないAIが必要な場合は、AIを知る必要があると考えられます。 おそらく、さらなる偉大さと善を認識し、それを生むには、最大かつ最善が必要です。 賢者の知恵のこの変種では、私たちは幸せそうな顔を見つめ続け、考案に集中することを目指しています AIForGood。

私の言いたいことを知っていれば、それを知るには、もっと明るく満足のいく陽気な視点が必要です。

出典:https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be-それらの自律的な自動運転車を含む有益な/