AI倫理と法的AIは、AI倫理として知られている欺瞞的なふりに慌てています-自律的な自走式車を含む、倫理的なAIに準拠しているという誤った主張である洗浄

「洗う」と「洗う」という言葉を伸ばして、さまざまな知恵の真珠を伝えるために利用できる無数の方法を探りましょう。

たとえば、汚れた洗濯物を公共の場で洗うべきではないと人々が予告することがあることを私たちは知っています。 子供の頃、大人が不適切な発話は石鹸で口を洗い流すことにつながる可能性があると警告することがよくあったことを覚えています。 もうXNUMXつのよく引用されるフレーズは、すべてが最終的には洗い流されているように見えるというものでした。

関連付けたくないことを心配している場合は、手を洗うことができるかどうかを確認することをお勧めします。 あらゆる種類の洗浄関連の考慮事項は、一般的に、あなたが簡単に洗い流されたり、洗い流されたりする可能性があることを含めて、周りに散らばっています。 あなたの顔から卵を洗い流すことは、会話の中でまだ時々出てくるように見える古い格言です。

洗濯のバリエーションを表すために色を使用することも比較的よく知られています。 白塗りの概念は少なくとも1500年代にまでさかのぼると言われています。 レッドウォッシング、パープルウォッシングなどについて懸念が表明されています。 おそらくグリーンウォッシングは、最近最も頻繁に使用されているキャッチフレーズのXNUMXつであり、持続可能性を宣伝する際の空洞化の行為を表向きに示していますが、主張された話をウォーク・ザ・トークのバックボーンの実体でバックアップしていません。

最新バージョンの洗浄のXNUMXつ、つまりAIEthics洗浄についてはご存じないかもしれません。

言い回しを倫理的洗浄に短縮することを好む人もいますが、このように見える代替の言い回しは、ほぼすべての種類の倫理指向の洗浄を指す可能性があるため、混乱を招く可能性があります。 ここで説明する特定の形式の倫理洗浄は、AIに焦点を当てた倫理と関連するすべての倫理的考慮事項で構成されています。 わかりやすくするために、倫理洗浄は、AI自体とはほとんどまたはまったく関係がない可能性のあるさまざまな倫理洗浄を対象としていることをお勧めします。 そして、そのAI倫理洗浄は、特にAIの領域を対象とした特定の種類の倫理洗浄です。

不思議に思うかもしれませんが、AI倫理の洗浄は正確には何で構成されていますか?

私の全体的な定義は、AI倫理の洗浄は次のように定義できるということです。

  • AI倫理の洗浄は、AI倫理の原則について主張されている思いやりのある懸念にリップサービスまたはウィンドウドレッシングを提供することを伴います。これには、倫理的なAIアプローチに特に従わないだけでなく、AI倫理アプローチを覆したり弱めたりすることさえあります。

AI倫理と倫理的AIに関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

AI倫理の洗浄の簡単な例は、あなたにとって実例となるかもしれません。

AIシステムを作成している企業が、AIがどれほど素晴らしいものになるかを世界に知らせることを望んでいるとします。 同社は、AIについて多くの肯定的な報道やソーシャルメディアの注目を集めるためのXNUMXつの手段は、AIの機能が完全に公平でバランスが取れているように考案されていることを公表することであると判断しました。 AIは完全に信頼できます。 会社は、いわゆる作成の信条を厳守しています 責任あるAI、で私の報道を参照してください ここのリンク。 主張は、一般的なAI倫理の原則のすべてがAIシステムに統合的に織り込まれているということです。

いいね!

ちょっとした問題。

会社はそれらのことを何もしなかったことがわかりました。

彼らはAI倫理の原則を順守しませんでした。 彼らはそう言ったが、そうしなかった。 同社のリーダーとマーケティングチームは、倫理的なAIの考慮事項を厳しく観察したと主張することは、おそらくビジネスに役立つと判断しました。 これらの厄介なAI倫理ガイドラインに対処するという大変な作業を実際に行う必要はありません。代わりに、あなたがやったと言うだけです。

出来上がり、彼らはAI倫理の時流に飛び乗ることで、即座にAIを宣伝することができます。

簡単です。

しかし、これは危険な道であり、実際には大きな問題を引き起こす可能性があります。

倫理的AIを順守するためにほとんど何もしなかったときに、誤ってAI倫理を呼び出すことを決定した企業やリーダーは、多くのフォールアウトに備えている可能性があります。 まず、AI倫理の虚偽についていつか暴露された場合、彼らは深刻な評判の反発の危険を冒しています。 彼らはAI倫理を気にすることについて嘘をついた。 さらに、嘘をついたので、AI倫理に関係なく、彼らは追加のお湯に入れられます。 それは嘘の二人組です。

第二に、多くの法的影響が彼らと彼らの会社を噛む可能性があります。 XNUMXつは、彼らが言ったことをしなかったということであり、彼らの虚偽の主張に対して法的に責任を問われる可能性があります。 もうXNUMXつは、AIが、過度の偏見を示したり、差別的な方法で行動したりするなど、社会的に敏感な分野を含む法律に違反することになる可能性があるということです。 法的な問題のリストは長く、会社に費用のかかる法廷闘争を強いることになり、いわば船全体を沈没させる可能性があります。

なぜ会社とそのリーダーはAI倫理の洗浄を使用することを選択するのでしょうか?

ええと、倫理的なAIの実践を組み込むことはいくぶん費用がかかる可能性がありますが、反論は、最終的には、AIが本物であり、AI倫理のアプローチを順守する能力が高いという利点によって、コストを容易に超えることになるということです。 それでも、一部の企業はAIをできるだけ早く公開することを好み、その後、開発プロセス中に倫理的AIを考慮しなかったことによるフォールアウトについて心配することになると考えています。

今私に支払うか、後で私に支払うかという古い線が耐えるようになっているようです。 一部のリーダーや企業は、サイコロを振って、今すぐ支払うファセットを回避することを選択したときに、後で支払う価格を負担する必要がないことを期待する価値があると考えています。 AI倫理に関しては、フリーランチはありません。 あなたは自分の役割を果たすか、結果を負担します。

だからといって、これらすべてに小刻みに動く余地があまりないというわけではありません。

企業は、AI倫理に足を踏み入れてから、自分たちが行ったことを誇張しようとするかもしれません。 彼らの潜在的な想定は、AI倫理をまったく取り入れていなかったという非難に対抗するのに十分な防御力があるということです。 彼らは、彼らをフックから外すかもしれない、ある種の中途半端なAI倫理活動を指摘することができます。 したがって、議論はAI倫理の取り組みを行っていないことからシフトし、代わりに彼らが十分に行ったかどうかになります。

これは、ほぼ無限に進む可能性があり、AI倫理の洗浄業者が操作するための多くの余地を与える可能性がある議論です。

ゆるい側面の一部は、AI倫理に関する普遍的で明確に実装可能な標準にまだ合意されていないということです。 一貫性のある包括的な一連の指標がなければ、AI倫理が適切に遵守されているかどうかについての議論は希薄で濁っています。 会社は彼らが十分にしたと主張するでしょう。 会社が十分に行っていなかったと主張する部外者または他の人は、そのような反対の論争を示す困難な戦いをするでしょう。 あいまいさが支配する可能性があります。

AI倫理の洗浄の根底にある野生の羊毛の考慮事項についてさらに肉やジャガイモに入る前に、深く不可欠なトピックに関するいくつかの追加の基礎を確立しましょう。 AI倫理、特に機械学習(ML)とディープラーニング(DL)の登場について簡単に説明する必要があります。

最近のAIの分野で、そしてAIの分野の外でさえ、最も大きな声のXNUMXつが、倫理的なAIのより優れた類似性を求める声で構成されていることを漠然と知っているかもしれません。 AI倫理と倫理AIを参照することの意味を見てみましょう。 その上で、機械学習とディープラーニングについて話すときの意味を探ります。

多くのメディアの注目を集めているAI倫理のXNUMXつの特定のセグメントまたは部分は、不利な偏見や不平等を示すAIで構成されています。 AIの最新の時代が始まったとき、今では何人かが呼んでいるものに対する熱意が爆発的に高まったことをご存知かもしれません。 AI For Good。 残念ながら、その噴出する興奮に続いて、私たちは目撃し始めました 悪い人のためのAI。 たとえば、さまざまなAIベースの顔認識システムには、人種的バイアスや性別バイアスが含まれていることが明らかになっています。 ここのリンク.

反撃するための努力 悪い人のためのAI 活発に進行中です。 声高に加えて 法的 不正行為を抑制することを追求する一方で、AIの卑劣さを正すためにAI倫理を採用することへの実質的な推進力もあります。 概念は、AIの開発とフィールド化のために、主要な倫理的AI原則を採用し、承認する必要があるということです。 悪い人のためのAI 同時に、好ましいものを告げると同時に促進する AI For Good.

関連する概念として、私はAIの問題の解決策の一部として、AIをそのような考え方で火と戦うことを試みることを提唱しています。 たとえば、倫理的なAIコンポーネントをAIシステムに組み込んで、AIの残りの部分がどのように動作しているかを監視し、差別的な取り組みをリアルタイムでキャッチする可能性があります。 ここのリンク。 また、一種のAI倫理モニターとして機能する別のAIシステムを用意することもできます。 AIシステムは、別のAIが非倫理的な深淵に入る時期を追跡および検出するための監督者として機能します(このような機能の分析を参照してください。 ここのリンク).

すぐに、AI倫理の根底にあるいくつかの包括的な原則をあなたと共有します。 あちこちに浮かんでいるこれらの種類のリストがたくさんあります。 あなたはまだ普遍的な魅力と同意の唯一のリストがないと言うことができます。 それは残念なニュースです。 幸いなことに、少なくともすぐに利用できるAI倫理リストがあり、それらは非常に似ている傾向があります。 とにかく、これは、ある種の合理的な収束の形によって、AI倫理が構成されているものの一般的な共通性に向けて私たちが道を見つけていることを示唆しています。

最初に、AIを作成、フィールド化、または使用する人にとって重要な考慮事項となるものを説明するために、倫理的なAIの全体的な原則のいくつかを簡単に説明しましょう。

たとえば、バチカンが ローマはAI倫理を求める そして、私が詳細にカバーしたように ここのリンク、これらは、特定されたXNUMXつの主要なAI倫理原則です。

  • 透明性: 原則として、AIシステムは説明可能でなければなりません
  • インクルージョン: すべての人間のニーズを考慮に入れて、すべての人が利益を得ることができ、すべての個人が自分自身を表現し、成長するための最良の条件を提供できるようにする必要があります
  • 責任: AIの使用を設計および展開する人は、責任と透明性を持って進めなければなりません
  • 公平性: 偏見に従って作成または行動しないでください。これにより、公平性と人間の尊厳が保護されます。
  • 信頼性: AIシステムは確実に機能する必要があります
  • セキュリティとプライバシー: AIシステムは安全に機能し、ユーザーのプライバシーを尊重する必要があります。

米国国防総省(DoD)が 人工知能の使用に関する倫理原則 そして、私が詳細にカバーしたように ここのリンク、これらはXNUMXつの主要なAI倫理原則です。

  • 責任者: DoDの担当者は、AI機能の開発、展開、使用に責任を持ちながら、適切なレベルの判断と注意を払います。
  • 衡平: 部門は、AI機能の意図しないバイアスを最小限に抑えるために慎重な措置を講じます。
  • 追跡可能: 部門のAI機能は、関連する担当者が、透過的で監査可能な方法論、データソース、設計手順とドキュメントなど、AI機能に適用可能なテクノロジー、開発プロセス、運用方法を適切に理解できるように開発および展開されます。
  • 信頼性のある: 部門のAI機能には明確で明確な用途があり、そのような機能の安全性、セキュリティ、および有効性は、ライフサイクル全体にわたってそれらの定義された用途内でテストおよび保証の対象となります。
  • 統治可能: 部門は、意図しない結果を検出して回避する機能と、意図しない動作を示す展開済みシステムを非アクティブ化または非アクティブ化する機能を備えながら、意図した機能を実行するAI機能を設計および設計します。

また、AI倫理の原則のさまざまな集合的分析についても説明しました。これには、「AI倫理ガイドラインのグローバルランドスケープ」というタイトルの論文(公開の 自然)、そして私の報道はで探求していること ここのリンク、このキーストーンリストにつながった:

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

ご想像のとおり、これらの原則の根底にある詳細を特定しようとすると、非常に困難になる可能性があります。 さらに言えば、これらの幅広い原則を完全に具体的で詳細なものに変えて、AIシステムを作成するときに使用できるようにする努力も、難しい問題です。 AI倫理の原則が何であるか、そしてそれらが一般的にどのように守られるべきかについて全体的に手を振るのは簡単ですが、AIコーディングでは、道路に出会う真のゴムでなければならないというより複雑な状況です。

AI倫理の原則は、AI開発者、AI開発の取り組みを管理する開発者、さらにはAIシステムのフィールド化と維持を最終的に実行する開発者によっても利用されます。 開発と使用のAIライフサイクル全体にわたるすべての利害関係者は、倫理的AIの確立された規範に従う範囲内であると見なされます。 通常の想定では、「コーダーのみ」またはAIをプログラムするものは、AI倫理の概念に準拠する必要があるため、これは重要なハイライトです。 先に述べたように、AIを考案してフィールド化するには村が必要であり、村全体がAI倫理の原則に精通し、それを遵守する必要があります。

また、今日のAIの性質について同じページにいることを確認しましょう。

今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

私が焦点を当てているタイプのAIは、現在私たちが持っている無感覚なAIで構成されています。 乱暴に推測したい場合 衆生 AI、この議論は根本的に異なる方向に進む可能性があります。 感性のAIはおそらく人間の品質のものでしょう。 感性AIは人間の認知的同等物であると考える必要があります。 さらに言えば、私たちが超知能AIを持っているかもしれないと推測する人もいるので、そのようなAIは人間よりも賢くなる可能性があると考えられます(可能性としての超知能AIの探求については、を参照してください)。 ここでの報道).

物事をより現実的に保ち、今日の計算上の非感覚的なAIについて考えてみましょう。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、計算パターンマッチングを活用する機械学習(ML)とディープラーニング(DL)が広く利用されています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI開発者も何が起こっているのか理解していない可能性があります。 ML / DLの難解な数学は、現在隠されているバイアスを見つけるのを困難にする可能性があります。 AI開発者が潜在的に埋もれているバイアスをテストすることを当然期待し、期待するでしょうが、これは見た目よりも難しいです。 比較的大規模なテストを行っても、ML/DLのパターンマッチングモデルにバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

ここで、AI倫理の洗浄のトピックに戻りましょう。

私が通常発生しているのは、AI倫理洗浄のXNUMXつの主要なバリエーションです(これらについては後で説明します)。

1) 彼らが何であるかを知らないAI倫理ワッシャー: AIおよび/またはAI倫理についての無知または非識字によるAI倫理の洗浄

2) それに陥るAI倫理ワッシャー: AI倫理とAIについては本物であるが、不注意による滑りによるAI倫理の洗浄

3) 薄く伸びるAI倫理ワッシャー: AI倫理は、意図的な意図による洗浄ですが、スミジオンによるものであり、時にはほとんど言い訳になりません(またはそうではありません)

4) それを知っていて、勇敢にそれを漕ぐAI倫理ワッシャー: AI倫理は、陰湿でしばしばとんでもない設計によって全面的に洗い流されます

私は一般的に、AI倫理の洗浄が何であるかについての認識に関して、XNUMXつの変種が最も無実であると言うものから最も有罪であるものまでの範囲であることを提案します。 最初のものから始めて、かなり恥ずべきXNUMX番目のものに向かって、XNUMXつのそれぞれを歩きましょう。

まず、AI倫理が何であるかを知らず、AI倫理が何であるかを知らず、おそらくAIについてもあまり知らないという点で、ある程度洗浄されていない人がいます。 あなたは彼らがそれらのトピックについて無知または無知であると言うことができます。 彼らにとって、彼らはおそらくAI倫理の洗浄を行っており、盲目的にそして幸福に彼らがそうしていることに気づいていません。

これは悲しいです。

AI倫理の洗浄が主要な通信社や有名なソーシャルメディアの影響力者によって行われている場合も、特に悪いことがあります。 彼らは嘘のベッドを与えられたかもしれません、そして彼らはそれらの虚偽を精査しませんでした。 その間、彼らは彼らの到達範囲と影響力を利用して、AI倫理の洗浄の主張を永続させます。 それが社会に不利益をもたらすことは悲しいことであり、さらに悪いことに、すべてが語った。 騙された者に恥を知れ。 彼らは賢明にする必要があります。 だまされて愚かに見えることは親しいいとこであることを忘れないでください。

次は、スリップアップであるAIEthicsの洗浄です。 企業がAI倫理の原則を順守するのに非常にうまくやっていると想像してみてください。 これを行ったことを祝福することができます。 残念ながら、ある時点で、AI倫理の観点から十分にサポートされていないAIについて発表したとします。 これが比較的無害なステートメントまたは意図しないエラーである場合、私たちはそれらにある程度の寛容さを与えるかもしれません。 もちろん、彼らが作ったポイントがひどく線を越えている場合、滑りはそれほど簡単に見落とされません。 評判を築くのに永遠にかかるが、それを完全に破壊するのにほんの少しの時間しかかからないという有名な行があります。

次に、XNUMXつのカテゴリの最後のXNUMXつに入ります。

これらは、AI倫理の洗浄を完全に認識しており、おそらく企業戦略の一部として、または他の神聖な手段によって、AI倫理を意識的に利用することを決定した犯人です。 これらの後者のXNUMXつの主な違いは、AI倫理の洗浄はマイナーな性質のものであるか、重要で重要な性質のものである可能性があることです。 あなたは物事を伸ばすことを選択し、線をわずかに超えているものを持っています。 AI倫理の洗浄を極限まで追求することをいとわない人もいます。

あなたは確かに極端なAI倫理の洗浄のいずれかが明白でなければならず、過激派がクッキージャーに彼らの手で捕まるだろうと考えているかもしれません。 誰もが皇帝が服を着ていないのを見るでしょう。 残念ながら、今日の世界のAIとAI倫理に関する全体的な混乱を考えると、極端なAI倫理の洗浄でさえフリーパスを取得できるほどの濁りがあります。

これは、AI倫理について真剣で冷静な態度をとる側にとっては非常に厄介なことです。 彼らは、他の誰かがAI倫理の洗浄で非常に明白なあらゆる種類の傾斜を投げ回しているのを見ています。 過激派はメディアの注目を集めています。 彼らは15分のことわざで有名です。 AI倫理に関して実際の仕事と正しいことをしている人は、AI倫理の洗浄が市場の他の人によってスコットフリーで行われるとき、当然のことながら憤慨し、当然のことながら動揺する可能性があります。

これは、スポーツで行われるジュースやドーピングにほぼ例えることができます。 自然に一流のアスリートになることに心と魂を注ぎ込んだアスリートは、他の誰かが同じレベルで競争し、禁止されているパフォーマンス向上薬を使用して競争する場合、完全に頭がおかしくなる可能性があります。 あなたは他のネタバレを呼ぶべきですか? あなたはおそらく静かにそれらの薬を服用することを選び、火と火を戦うべきですか? これは難問です。 AI分野でジュースやドーピングがどのように行われるかについての私の議論については、を参照してください。 ここのリンク.

AI倫理の洗浄について少し説明したので、同じ分野に等しく存在する他の関連するキャッチフレーズを紹介します。

簡単に説明できるものをいくつか示します。

  • AI倫理劇場
  • AI倫理ショッピング
  • AI倫理バッシング
  • AI倫理シールド
  • AI倫理フェアウォッシング

それらのキャッチフレーズのそれぞれを簡単に調べてみましょう。 それぞれのフレーズが正確に何を意味するのか、誰もが同意するわけではないので、私の一般的な印象をあなたと共有します。

AI倫理劇場

AI倫理劇場は、AI倫理の原則を順守したことを、段階的かつ儀式的な方法で大規模に示すという点で、AI倫理の洗浄にいくらか似ています。 サーカスやAI倫理の劇場を運営している会社が、実際にAI倫理の慣行を順守していた場合、彼らがそうすることができるはずであると主張することができます。 確かに、これが他の人にもAI倫理を遵守するように促すことを願っています。

一方、AI倫理劇場は通常船外に出る傾向があるように思われます。 これらすべてのポニーとゾウを飼うというサーカスの行為は、実際に行われたことを誇張する傾向があります。 これは次に、前述のAI倫理の洗浄テイクのXNUMX番目、XNUMX番目、またはXNUMX番目のカテゴリに入り始めます。 劇場が悪いよりも良い(インスピレーションを与えるなど)か、良いよりも悪い(おそらく他の人によるAI倫理の洗浄に拍車をかける)かどうかはまだわかりません。

AI倫理ショッピング

企業がAIシステムを構築しようとしていることを想像し、AIの開発ライフサイクル中にAI倫理の側面を含める必要があることを認識します。 多くのAI倫理ガイドラインのどれを利用する必要がありますか?

それらのいくつかを一度に選択すると、混乱を招き、AIの取り組みが非常にかさばる可能性があります。 すべての人が容易に参照して理解できる単一の内部採用セットがある場合、開発努力はAI倫理慣行に従う可能性が高くなる可能性があります。

さて、AI倫理の一連の原則に着手するためのXNUMXつの手段は、利用可能な多くの原則のうちのXNUMXつだけを選択することです。 もうXNUMXつは、いくつかのセットを取得して、それらをマージしようとすることです。 マージの問題は、セットをXNUMXつの包括的な全体にマージするのに最適な方法について議論するために多くの貴重なエネルギーと時間を費やすことです。 この種の注意は、おそらく開発プロセスに取り掛かることからあなたをそらすでしょう。さらに、AI倫理の統合活動中に起こったかもしれない刺激的な議論だけでAIチームを怒らせるかもしれません。

全体として、採用するのが最も簡単であると思われるAIEthicsの一連のガイドラインに注意を向けようとする場合もあります。 これは完全に問題ないようです。 なぜ人生をおそらくすでにあるよりも難しくするのですか? その同じ息の中で、あなたが骨抜きにされたAI倫理セットを選ぶと仮定します。 あなたはできる限りのことをすることを目指しています。 あなたは、AI倫理の原則を順守した頭を高く保ち、その間、密かにミニマリストを選択するか、あるいはそれよりも少ないものを選択します。

これをAI倫理ショッピングと呼ぶ人もいます。

あなたは、AI倫理を順守していると主張するための最も簡単な方法を提供する、AI倫理の原則を見つけるために買い物をしています。 これは、なぜ必要以上のことをしなければならないのかという意味で理にかなっていますか? しかし、これは、薄く覆い隠されたAI倫理のセットを見つけて、それがまばらで限界であるという現実のときに、それが堅牢で誠実であるかのようにそれに固執することによって歪めることができます。

AI倫理バッシング

AI倫理バッシングの概念はやや単純です。

あなたは、AI倫理の原則の性質と使用を打ち負かすか、軽蔑します。 バッシングの一般的な形式は、AI倫理ガイドラインは価値がなく、印刷された紙の価値がないと主張することです。 もうXNUMXつの人気のあるバッシュは、AI倫理は、現実の世界とは何の関係もない学術的な演習であるということです。 AI倫理が悪いという勧めさえありますが、これはおそらく、AIを適切に開発しているように見せたい人に誤ったカバーを提供するためです。 このように、AI倫理は隠蔽工作です。

私はAI倫理のバッシング現象について詳しく説明しません。また、これらのバッシングが間違っているか、少なくとも誤った方向に進んでいる理由についての私の報道をご覧になることをお勧めします。 ここのリンク.

AI倫理シールド

AI倫理のシールドとは、通常、AI倫理は、悪意のある人物やAI倫理の取り組みを隠したり覆い隠したりする可能性のある欺瞞的な種類のシールドであるという考えを指します。 私はこの議論を通してこれを繰り返しほのめかしました。

AI倫理を使用していることを誇らしげに示す人もいるという懸念が続いており、根本的な現実は、彼らがそのようなことをほとんど何もしていないということです。 盾を完全に取り除くべきだと言う人にとって、これはお風呂の水で赤ちゃんを捨てるのに似ていると私は反論する傾向があります。

AI倫理フェアウォッシング

公平性が重要です。

私がAI倫理の原則について話し合っていたとき、最も頻繁に特定されたAI倫理ガイドラインのXNUMXつは、AIが公平であるか、公平に似ていることを確認することで構成されていることを思い出してください。 これにより、「フェアウォッシング」というキャッチフレーズが生まれました。これは、AIシステムがフェアではない可能性がある場合、またはフェアであることを裏付ける証拠がほとんどない場合に、AIシステムがフェアであると言われたり主張されたりする可能性を呼び起こすために使用されます。 これは、AIが公正であるという概念的な考慮事項を使用した、AI倫理の洗浄のマッシュアップです。これを表現するための近道は、潜在的に存在すると言うことです。 フェアウォッシング それが起こる可能性があります。 研究者はこの問題を次のように説明しています。「特に、機械学習における公平性の概念の重要性が増しているため、企業はフェアウォッシングを実行したくなるかもしれません。これは、企業が使用する学習モデルの誤った認識を促進するものと定義しています。 (「フェアウォッシング:合理化のリスク」のUlrichAiıvodji、Hiromi Arai、Olivier Fortineau、Sebastien Gambs、Satoshi Hara、Alain Tappによる)。

AI倫理の洗浄については、考慮すべきもうXNUMXつの工夫があります。

やや巨視的なスケールでは、AI倫理の台頭は、さらに壮大なものの盾または覆いであるという懸念が表明されています。 AIのガバナンスに関する法律を確立するために多くの取り組みが進行中であることをご存知かもしれません。 これは世界中で起こっています。 私がコラムで取り上げたEUでも、米国でも同様に、多くの国で激しい取り組みが行われています。

AI倫理を採用することは、これらの法律の制定を食い止める手段になるかもしれないと示唆する人もいます。 AI倫理の使用はAIの問題に適切に対処するため、企業は新しい法律は必要ないと説得力を持って主張することができます。 AI倫理は通常、「ソフトロー」の一形態として分類され、通常は自発的です(他のすべては同等です)。 AIに関する法律は、いわゆる「ハードロー」に分類され、自主的な構成ではありません(一般的に)。

企業はハードローよりもソフトローを豊富に好むと一般的に言われており、より寛容で余裕があります。 誰もがその感情に同意するわけではありません。 ソフトローは企業が不適切な努力から逃れることを可能にし、それらを釘付けにする唯一の方法はハードローを制定することであると言う人もいます。 他の人は、企業は時にはより明確な競争の場を提供できる厳しい法律を好むだろうと指摘しています。 厳しい法律により、すべてのプレーヤーが同じルールに従う可能性があります。 ソフトローは一種の選択を可能にするため、混乱を招き、競争の場を混乱させます。

何が起こっているのかというこの壮大な見方の中で、AI倫理が洗う様子を研究がどのように描いているかを次に示します。テクノロジー企業が倫理的行動の外見を利己的に採用することでますます認識されています。 私たちは、テクノロジー企業によるこのように成長している倫理的言語の手段化を「倫理的洗浄」と呼んでいます。 AI倫理評議会以外にも、倫理の洗浄には、企業のコミュニケーション戦略の一部を形成することが多い倫理的作業の価値を単純化する他の試みが含まれます。 製品自体の存在に内在するリスクに取り組むのではなく、人道的な設計に焦点を当てる(たとえば、アプリに費やす時間を削減するようにユーザーを誘導する)。 「公正な」機械学習システムに関する作業への資金提供。これらのシステムが社会に与える幅広い影響についてのより深い疑問を積極的に覆い隠します」(ElettraBietti著、「倫理洗浄から倫理バッシングへ:道徳哲学内からの技術倫理に関する見解」 公平性、説明責任、透明性に関する2020年会議の議事録).

この重要な議論のこの時点で、あなたはこのトピックを紹介するかもしれないいくつかの実例を望んでいるに違いありません。 私の心に近い特別で確実に人気のある例のセットがあります。 倫理的および法的な影響を含むAIの専門家としての私の立場では、トピックのやや理論的な性質をより簡単に把握できるように、AI倫理のジレンマを示す現実的な例を特定するように頻繁に求められます。 この倫理的なAIの難問を鮮明に表現する最も刺激的な分野のXNUMXつは、AIベースの真の自動運転車の登場です。 これは、このトピックに関する十分な議論のための便利なユースケースまたは模範として役立ちます。

次に、検討する価値のある注目すべき質問を示します。 AIベースの真の自動運転車の出現は、AI倫理の洗浄について何かを明らかにしていますか?もしそうなら、これは何を示していますか?

質問を解くために少し待ってください。

まず、真の自動運転車には人間のドライバーが関与していないことに注意してください。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手が運転する必要はなく、人間が車両を運転するための設備もありません。 Autonomous Vehicles(AV)、特に自動運転車に関する広範囲にわたる継続的な報道については、を参照してください。 ここのリンク.

真の自動運転車とはどういう意味かをさらに明確にしたいと思います。

自動運転車のレベルを理解する

明確にするために、真の自動運転車とは、AIが完全に自力で車を運転し、運転タスク中に人間の支援がない車のことです。

これらの自動運転車はレベル4およびレベル5と見なされます(私の説明を参照してください) ここでは、このリンク)、一方、人間の運転手が運転努力を共有する必要がある車は、通常、レベル2またはレベル3と見なされます。運転タスクを共有する車は、半自律的であると説明され、通常、さまざまなADAS(先進運転支援システム)と呼ばれる自動化されたアドオン。

レベル5にはまだ真の自動運転車はなく、これを達成できるかどうか、またそこに到達するまでにどれくらいの時間がかかるかはまだわかりません。

一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路や小道で行われている、いくつかの主張、で私の報道を参照してください ここでは、このリンク).

半自律型の車には人間のドライバーが必要であるため、これらのタイプの車の採用は、従来の車の運転とそれほど変わりません。そのため、このトピックについてそれ自体をカバーすること自体はそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。

半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。

レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。

自動運転車とAI倫理の洗浄

レベル4とレベル5の真の自動運転車両の場合、運転タスクに人間のドライバーは関与しません。

乗客はすべて乗客となります。

AIが運転を行っています。

すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。

AIが知覚力を持たないことを強調しているのはなぜですか?

AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。

その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。

このトピックで遊びに来る無数の側面に飛び込みましょう。

まず、すべてのAI自動運転車が同じであるとは限らないことを認識することが重要です。 各自動車メーカーと自動運転技術会社は、自動運転車を考案するためのアプローチを取っています。 そのため、AI駆動システムが何をするか、何をしないかについて、大胆な発言をすることは困難です。

さらに、AI駆動システムが特定のことを行わないと述べるときはいつでも、これは後で、実際にそのことを行うようにコンピューターをプログラムする開発者によって追い抜かれる可能性があります。 AI駆動システムは段階的に改善され、拡張されています。 現在の既存の制限は、システムの将来のイテレーションまたはバージョンでは存在しなくなる可能性があります。

それが、私がこれから関わろうとしていることの根底にある十分な警告を提供することを願っています。

自動運転車がここにあり、自動運転車はすでに完成しているという大胆な主張を宣言する見出しをほぼ確実に目にしました。 含意は通常、自律性の側面が解決されるということです。 私たちは、人間のドライバーと同じくらい、おそらく人間よりも優れたAIを導き出しました。

そのバブルを確実にポップして記録を正すためだけに、これはまだ当てはまりません。

米国の人間の運転手が年間約2.5万人の自動車事故に巻き込まれ、年間40,000人以上の死者が出ていることを私たちは知っています。私の統計を参照してください。 ここのリンク。 人間のドライバーと同じくらい安全に、またはより安全に運転できれば、一見合理的な同類の人なら誰でもAI運転システムを歓迎するでしょう。 さらに、私たちがすべての人にモビリティを体験し、今日モビリティに制約のある人々が、便利で安価な輸送のためにすぐにアクセスできるAI駆動の車両を利用できるようになることを願っています。

一部の専門家は衝撃的に「エクストラマイル」を進み、自動運転車はクラッシュしないと恥ずべき主張をします。 これは絶対にくだらないことであり、完全に誤りです。 さらに悪いことに、それは満たすことができない高い期待を設定しています。 自動運転車はクラッシュしないことを大衆に納得させることができれば、自動運転車に関連するクラッシュがXNUMX回でも発生した瞬間に、彼らは大声で怒鳴ります。 破滅できない主張が社会への不幸と不利益である理由の私の詳細な説明については、で私の報道を参照してください ここのリンク.

これらの種類の誇張やその他の虚偽のすべては、AI倫理の原則を遵守している場合、これらの種類の野蛮で根拠のない主張を行うべきではないという点で、AI倫理の原則によってカバーされていると言えます。 したがって、これらの誤った表現や虚偽は、AI倫理の洗浄のルーブリックの範囲内にあります。

自動運転車や自動運転車に関連するAI倫理の洗浄は、非常に豊富で、悲しいことにそうです。 インターネットをさりげなく検索すると、自動運転車に関する何十億ものおどけた主張やサポートされていない主張がわかります。 これは、自分のブログにいる人だけに限定されているわけではありません。 主要な通信社はこれに巻き込まれています。 大手企業がこれに巻き込まれています。 スタートアップはこれに巻き込まれます。 ベンチャーキャピタル企業はこれに巻き込まれます。 株主はこれに巻き込まれます。 等々。

この特定の領域でのAI倫理の洗浄が横行していることは、悲観的な自信を持って言えるでしょう。

自律性と自律システムを伴うAI倫理洗浄に関するキャッチフレーズの特殊な変形は、自律洗浄の概念です。 これを描いた著者のLizaDixonは、次のように述べています。 自律洗浄は、すべての条件下でシステム機能が確実に実行できる範囲を超えて誇張されている場合に、完全自律システムに拡張することもできます。 自動洗浄により、何かが実際よりも自律的に見えるようになります。 自動洗浄の目的は、システムの技術的能力と一致しないレベルのシステムの信頼性を伝えることを目的とした表面的な言い回しを使用して、エンティティを差別化し、および/または競争上の優位性を提供することです。 自動洗浄は、自動化されたシステムの機能に関する誤った情報を無意識のうちに別の人に繰り返した場合にも、不注意に発生する可能性があります。 自動洗浄は偽情報の一形態であり、ある意味でウイルス性です」(交通研究の学際的展望、「Autonowashing:The Greenwashing of Vehicle Automation」、2020)。

私の以前の指摘からの思い出として、私が通常発生しているのを見るAI倫理洗浄のXNUMXつの主要な変種があり、それらは自動運転車の分野でもすぐに見つかります。

  • 彼らがいることを知らないAI倫理ワッシャー:自動運転車におけるAIおよび/またはAI倫理についての無知または非識字によるAI倫理の洗浄
  • それに陥るAI倫理ワッシャー: 自動運転車のAI倫理とAIについては本物ですが、不注意による滑りによるAI倫理の洗浄
  • 薄く伸びるAI倫理ワッシャー: AI倫理は、意図的な意図による洗浄ですが、自動運転車ではほとんど許されない(または許されない)場合があります。
  • それを知っていて、勇敢にそれを漕ぐAI倫理ワッシャー: AI倫理は、自動運転車の陰湿でしばしば法外な設計によって全面的に洗い流されます

さらに、自律分野における他のタイプのAI倫理洗浄および関連する洗浄疾患の事例を簡単に確認できます。

  • AI倫理劇場 自動運転車や自動運転車で
  • AI倫理ショッピング 自動運転車や自動運転車で
  • AI倫理バッシング 自動運転車や自動運転車で
  • AI倫理シールド 自動運転車や自動運転車で
  • AI倫理フェアウォッシング 自動運転車や自動運転車で

まとめ

AI倫理の洗浄は私たちの周りにあります。 入浴中です。

この深刻で終わりのない問題に注意を向けることで、AI倫理が洗浄されていることを識別できるようになることを願っています。 理解するのは難しいかもしれません。 AI倫理の洗浄を行う人は、非常に巧妙で悪意のあるものになる可能性があります。

便利なトリックのXNUMXつは、虚偽や誇張と混ざり合う真実を少し混ぜ合わせることです。 あなたは真実の部分を容易に見つけて同意するかもしれないので、あなたは潜在的に他の真実でないまたは欺瞞的な部分も真実であると信じるように動揺します。 気の利いた厄介な形の欺瞞。

それをホグウォッシュと呼びましょう。

AI倫理の洗浄を完全に実行するものから口を洗い流すことはできますか?

申し訳ありませんが、それは思ったほど簡単ではありません。 そうは言っても、AI倫理の洗浄をキャッチして呼び出すのは困難であり、時にはシーシュポスが重い岩を丘の上に押し上げるようなものであるという理由だけで、私たちは試してみる必要があります。

あなたが知らなかった場合、ゼウスは彼にこの岩を永遠に押すように命じました、そして努力が頂上に到着すると巨大な岩は永遠にロールバックしました。 AI倫理の洗浄に関しても同じ苦境に直面していると思います。

洗い流される必要のあるAI倫理の洗浄は常に増えます。 それは確実な保証であり、それについて何も希望に満ちたものは何もありません。

出典:https://www.forbes.com/sites/lanceeliot/2022/06/09/ai-ethics-and-legal-ai-are-flustered-by-deceptive-pretenses-known-as-ai-ethics-自己運転車を含む、倫理的AIに固執するという虚偽の主張を洗う/