AI倫理の境界を、自慢のAIベースの自動運転車のユースケースを介して例示される可能性のある過激な倫理AIのトプシーに満ちた世界に押し込む

今日広く出現しているAI倫理の類似性の一般的な趣旨と注目は、真の轍になっていますか?

明らかにそう思う人もいるようです。

これを開梱しましょう。

AIの倫理的影響への関心が高まっていることは、一般的にご存知かもしれません。 これはしばしばAIEthicsまたはEthicalAIと呼ばれ、ここではこれらXNUMXつのモニカを主に同等で交換可能であると見なします(この仮定については不平を言う人もいるかもしれませんが、気を取られないように提案したいと思います。この議論の目的のために、もしあれば、潜在的な違い)。

AIに関して倫理的および道徳的な考慮が高まった理由の一部は、いわゆる 悪い人のためのAI。 ほら、もともとAIの最新の波は、主に提供していると認識されていました AI For Good。 これは、AIが、これまでコンピューティングが支援を目指すことができなかった、他の方法では困難な問題の多くを解決するのに役立つ可能性があるという考えでした。 私たちはついにAIを活用して、世界で最も困難な問題の多くに取り組むことに気付くかもしれません。

そのやや夢のような旅に沿って、コインの裏側があることに気づきました。 それは 悪い人のためのAI。 たとえば、AIベースの顔認識をめぐる騒動について知っているかもしれません。これは、人種的偏見や性別的偏見を具体化することがあります(このリンクの私の分析を参照してください)。 良くない。 現在、アルゴリズムによる意思決定(ADM)機能に組み込まれた不利な不平等が多数あるAIシステムの明確なインスタンスがたくさんあります。

AI内のいくつかの問題は倫理的に境界線上にありますが、他の問題は合理的な倫理的境界をかなり超えています。 それに加えて、AIが表面上は違法に行動している可能性があること、または完全に禁止されている違法なパフォーマーである可能性があることも数えられます。 法律と倫理的慣習によって打たれるXNUMXつのステップは、 悪い人のためのAI そして、デフォルトでひどく不道徳で違法な要素で完全にいっぱいになるかもしれないAIの進行中の猛攻撃を防ぐように努めます。

ほんの数例を挙げると、このリンクやここのリンクでの報道など、私のコラムでAI倫理のトピックを幅広く取り上げました。 倫理的なAI要因の比較的一般的なセットのXNUMXつは、AIのこれらの特性に注意を払うことです。

  • 公正さ
  • 透明性
  • 説明可能
  • 個人情報保護
  • 信頼性
  • 尊厳
  • 善行

これらは、今日のAIの作成とフィールド化に関して、私たちが熟考する必要のある、よく引用される社会的構成要素です。 AI倫理を扱った記事やブログ投稿を見てみると、その作品のテーマは前述の要素や特徴のXNUMXつに集中していることがわかるでしょう。

概して、倫理的AIを声高に求めている人々は、これらの要素が注目に値することに同意するだろうと私は信じています。 確かに、本当の問題は、AIを作っている人やAIを広めている人がメッセージを受け取っていないように見えることだと思われます。 これにより、AI倫理運動の真っ只中にいる人々は、なぜこれらの特性が非常に重要であるのかをさらに詳しく説明するようになりました。 残念ながら、AIを活用している多くのAI開発者や企業は、これがあればよいと考えているか、単にオプションであるか、または倫理的AIを日常の実用的な性質のものよりも抽象的な学術的演習と見なしています。

私の予測によると、倫理的AIについて頭を悩ませている人の多くは、いつの日か目を覚まし、社会と法の厳しい装いの下にいることに無礼に気付くでしょう。 あらゆる種類の商品やサービスに組み込まれている普及しているAIが、固有の偏見や不平等に満ちていることに気付くと、人々は非常に腹を立てます。 立法者はすでに新しい法律を推進しており、そのようなAIを推進する人々が法的に明確な規則の下に置かれるようにすることを試みています。彼らの努力から。

軽率に見えることなく、正義の輪は、AIを放出し、助長しているものに向かって容赦なく挽くでしょう。

明確にするために、 悪い人のためのAI 必ずしも悪役だけに起因するわけではありません。 AI開発者の大部分と、世界全体にAIを提供している開発者は、自分たちが手にしているものに気づいていないことがよくあります。 AI倫理についての鳴り響く警報は、明らかにまだ彼らの耳に届いていません。 幸いにも気づいていない人たちに同情することができますが、これは彼らの責任と最終的な注意義務から完全に免除されるわけではありません。

簡単に言うと、不利なAIの責任がAI自体の足元にあるという陰湿な精神的罠に陥ってはいけません。 これはほとんど笑えるものですが、エスケープハッチとして使用され続けており、今日のAIに慣れていない人にも信じられないほどうまく機能しているようです。 ほら、今日のAIは感性がありません。 程遠い。 AIの感性が可能かどうかはわかりません。 感性AIがいつ達成されるかはわかりません。

肝心なのは、責任者が完全に卑劣なトリックではないにしても不誠実であるため、AIに指を向けることによってすべての人の気をそらすというAIの非難ゲームです。これについては、こちらのリンクで私の説明を参照してください。 既存のAIは人間の開発者によってプログラムされています。 既存のAIがリリースされ、人間が利用できるようになります。 AIを構築する企業と、商品やサービス内でAIを使用する目的でAIのライセンスを取得または購入する企業は、完全に人類に基づいています。 人間は責任の担い手であり、AIではありません(おそらく、将来的には、異なる、より高度な類似性のAIがあり、その時点で、責任がどこにあるかの区別とより緊密に取り組む必要があります)。

簡単にまとめると、倫理的なAIの発声者が、AIの倫理的な意味について社会を手がかりにしようと熱心に取り組んでいることに感謝する必要があります。 今のところ、それは急な丘を岩を転がすというシーシュポスの行為にほとんど似ています。 耳を傾けるべき多くの人はそうしていません。 耳を傾ける人々は、常に是正措置を促されるわけではありません。 シーシュポスがその岩を永遠に丘の上に押し上げるといううらやましい仕事をしていたように、AI倫理の不協和音も必然的に永遠の騒動である必要があるとほぼ推測できます。

これでAI倫理に関する問題は解決したようで、おそらく別のトピックに移ることができます。

しかし、待ってください、もっとあります。

倫理的なAIの考慮事項の既存の本体が無視されていると主張する人がいることを知って、驚いたり、ショックを受けたりするかもしれません。 AI倫理の主要な要は、集団思考の代官管轄区に紛れ込んでおり、彼らは声高に勧めています。

ここでは取引があります。

私が以前に示したAI倫理的要因のリストは、倫理的AIクルーによる息苦しい関心事になっていると言われています。 誰もが無意識のうちにそれらの要因を受け入れ、それらの同じ要因を何度も何度も叩き続けます。 エコーチェンバーと同様に、AI倫理学者の優勢は、同じ歌を自分たちに繰り返し、その音を楽しんでいます。 パックから抜け出すことをいとわない人はほとんどいません。 群れの精神が倫理的AIを追い抜いた(それが主張されている)。

この難問はどのようにして生じたのですか? 偶然に基づいて、または設計によって、倫理的AIのこの望ましくない主流化を明らかに説明することができます。

偶然のシナリオでは、重要な要素に焦点を当てるのは非常に簡単です。 箱の外に出る必要はありません。 さらに、Ethical AIキャンプに参加している人は、標準を超えた概念を探すよりも、同様の仕事やアイデアに興味を持っている可能性があります。 羽の鳥が群がります。 インチ単位で、AI倫理アリーナは窮屈なクラスターに群がっていると言われており、一般的にはそれがもたらす親しみやすさと快適さで問題ありません。

それは多くのAI倫理参加者の怒りを招くと確信しています(私は他の人が主張していることについて言及しているだけであり、それらの主張を肯定していないことに注意してください)。

怒りをかき立てたい場合は、この現象が意図的に発生したという提案を検討してください。 やや陰謀論者の領域では、AI技術者と技術会社は、倫理的AIの考慮事項の絞り込みに直接またはサブリミナルに貢献していると言われています。

なぜ彼らはそうするのでしょうか?

XNUMXつの可能性について考えます。

XNUMXつの概念は、AI技術者は、既存の一連の倫理的AIの考慮事項を支持しているということです。これは、これらの特定の要因がテクノロジーを介して修正されやすいためです。 たとえば、説明性が必要な場合、AI技術者とAI研究者は、説明可能なAI(XAI)機能を作成するために昼夜を問わず働いています。 倫理的なAI要因の一般的なリストの美しさは、それらがAIテクノロジーの解像度の範囲内に収まるということです。 その理論に帰する人々は、AIテクノで容易に解決されない他の要因は、要因リストで牽引力を得ることができないことを示唆する傾向があります。

次に、他のより悪質なバリアントがあります。 AI倫理問題に本質的にリップサービスを提供したいハイテク企業やその他の企業があることが示唆されています。 その意味で、彼らは技術的に解決可能な懸念のより短いリストを楽しんでいます。 他の懸念事項を追加しようとすると、これらのテクノロジー企業の生活はさらに困難になります。 彼らは、倫理的なAI宣言をなだめるために必要な投資を最小限に抑えたいと考えています。

私は、ある種のほのめかしは、殴り合いに拍車をかけ、単純な怒りをはるかに超えていると思います。 倫理的AIを忠実に守り、貢献しようとしている人々は、これらの主張にまみれている可能性があります。彼らが一見恥ずかしがらず、完全に勇敢な非難に憤慨する理由は容易に想像できます。

喧嘩を始めないようにしましょう。代わりに、冷静で反省的な瞬間をとって、倫理的なAIキャンプが他に何を見逃しているのかを見てみましょう。 現代の倫理的AIの視点を拡大し拡大することを懇願しているもうXNUMXつの陣営は、時々、 根本的な倫理的AI.

Radical Ethical AIのモニカが適切か、歓迎されないか疑問に思われるかもしれません。

「過激」なものの意味は、良いことも悪いこともあります。 Radical Ethical AIの解釈のXNUMXつは、AI倫理の現状を揺るがす試みであるというものです。 「ラジカル」の使用は、わずかに調整したり、わずかなスイベルを弱くしたりするだけでなく、協調して劇的な方向転換を行う必要があることを示しています。 「ラジカル」を使用すると、除細動器を使用するのと同様の既存のアプローチにショックがもたらされると主張することができます。

他の人は、「ラジカル」という言葉を付けることによって、あなたはかなり混乱を引き起こしていると言うでしょう。 急進主義を風変わりで、奇行や奇行に向かって滑っていると解釈する人もいます。 中道政治家は、不快な仕掛けとしての命名だけのために、集団思考があるかどうかという概念そのものをすぐに拒否するかもしれません。 修辞を和らげると言う人もいるでしょう、そしてあなたはもっと真剣な注意と興味を得るかもしれません。

名前の問題にもかかわらず、あなたはこの他のキャンプが私たちの残りが行方不明であると信じているのは何であるかについて本質的に興味があるかもしれません。 whatchamacallitに対する内臓反応を脇に置きます。

あなたは外見上、牛肉はどこにあるのかと尋ねるかもしれません。

私は不足している成分にほのめかされたいくつかを表現しようとします。

まず、XNUMXつの主張された見落としは、従来の(昔ながらの?)倫理的AIの一般的な見方は、AIが不可避であるという制約的な隠された仮定であるということです。 したがって、AIが特定の種類の用途や社会的状況のためにカードに含まれるべきかどうかを検討するのではなく、AIが登場し、可能な限り最良の形にする必要があるというのが支配的な立場です。 これは豚に口紅を塗るのと似ていると思われるかもしれません(つまり、見栄えを良くするために何をしても、豚に口紅が残っています)。

それを極端に考えると、公平性、プライバシー、その他の問題は、おそらくタイタニック号の甲板上で椅子を動かすようなものだと言われています。 この船はまだ沈んでいます。つまり、何があってもAIが発生すると想定しています。 しかし、沈没が唯一の選択肢であるかどうかを再考する必要があるかもしれません。

すぐにこの考慮事項に戻ります。

ここに、正当な理由が与えられていないか、他の一般的なトピックへの豊富な注意によって絞り出されている、他の主張されている倫理的AIの問題がすぐにあります。

  • AIを使用して人間を管理することに加えて、企業での採用や解雇の決定を行うためのAIの使用を増やすなど、動物を管理するためのAIの使用についても同様の問題があります。 農場、動物園、そして一般的に動物が飼われがちなあらゆる場所でAIを利用するための取り組みが進行中です。 AIは動物福祉にどのように影響しますか?
  • AIが特に脆弱なコミュニティでベータテストされているように見える場合があります。これは最初の試みとして行われ、その後、AIはより広く普及するでしょう。 鋭い倫理的なAIの注意は、これらの慣行に向けられるべきです。
  • 労働者をAIに置き換えることについては多くの議論が行われているようですが、低賃金の低賃金労働者を監視するために使用される監視ツールとしてのAIの影響についてはあまり注目されていません。
  • AIシステムを構築し、実行し続けることの生態学的および環境への影響に関しては、十分な注意が払われていないようです(余談ですが、AIに関連するカーボンフットプリントについての私の議論に興味があるかもしれません。ここのリンクを参照してください)。

・ 等々。

倫理的AIの専門家の中には、それらが実際にはAI倫理に関する文献や議論に見られるトピックであるとすぐに指摘する人もいます。 彼らは前代未聞ではなく、息を呑むほど新しいものでもありません。

過激な倫理的AI純粋主義者の見方は、彼らが完全に未踏の地面を発見したと主張していないということだと私は信じています。 代わりに、彼らは、倫理的AIの既存の焦点は、他の「外れ値」トピックが期限を迎えることを許可するという通気性のある空気を窒息させることであると主張しています。

おそらく、これを表現するためのより口当たりの良い方法は、一般的なAI倫理の注目が、他の実行可能に重要なトピックにあまり注目していないことです。 あなたは死角があることを示唆することができ、それらをさらに折り畳むことができるかどうかを検討することは便利でしょう(これは同様に AIと倫理ジャーナル ThiloHagendorffによる「AI倫理の盲点」というタイトルの最近の論文で)。

倫理的AIが少し轍の中にあるかどうかの物語をカバーしたので、これは馬鹿げた論争であると言う人もいれば、轍は本物で悪化していると主張する人もいます。問題を詳しく調べるためのユースケース。

倫理的および法的な影響を含むAIの専門家としての私の立場では、トピックのやや理論的な性質をより簡単に把握できるように、アライメントのジレンマを示す現実的な例を特定するように頻繁に求められます。 この倫理的なAIの難問を鮮明に表現する最も刺激的な分野のXNUMXつは、AIベースの真の自動運転車の登場です。 これは、このトピックに関する十分な議論のための便利なユースケースまたは模範として役立ちます。

次に、検討する価値のある注目すべき質問を示します。 AIベースの真の自動運転車の出現は、一般的に挑戦されていない、または十分に表面化されていない、既成概念にとらわれない倫理的なAIの考慮事項を示していますか?

質問を解くために少し待ってください。

まず、真の自動運転車には人間の運転手が関与していないことに注意してください。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手が運転する必要はなく、人間が車両を運転するための設備もありません。 Autonomous Vehicles(AV)、特に自動運転車に関する広範囲にわたる継続的な報道については、こちらのリンクを参照してください。

真の自動運転車とはどういう意味かをさらに明確にしたいと思います。

自動運転車のレベルを理解する

明確にするために、真の自動運転車とは、AIが完全に自力で車を運転する車であり、運転タスク中に人間の支援はありません。

これらの自動運転車はレベル4およびレベル5と見なされますが(こちらのリンクの私の説明を参照)、人間のドライバーが運転努力を共有する必要がある車は通常、レベル2またはレベル3と見なされます。運転タスクの共有は半自律的であると説明されており、通常、ADAS(Advanced Driver-Assistance Systems)と呼ばれるさまざまな自動アドオンが含まれています。

レベル5の真の自動運転車はまだありません。これが達成できるかどうか、また到達するまでにかかる時間もわかりません。

一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路と小道で行われている、一部の人は主張します、ここのこのリンクで私の報道を見てください)。

半自律型の車には人間のドライバーが必要であるため、これらのタイプの車の採用は、従来の車の運転とそれほど変わりません。そのため、このトピックについてそれ自体をカバーすること自体はそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。

半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。

レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。

自動運転車と倫理的なAIの考慮事項の外れ値または追放者

レベル4とレベル5の真の自動運転車両の場合、運転タスクに人間のドライバーは関与しません。

乗客はすべて乗客となります。

AIが運転を行っています。

すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。

AIが知覚力を持たないことを強調しているのはなぜですか?

AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。

その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。

このトピックで遊びに来る無数の側面に飛び込みましょう。

まず、すべてのAI自動運転車が同じであるとは限らないことを認識することが重要です。 各自動車メーカーと自動運転技術会社は、自動運転車を考案するためのアプローチを取っています。 そのため、AI駆動システムが何をするか、何をしないかについて、大胆な発言をすることは困難です。

さらに、AI駆動システムが特定のことを行わないと述べるときはいつでも、これは後で、実際にそのことを行うようにコンピューターをプログラムする開発者によって追い抜かれる可能性があります。 AI駆動システムは段階的に改善され、拡張されています。 現在の既存の制限は、システムの将来のイテレーションまたはバージョンでは存在しなくなる可能性があります。

私はそれが私がこれから関係しようとしていることの根底にある十分な警告の連祷を提供すると信じています。

私たちは今、自動運転車を深く掘り下げ、既成概念にとらわれない根本的な倫理的AIの考慮事項が十分に正当化されていないかどうかを検討する準備ができています。

スペースの制約があるため、次に掘り下げることができるXNUMXつの特定の問題に焦点を当てましょう。 具体的には、一般的なAI倫理には、AIが不可避であるという隠された仮定があるという全体的な責任があります。

そのキーストーンの推定をAIベースの自動運転車に適用すると、自動運転車が必然的に考案され、フィールド化されることを前提として、倫理的なAIコミュニティが概して存在することを意味します。 彼らは自動運転車が出現することを額面通りに受け止めていますが、反訴は彼らがすべきであるということです その隠された仮定を立てて、代わりに、おそらく私たちはAI自動運転車を持ってはいけないということを咀嚼します(または、広範囲ではなく特別な状況でのみそれらを持っているようないくつかの変形)。

それは素晴らしい質問です。

明確にして言い換えると、AI自動運転車に関する主な倫理的AIの考慮事項は、AI自動運転車が不可避であると明らかに想定することにより、ボートを見逃しているという主張よりも。 その考え方では、期待はXNUMXつ示されます。

1. AIの自動運転車さえもあるべきか、横に追いやられるべきか、あるいは注意を引くための空気の息がないかどうかについての検討はほとんどありません。

2.代わりに、AI自動運転車に焦点が当てられる可能性が高いのは、説明可能性、公平性、プライバシーなどの従来の要素リストの倫理的なAIの影響を取り巻く詳細であり、一般的な装いまたは無言でそうすることです。私たちがこれらの自慢の自動運転車を確実に所有することを前提としています(他の選択肢は広くありません)。

興味深い提案。

AI自動運転車に関連するこのような問題に対する一般的な注意をさりげなく調べても、AI自動運転車はやや避けられないという仮定があることがわかりますが、大きな警告と二重星の脚注注意インジケーターが表示されることを確認しましょう。その抜本的な声明と一緒に。

理由は次のとおりです。

AIベースの真の自動運転車が本当に完全に可能になるかどうかはまだわかりません。

確かに、狭く考案された公道のトライアウトが進行中です。 これらは絶対にレベル5ではありません。その否定できない点について、誰も反対のことを合理的に主張することはできません。 適切なトライアウトのいくつかはレベル4に向かっていると言えますが、不安定で、比較的脆弱なODDがあります(ODDまたはOperation Design Domainsは、自動運転車メーカーが自動運転車が安全に運転できると述べている場所の規定です、こちらのリンクで私の議論を参照してください)。

そうは言っても、自動運転車の分野は、ほんの数年前よりもはるかに進んでいます。 次に何が起こるかについて明るい理由があります。 最大のこだわりは、これがいつ実行されるかというスケジュールです。 専門家による以前の予測はすぐに行ったり来たりしました。 あなたは既存の予測が確実に同じ運命に苦しむことを期待することができます。

つまり、AIベースの真の自動運転車が最終的に登場すると想定するのに十分な根拠があると非公式に言えるように思われます。 非常に制約のあるODDの中で、レベル4に向かっているように思われます。 次の論理的な拡張には、より多くのODD、より多様で深みのあるODDが含まれるように思われます。 私たちが十分に重なり合っていくらか網羅的なODD球体を征服したある時点で、これはレベル5への大胆な冒険に至るように思われます。それは少なくとも予想される進歩の段階的な哲学です(誰もが受け入れるわけではありません)。

AIベースの真の自動運転車が存在すること、またはその存在の壮大な瞬間に到達したことを宣言することの意味について多くの混乱があるため、これらの一見複雑なゆがみについて言及します。 AIベースの真の自動運転車の定義は何ですか? あなたがティーンエイジャーをレベル4に追い込んだ瞬間だと言えば、まあ、あなたはそれらのシャンパンボトルをポップし始めることができると思います。 レベル4の角を曲がったところであると言えば、それらのシャンパンボトルを保管する必要があります。 レベル5をマスターしたときだと言えば、それらのボトルは保管棚の後ろにあり、ほこりっぽくなることを期待する必要があります。

全体として、社会が実際にAI自動運転車が不可避であると仮定している場合、これは船外の仮定であると合理的に主張することができます。 誰もがその主張に同意するわけではないので、疑惑の可能性に腹を立てているあなたのそれらのために、あなたの激しい意見の不一致はそのように注目されます。

AIの自動運転車の必然性を一般的に想定することで、問題や悲惨な状況に陥る可能性はありますか?

この謎が表面にもたらす興味深い紆余曲折があります。

たとえば、すでによく議論されている懸念のXNUMXつは、AIベースの自動運転車が一部の地域でのみ利用可能であり、他の地域では利用できない可能性があることです。 自動運転車が設置されるエリアは「持っている」エリアであり、自動運転車が設置されていないエリアは「持っていない」エリアであり、自動運転車のメリットを実質的に活用できません。

これは宣言されています エリート またはiネキティ 多くの人が表明している現象学的な心配。 確かに、私はこれを何度も取り上げてきました。たとえば、ここのこのリンクや、ここのリンクのこの大規模な分析などです。

アイデアは、AI自動運転車がフリートで運用される可能性が高いということです。 フリートオペレーターは、自動運転車を配置する場所を選択します。 自動運転車を使用するための推定される金儲けの場所は、町や都市の裕福な地域にあります。 町や都市の貧しい地域や貧しい地域に住んでいる人は、自動運転車にすぐにアクセスできません。

同じ論理が外挿されて、各国も同様に同じ窮地に立たされるだろうと主張しています。 裕福な国では自動運転車の使用を経験しますが、貧しい国では経験しません。 持っている人は自動運転車へのアクセスと使用が増えますが、持っていない人はそうではありません。

持っているものが得ているのに、持っていないものが得られていないのではないかと疑問に思うかもしれません。 よくある兆候は、AIの自動運転車では、自動車事故や自動車衝突がはるかに少なくなると予想されていることです。 交通事故による人身傷害や死亡者の数は劇的に減少すると考えられています。 そのため、町や都市の裕福な地域、または裕福な国々は、自動車関連の負傷者や死亡者を減らすことができますが、AIベースの自動運転による選択肢や代替手段がない人間主導の地域-自動運転車には、そのような相応の削減は見られません。

AI自動運転車には、同様に持っている人には発生し、持っていない人には発生しない、他にも宣伝されている利点があることを知っておいてください(詳細はこちらのリンクを参照してください)。

ここでの要点は、Ethical AIがすでに自動運転車が選択的にしか利用できないことについて手作業で行っていることを指摘することで、「自動運転車は避けられない」ということを引き伸ばすことができるということです。 私はそれが論理のプレッツェルのように見えるかもしれないことを知っています。 これが言っていることは、AIが一部の社会的セグメントで利用できないことをすでに特に懸念しているということです。 その一連の考え方では、AIのこのインスタンス化は、それらのコンテキスト自体に関しては避けられません(ドリフトが発生した場合)。

まとめ

あなたは間違いなく、あなたが知らないことはあなたに害を及ぼす可能性がある一方で、あなたが知らないことはあなたを本当に一掃することができるという巧妙に考案された賢人のアドバイスに精通しています。

過激な倫理的AIの姿勢に関するXNUMXつの見方は、名前付けに関連する驚愕にもかかわらず、少なくとも私たちが見逃していると信じられていることを聞く必要があるということです。 おそらく、集団思考が行われており、いわゆる従来のEthicalAIまたは昔ながらのAIEthicsが停滞し、特定の考慮事項に固執している可能性があります。 もしそうなら、後部のキックはエンジンを再び動かし、より広い範囲に向かって動くのを助けるかもしれません。

または、EthicalAIとAIEthicsがうまく機能している可能性があります。ありがとうございます。この分派は、軟膏のハエになろうとしているだけです。 マイナス面は、特に混乱を招いたり、当惑させたりすることはないようです。 物事がどういうわけか手に負えなくなったとき、または何かが手に負えなくなった場合、領域の敬虔で協調的な再評価は洞察に満ちたメリットがあるかもしれません。

継続的な改善は称賛に値する願望です。 そして、ほぼ間違いなく、AIの出現に関しては、私たちが知らなかったことを知らなかったこと、そして私たちがその上にいることを知っているべきだったことを遅ればせながら発見したくないと言うことができます。私たちが知らなかった側面(または、私たちがそれらを知っていた、いくらか、そして不注意にそれらを抑制した)。

それは過度に過激ではないようですよね?

出典:https://www.forbes.com/sites/lanceeliot/2022/02/20/pushing-the-boundaries-of-ai-ethics-into-the-topsy-turvy-world-of-radical-ethical- ai-potently-exemplified-via-the-use-case-of-vaunted-ai-based-self-driving-cars /