倫理的な AI の実践を「扇動」する AI 倫理学者による AI 倫理の混乱

最近、塩漬けが話題になっています。

私はあなたがあなたの食べ物に入れる塩について言及していません. 代わりに、労働とビジネスの相互作用に関連する、挑発的で一見非常に物議をかもしている慣行に関連する「塩漬け」を取り上げています。

ご存知のように、この種の塩漬けは、人が企業に雇われて表面上開始しようとする状況、または労働組合の設立を扇動すると言う人もいるかもしれない状況を伴います。 この現象について議論している最新のニュース アカウントは、スターバックス、アマゾン、およびその他の有名企業やあまり知られていない企業などを指しています。

最初にソルティングの基本について説明し、次に、人工知能 (AI) の分野で一種のソルティングが行われているように思われる、不意を突かれるかもしれない同様のトピックに切り替えます。 これには、AI の倫理に関する重要な考慮事項があります。 AI の倫理と倫理的 AI に関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

それでは、ソルティングが通常どのように機能するかの基本を見てみましょう.

ある企業の労働力に組合がないと仮定します。 労働組合はどのようにしてその会社に足場を築くことができるでしょうか? ひとつの手段として、社外で行動を起こし、労働者に組合への加入を働きかけることが考えられます。 これには、会社の本社の近くにバナーを表示したり、従業員にチラシを送信したり、ソーシャル メディアを利用したりすることが含まれる場合があります。

これは明らかにアウトサイドイン型のアプローチです。

もう XNUMX つの方法は、ボールを転がす可能性のあるスパーク内から拍車をかけることです。 少なくとも XNUMX 人の従業員が、会社で労働組合を受け入れるためのチアリーダーとして引き金を引くことができれば、おそらく、そこでの労働組合への支持の最終的な社内大騒ぎが始まるでしょう。 そのような従業員が熱心な応援者としての役割を果たさなかったとしても、彼らは静かに従業員の間で内部的な支持を集め、組織内で組織化を追求するための比較的隠れた力になることができるかもしれません.

そう考えると、労働組合としては、そのような従業員がいかに活性化できるかを考えているのではないでしょうか。 労働組合は、干し草の山からその針を見つけるために無限のエネルギーを費やすかもしれません. おそらく何百、何千という会社の労働者の中から、特に組合結成に有利な、いわゆる選ばれた労働者を見つけようとするのは難しいかもしれない。

その火花を誘発するワーカーをより簡単に「発見」する (または、いわばそれらを発明する) ことができれば便利です。

これは、会社での日常的な役割のためにそのような人を雇うように会社にさせるかもしれないという出来上がりのアイデアに私たちを導きます. 本質的に、適切な種類の組合に拍車をかける人を会社に植え付けます。 外部から伝えられた多くの従業員に訴える必要はありません。代わりに、あなたの火花がそこで使用されていることを確認できるように、XNUMX人のアクティブな人を挿入してください。

次に、新しく雇用された労働者は、会社内に労働組合の関心を植え付けようとしますが、その間、雇用されていた仕事を何でも行います(仕事に対する「真の関心」と呼ばれることが多いことを表現します)。 その人は会社に積極的に雇用されており、従業員として必要な仕事を積極的に行っていることに注意してください。 慣習的な塩漬けの領域では、彼らはおそらく会社に組み込まれている、組合のみの非特定の仕事に関連した労働者だけではありません。

このアプローチを予告した人もいます。

彼らは、組合への加入を検討するように企業の労働者を鼓舞しようとする組合に関して、時間と資源を節約することを強く勧めています。 他の従業員は、通常、同僚の話に耳を傾け、活性化することをいとわない傾向があります。 外部から牽引力を得ようとする別のアプローチは、あまり魅力的ではないと考えられています。これにより、実際には関与せず、思いやりのない議題を推進するだけであると見なされている一部の「部外者」と比較して、仲間の従業員は社内の従業員に強力な動機を提供します。部外者。

誰もが塩漬けのアプローチに満足しているわけではありません.

企業は、これが非常に卑劣で不誠実な行為であると主張することがよくあります。 アプローチの全体的な全体像は、スパイが会社の真ん中に配置されているということです。 それはその人が雇われた目的ではありません。 彼らはおそらく彼らの定められた仕事をするために雇われたのですが、代わりに、さまざまな悪ふざけ全体が、真のトロイの木馬の悪魔的な移植のように見えます.

労働組合による反論は、その人が指定された仕事をしている場合、害も反則もないというものです。 おそらく、従業員、または言うべきか どれか 会社の従業員は、通常、組合化を求めることを選択できます。 この特定の従業員は、たまたまそうしたいと思っています。 そんな思いで入社したということは、新入社員なら誰しもが考えていることかもしれません。

ちょっと待って、企業は反論するだろう、これは誰かが 意図的に 組合の足がかりを作る目的で会社に来たかった。 それが彼らの強い欲求です。 新しく雇用された従業員は、雇用プロセスを嘲笑し、労働組合の特定の利点を示す偽装として、求職活動の願望を不当に利用しています。

この白熱した談話はぐるぐる回る。

これらの設定では、多くの法的考慮事項が発生することに注意してください。 たとえば、全国労働関係法 (NLRA) や全国労働関係委員会 (NRLB) に関連するあらゆる種類の規則や規制は、これらの策略の一部です。 これらの面で物事が単純であるという印象を受けてほしくありません。 法的な問題は数多くあります。

また、塩漬けのさまざまなバリエーションについても熟考する必要があります。

雇用を希望する人が、その会社に就職しようとするプロセス全体を通して公然と組合の支持者である可能性を考えてみてください。 この人は、労働組合に賛成であることを明確に示すシャツやその他の衣服を着て就職の面接に現れるかもしれません。 彼らはインタビュー中に、会社がいつか労働組合を受け入れるようになるという希望を持ち出すかもしれません。 等。

その場合、ビジネスは自分が何をしようとしているのかを知っていたと主張する人もいます。 最初から、会社はその人の意図について多くの兆候を示していました。 採用された後、新入社員が組合をドアに入れるためにできることは何でもする場合、後で泣き言を言うことはできません。 会社はいわば自分の足を撃ちました、そしてそれ以外はワニの涙にすぎません.

ただし、このダンスは見た目よりも複雑です。 法的な問題が発生する可能性があるため、別の方法で雇用される資格がある人が、雇用会社によって拒否された場合、会社による反組合的偏見の結果として意図的に見落とされたと主張する可能性があります. 再び、NRLA と NRLB は厄介な事件に巻き込まれます。

塩漬けの領域で発生する他の多くの考慮事項について簡単に説明します. また、塩漬けは米国だけの現象ではないことにも注意してください. 他の国でも発生する可能性があります。 もちろん、国の法律と慣行は劇的に異なり、したがって、塩漬けは特に有用ではないか、一部の地域では完全に禁止されている可能性さえありますが、塩漬けの性質は、その法的および文化的慣習に基づいて大幅に変更される可能性があり、実際には可能性がありますまだ効力があります。

あなたが関心を持っている法域の最愛の労働法弁護士に相談してください。

塩漬けに関するいくつかの追加要因には、次のものがあります。

  • Getting Paid. その人は、会社に雇われるという仕事を遂行するために組合から支払われていることがあります。 その後、彼らは会社での在職期間中、会社と組合の両方から支払われるか、会社に雇用されると組合から支払われなくなる可能性があります。
  • 可視性。 その人は、採用プロセスの間、組合結成の意図について控えめな態度をとったり、まったく沈黙を守ったりすることがありますが、他の場合には、自分が何をしようとしているのかについてあからさまに声に出します。 一見中途半端なアプローチは、面接中に明確に尋ねられた場合、その人が何を目指しているかを伝えることであり、したがって、そのような意図を突き止めるのは会社次第であるとほのめかします。法的境界を緊張させます。
  • タイミング。 一度雇われた人は、組合の能力を引き受けるのを待つことを選ぶかもしれません。 有効になるまで、数週間、数か月、さらには数年もかか​​る可能性があります。 可能性としては、会社に慣れ、会社の従業員としての個人的な足がかりを確立した後、彼らが仕事を始める可能性が高くなります。 彼らがすぐに始めた場合、これは彼らがインサイダーとして見られようとする試みを弱め、彼らを侵入者または部外者としてキャストする可能性があります.
  • 講じた手順. 時々、その人は会社内で労働組合を受け入れようとしていることを明示的に発表します。これは、雇用された直後に起こるか、しばらくしてから起こる可能性があります(タイミング要因に関する上記の指摘によると). 一方、その人は秘密の役割を果たし、組合に情報を提供し、自分自身には何の注意も向けないことを選択するかもしれません. これは時々、 塩漬けモグラ、しかし、他の人は、直接発言した場合、その人が内部リスクにさらされる可能性があることを強調するでしょう.
  • 任期. 塩漬けの努力をしている人は、最終的に組合化の推進力を得ることができるかもしれません(彼らは「塩漬け者」です). 彼らは、組合結成プロセスの間、会社に留まる可能性があります。 とはいえ、そのような人は、火花を散らした会社を辞め、別の会社に行って新たに火花を散らした活動を始めることを選択する場合があります。 これをめぐる議論は激しい。 ひとつの見方は、これはその人がその会社での仕事を心に抱いていなかったということを明確に示しているということです。 対照的な見方は、労働組合の強化努力が勢いを増した後、彼らが会社にとどまることによって、濁った、おそらく受け入れられない水域に身を置く可能性が高いということです。
  • 結果. 塩漬けの試みは、特定の結果を保証するものではありません。 その人が組合化についての意識を高め、努力が進行している可能性があります。 別の結果は、その人がそのような牽引力を得ることができないということです. 彼らはその後、追求をあきらめて会社にとどまり、おそらく後で別のチャンスを待つか、会社を去り、通常は他の会社で塩漬けをしようとします。
  • プロのソルター. 一部の人々は、自分自身が塩漬けの強力な支持者であると考えており、いわば塩漬け職人としての役割を果たすことに誇りを持っています. 彼らは塩漬けを繰り返し、そうするにつれて固から固へと移動します。 他の人は、おそらく特定の好みのために、またはそれがどのようなものかを確認するために、一度だけこれを行い、その後、そのような役割を繰り返さないことを選択します. 塩辛い立場にあるときに発生する可能性のある個人的なプレッシャーや潜在的なストレスの種類を確実に想像できます.

これらの要因は、今のところ塩漬けの範囲とダイナミクスを強調するのに十分です. AI と倫理的 AI の考慮事項のコンテキストで、これらの要因を再検討します。

要点は、一部の人々が企業に雇われて、企業内の AI 倫理原則の確立を開始または推進しようとしているということです。 これが、彼らがその会社で働く主な動機です。

ある意味では、彼らは労働組合結成のためではなく、倫理的な AI の教訓に根ざした会社を作ろうとして「塩漬け」をしているのです。

これについては、しばらくの間、さらに多くのことを述べます。

AI コンテキストでの塩漬けの根底にあるワイルドで毛むくじゃらの考慮事項についてさらに詳しく説明する前に、非常に重要なトピックについていくつかの追加の基本事項を説明しましょう。 AI の倫理、特に機械学習 (ML) とディープ ラーニング (DL) の出現について簡単に説明する必要があります。

最近のAIの分野で、そしてAIの分野の外でさえ、最も大きな声のXNUMXつが、倫理的なAIのより優れた類似性を求める声で構成されていることを漠然と知っているかもしれません。 AI倫理と倫理AIを参照することの意味を見てみましょう。 その上で、機械学習とディープラーニングについて話すときの意味を探ります。

多くのメディアの注目を集めているAI倫理のXNUMXつの特定のセグメントまたは部分は、不利な偏見や不平等を示すAIで構成されています。 AIの最新の時代が始まったとき、今では何人かが呼んでいるものに対する熱意が爆発的に高まったことをご存知かもしれません。 AI For Good。 残念ながら、その噴出する興奮に続いて、私たちは目撃し始めました 悪い人のためのAI。 たとえば、さまざまなAIベースの顔認識システムには、人種的バイアスや性別バイアスが含まれていることが明らかになっています。 ここのリンク.

反撃するための努力 悪い人のためのAI 活発に進行中です。 声高に加えて 法的 不正行為を抑制することを追求する一方で、AIの卑劣さを正すためにAI倫理を採用することへの実質的な推進力もあります。 概念は、AIの開発とフィールド化のために、主要な倫理的AI原則を採用し、承認する必要があるということです。 悪い人のためのAI 同時に、好ましいものを告げると同時に促進する AI For Good.

関連する概念として、私はAIの問題の解決策の一部として、AIをそのような考え方で火と戦うことを試みることを提唱しています。 たとえば、倫理的なAIコンポーネントをAIシステムに組み込んで、AIの残りの部分がどのように動作しているかを監視し、差別的な取り組みをリアルタイムでキャッチする可能性があります。 ここのリンク。 また、一種のAI倫理モニターとして機能する別のAIシステムを用意することもできます。 AIシステムは、別のAIが非倫理的な深淵に入る時期を追跡および検出するための監督者として機能します(このような機能の分析を参照してください。 ここのリンク).

すぐに、AI倫理の根底にあるいくつかの包括的な原則をあなたと共有します。 あちこちに浮かんでいるこれらの種類のリストがたくさんあります。 あなたはまだ普遍的な魅力と同意の唯一のリストがないと言うことができます。 それは残念なニュースです。 幸いなことに、少なくともすぐに利用できるAI倫理リストがあり、それらは非常に似ている傾向があります。 とにかく、これは、ある種の合理的な収束の形によって、AI倫理が構成されているものの一般的な共通性に向けて私たちが道を見つけていることを示唆しています。

最初に、AIを作成、フィールド化、または使用する人にとって重要な考慮事項となるものを説明するために、倫理的なAIの全体的な原則のいくつかを簡単に説明しましょう。

たとえば、バチカンが ローマはAI倫理を求める そして、私が詳細にカバーしたように ここのリンク、これらは、特定されたXNUMXつの主要なAI倫理原則です。

  • 透明性: 原則として、AIシステムは説明可能でなければなりません
  • インクルージョン: すべての人間のニーズを考慮に入れて、すべての人が利益を得ることができ、すべての個人が自分自身を表現し、成長するための最良の条件を提供できるようにする必要があります
  • 責任: AIの使用を設計および展開する人は、責任と透明性を持って進めなければなりません
  • 公平性: 偏見に従って作成または行動しないでください。これにより、公平性と人間の尊厳が保護されます。
  • 信頼性: AIシステムは確実に機能する必要があります
  • セキュリティとプライバシー: AIシステムは安全に機能し、ユーザーのプライバシーを尊重する必要があります。

米国国防総省(DoD)が 人工知能の使用に関する倫理原則 そして、私が詳細にカバーしたように ここのリンク、これらはXNUMXつの主要なAI倫理原則です。

  • 責任者: DoDの担当者は、AI機能の開発、展開、使用に責任を持ちながら、適切なレベルの判断と注意を払います。
  • 衡平: 部門は、AI機能の意図しないバイアスを最小限に抑えるために慎重な措置を講じます。
  • 追跡可能: 部門のAI機能は、関連する担当者が、透過的で監査可能な方法論、データソース、設計手順とドキュメントなど、AI機能に適用可能なテクノロジー、開発プロセス、運用方法を適切に理解できるように開発および展開されます。
  • 信頼性のある: 部門のAI機能には明確で明確な用途があり、そのような機能の安全性、セキュリティ、および有効性は、ライフサイクル全体にわたってそれらの定義された用途内でテストおよび保証の対象となります。
  • 統治可能: 部門は、意図しない結果を検出して回避する機能と、意図しない動作を示す展開済みシステムを非アクティブ化または非アクティブ化する機能を備えながら、意図した機能を実行するAI機能を設計および設計します。

また、AI倫理の原則のさまざまな集合的分析についても説明しました。これには、「AI倫理ガイドラインのグローバルランドスケープ」というタイトルの論文(公開の 自然)、そして私の報道はで探求していること ここのリンク、このキーストーンリストにつながった:

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

ご想像のとおり、これらの原則の根底にある詳細を特定しようとすると、非常に困難になる可能性があります。 さらに言えば、これらの幅広い原則を完全に具体的で詳細なものに変えて、AIシステムを作成するときに使用できるようにする努力も、難しい問題です。 AI倫理の原則が何であるか、そしてそれらが一般的にどのように守られるべきかについて全体的に手を振るのは簡単ですが、AIコーディングでは、道路に出会う真のゴムでなければならないというより複雑な状況です。

AI倫理の原則は、AI開発者、AI開発の取り組みを管理する開発者、さらにはAIシステムのフィールド化と維持を最終的に実行する開発者によっても利用されます。 開発と使用のAIライフサイクル全体にわたるすべての利害関係者は、倫理的AIの確立された規範に従う範囲内であると見なされます。 通常の想定では、「コーダーのみ」またはAIをプログラムするものは、AI倫理の概念に準拠する必要があるため、これは重要なハイライトです。 先に述べたように、AIを考案してフィールド化するには村が必要であり、村全体がAI倫理の原則に精通し、それを遵守する必要があります。

また、今日のAIの性質について同じページにいることを確認しましょう。

今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

私が焦点を当てているタイプのAIは、現在私たちが持っている無感覚なAIで構成されています。 乱暴に推測したい場合 衆生 AI、この議論は根本的に異なる方向に進む可能性があります。 感性のAIはおそらく人間の品質のものでしょう。 感性AIは人間の認知的同等物であると考える必要があります。 さらに言えば、私たちが超知能AIを持っているかもしれないと推測する人もいるので、そのようなAIは人間よりも賢くなる可能性があると考えられます(可能性としての超知能AIの探求については、を参照してください)。 ここでの報道).

物事をより現実的に保ち、今日の計算上の非感覚的なAIについて考えてみましょう。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、計算パターンマッチングを活用する機械学習(ML)とディープラーニング(DL)が広く利用されています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI開発者も何が起こっているのか理解していない可能性があります。 ML / DLの難解な数学は、現在隠されているバイアスを見つけるのを困難にする可能性があります。 AI開発者が潜在的に埋もれているバイアスをテストすることを当然期待し、期待するでしょうが、これは見た目よりも難しいです。 比較的大規模なテストを行っても、ML/DLのパターンマッチングモデルにバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

AI コンテキストでのソルティングの焦点に戻りましょう。

まず、ソルティングの用語からユニオン化要素の類似性を取り除き、代わりに一般化されたパラダイムまたはアプローチとしてソルティングのみをテンプレートとして使用します。 したがって、この AI 関連のソルティングの議論のために、組合関連のファセットは脇に置いておいてください。

第 XNUMX に、前述のように、この AI のコンテキストでソルティングを行うと、企業内で AI 倫理原則の確立を開始または推進するために、一部の人々が企業に雇われようとする可能性があります。 これが、彼らがその会社で働く主な動機です。

はっきりさせておくと、企業に採用される人は絶対に多く、彼らはすでに AI の倫理が重要であることを念頭に置いています。 ただし、これは、関心のある特定の企業に雇われようとする彼らの根拠の最前線にはありません。 本質的に、彼らはある種の AI 開発または展開の仕事をするために雇われ、そのために倫理的 AI に対する強い信念を彼らの中に簡単にもたらします。

そして、社内に AI の倫理に関する考慮事項を浸透させたり刺激したりするために、できる限りのことを行います。 彼らにとって良いことです。 心からの願いとしてそれを持っているものがもっと必要です。

しかし、それは私がここでほのめかしている塩漬けではありません. 誰かが、AI 倫理の採用に関連することはほとんどないと思われる特定の企業を選ぶと想像してみてください。 その人は、日常の AI の仕事 (または AI 以外の役割でさえも) で雇うことができれば、その会社に雇われると決心し、その主な焦点は、AI の倫理原則を社内に導入または推進することです。会社。 それは彼らの主要な職務ではなく、彼らの職務にリストされていません (私がこれについて言及するのは、明らかに、AI 倫理を意図的に実現するために雇われた場合、彼らはここでの意味合いや類似の方法で「塩漬け」していないからです)。

この人は、仕事自体には特に関心がありません。 確かに、彼らはその仕事が何であれ、それを行うでしょうし、おそらくそうするのにふさわしい資格を持っているでしょう。 一方、彼らの本当の目的は、エシカル AI を会社の一部にすることです。 それが使命です。 それが目標です。 仕事自体は、内部からそうするための手段または手段にすぎません。

会社の外からも同じことができると言うかもしれません。 彼らは、会社の AI チームにロビー活動を試みて、AI の倫理にもっと関与するように努めることができます。 彼らは、おそらくブログに投稿したり、他の手段を講じたりして、会社に恥をかかせようとするかもしれません。 等々。 問題は、塩漬けの包括的な前提について議論したときに以前に指摘したように、彼らはまだ部外者であるということです.

AI塩漬けの人は欺瞞的ですか?

塩漬けの組合の文脈について尋ねられたのと同じ質問を再び思い出します. その人は、嘘はまったくないと主張するかもしれません。 彼らは仕事をするために雇われました。 彼らは仕事をしています。 たまたま、彼らは AI 倫理の社内支持者であり、他の人にも同じことをさせるために力を尽くしています。 害なし、ファウルなし。

彼らはまた、エシカル AI に向けて会社を駆り立てたことに特にマイナス面はないことも指摘するでしょう。 最終的に、これは、AI の倫理規定を遵守していない AI が生成された場合に発生する可能性のある訴訟を会社が回避するのに役立ちます。 したがって、彼らは会社をそれ自体から救っています。 その人は目の前の仕事をすることに特に関心がないかもしれませんが、仕事をしていると同時に、倫理的 AI に向けて声高に推進することで、会社をより賢く、より安全なものにしています。

ちょっと待って、反論して、この人は不誠実です。 AI倫理が受け入れられると、彼らはすぐに船に乗るようです。 彼らの心は会社にも仕事にもありません。 彼らは会社を利用して自分たちのアジェンダを進めています。 確かに、エシカルな AI を最優先にしようとする議題は十分に良さそうに見えますが、これは行き過ぎになる可能性があります。

ほら、AI倫理の追求が過度に熱心になるかもしれないという議論がさらに進んでいます。 その人が倫理的 AI を開始するようになった場合、会社全体が扱っていることの全体像を見ない可能性があります。 他のすべてを除外すると、この人物は近視眼的に会社の気を散らしており、合理的な根拠に基づいて慎重なペースで AI 倫理を採用することを望んでいない可能性があります。

それらは、倫理的な AI の教訓に関して会社がどこに位置するかについて絶えず口論する、破壊的な不満になる可能性があります。 他の AI 開発者は、単調なおしゃべりに気が散る可能性があります。 AI倫理をミックスに取り入れることは確かに賢明ですが、会社内の演劇やその他の潜在的な混乱は、倫理的AIの進歩を助けるどころか妨げになる可能性があります.

ぐるぐる行きます。

以前に提案した塩漬けに関する追加の要因を再検討できます。

  • Getting Paid. その人は、企業に AI 倫理を採用させたいと考えているエンティティから最初に支払われる可能性があり、おそらく無害にそうすることが目的であるか、特定の AI 倫理ツールまたはプラクティスのセットを会社に販売することを目的としている可能性があります。 一般的にはありそうにありませんが、言及する価値があります。
  • 可視性。 その人は、採用プロセスを進める際に、AI 倫理の献身的な使命を特に持ち出さないかもしれません。 他の例では、採用企業が敬虔な焦点に関してあいまいさなしに理解できるように、それが前面と中央にあることを確認する場合があります。 これは、AI の倫理が二次的な関心事であり、仕事が彼らの主な関心事であるかのように表現される可能性が高く、その逆ではありません。
  • タイミング。 一度雇われた人は、AI 倫理の開始を待つことを選択するかもしれません。 有効になるまで、数週間、数か月、さらには数年もかか​​る可能性があります。 可能性としては、会社に慣れ、会社の従業員としての個人的な足がかりを確立すると、彼らが始める可能性が高くなります。 彼らがすぐに始めた場合、これは彼らがインサイダーとして見られようとする試みを弱め、彼らを侵入者または部外者としてキャストする可能性があります.
  • 講じた手順. その人は、会社内で AI 倫理への注意を喚起しようとしていることを明示的に発表することがあります。これは、雇用された直後またはしばらくしてから発生する可能性があります (上記のタイミング要因に関する指摘によると)。 一方、その人は、会社内で静かに働き、自分自身に特に注意を向けずに、おとり捜査をすることを選択するかもしれません。 彼らはまた、会社内で起こっているAI倫理の省略や失敗について、マスコミや他の部外者に情報を提供するかもしれません.
  • 任期. 塩漬けの努力をしている人は、AI倫理の推進力を得ることができるかもしれません. 彼らは、倫理的 AI の採用プロセス全体を通して、会社に留まる可能性があります。 とはいえ、そのような人は、火花を散らした会社を辞め、別の会社に行って新たに火花を散らした活動を始めることを選択する場合があります。 これをめぐる議論は激しい。 ひとつの見方は、これはその人がその会社での仕事を心に抱いていなかったということを明確に示しているということです。 対照的な見方は、彼らが今、大きな声やトラブルメーカーとしてレッテルを貼られている場合、会社に留まることによって、濁った、おそらく受け入れられない水域にいることに気付く可能性が高いということです.
  • 結果. 塩漬けの試みは、特定の結果を保証するものではありません。 その人がエシカル AI についての意識を高め、取り組みが進行している可能性があります。 別の結果は、その人がそのような牽引力を得ることができないということです. 彼らはその後、追求をあきらめて会社にとどまり、おそらく後で別のチャンスを待つか、会社を去り、通常は他の会社で塩漬けをしようとします。
  • プロのソルター. 一部の人々は、自分自身をAI倫理の塩漬けの強力な支持者と見なし、いわば塩漬けの役割を果たすことに誇りを持っている. 彼らは塩漬けを繰り返し、そうするにつれて固から固へと移動します。 他の人は、おそらく特定の好みのために、またはそれがどのようなものかを確認するために、一度だけこれを行い、その後、そのような役割を繰り返さないことを選択する場合があります. 塩辛い立場にあるときに発生する可能性のある個人的なプレッシャーや潜在的なストレスの種類を確実に想像できます.

この種の AI 倫理志向の塩漬けが流行るかどうかは、まだ分からないでしょう。 企業が倫理的 AI を育成するのが遅い場合、熱心な AI 倫理学者が塩漬けの努力をする可能性があります。 彼らは塩漬けをしていることを直接認識していないかもしれません. 言い換えれば、誰かが X 社に行き、AI の倫理を支持しようとします。 その後、彼らは Y 社に移ります。すすぎ、繰り返します。

繰り返しになりますが、AI 倫理の採用が最優先事項であることが強調されています。 仕事を獲得することは二次的であるか、特に重要ではありませんが、内部に入り、倫理的 AI に関連する塩漬けの内部の努力を行うことができることを除けば.

また、AI の倫理的側面を研究および分析する人は、倫理的な AI 研究の追求のトピックに、やや新しい追加事項があることも付け加えておきます。

  • これらの AI 倫理の塩漬けの取り組みは、全体的に容認されるべきですか、それとも敬遠されるべきですか?
  • この AI コンテキストでソルティングを実行したい人を駆り立てるものは何ですか?
  • 企業は、AI コンテキスト ソルティングの認識された行為にどのように反応する必要がありますか?
  • このような AI 関連のソルティングを促進するために考案された方法論はありますか?

ある程度、それがAI倫理と倫理的AIが非常に重要なトピックである理由です。 AI倫理の教訓により、私たちは警戒を怠らないようになります。 AI技術者は、テクノロジー、特にハイテクの最適化に夢中になっていることがあります。 彼らは必ずしもより大きな社会的影響を考慮しているわけではありません。 AI倫理の考え方を持ち、AIの開発とフィールド化に統合的にそれを行うことは、AI倫理が企業にどのように採用されるかを評価することを含め、適切なAIを作成するために不可欠です。

一般にAI倫理の原則を採用することに加えて、AIのさまざまな使用を管理する法律を設ける必要があるかどうかという対応する質問があります。 AIの考案方法の範囲と性質に関係する新しい法律が、連邦、州、地方のレベルで広まっています。 そのような法律を起草して制定する努力は段階的なものです。 AI倫理は、少なくとも、考慮された一時的なギャップとして機能し、ほぼ確実に、ある程度、これらの新しい法律に直接組み込まれます。

AIをカバーする新しい法律は必要なく、既存の法律で十分であると断固として主張する人もいることに注意してください。 実際、彼らは、私たちがこれらのAI法のいくつかを制定すれば、莫大な社会的利点をもたらすAIの進歩を抑制して、金のガチョウを殺すことになるだろうと警告しています。

この重要な議論のこの時点で、あなたはこのトピックを紹介するかもしれないいくつかの実例を望んでいるに違いありません。 私の心に近い特別で確実に人気のある例のセットがあります。 倫理的および法的な影響を含むAIの専門家としての私の立場では、トピックのやや理論的な性質をより簡単に把握できるように、AI倫理のジレンマを示す現実的な例を特定するように頻繁に求められます。 この倫理的なAIの難問を鮮明に表現する最も刺激的な分野のXNUMXつは、AIベースの真の自動運転車の登場です。 これは、このトピックに関する十分な議論のための便利なユースケースまたは模範として役立ちます。

次に、検討する価値のある注目すべき質問を示します。 AI ベースの真の自動運転車の出現は、AI 関連の塩漬けについて何かを明らかにしますか? もしそうなら、これは何を示していますか?

質問を解くために少し待ってください。

まず、真の自動運転車には人間のドライバーが関与していないことに注意してください。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手が運転する必要はなく、人間が車両を運転するための設備もありません。 Autonomous Vehicles(AV)、特に自動運転車に関する広範囲にわたる継続的な報道については、を参照してください。 ここのリンク.

真の自動運転車とはどういう意味かをさらに明確にしたいと思います。

自動運転車のレベルを理解する

明確にするために、真の自動運転車とは、AIが完全に自力で車を運転し、運転タスク中に人間の支援がない車のことです。

これらの自動運転車はレベル4およびレベル5と見なされます(私の説明を参照してください) ここでは、このリンク)、一方、人間の運転手が運転努力を共有する必要がある車は、通常、レベル2またはレベル3と見なされます。運転タスクを共有する車は、半自律的であると説明され、通常、さまざまなADAS(先進運転支援システム)と呼ばれる自動化されたアドオン。

レベル5にはまだ真の自動運転車はなく、これを達成できるかどうか、またそこに到達するまでにどれくらいの時間がかかるかはまだわかりません。

一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路や小道で行われている、いくつかの主張、で私の報道を参照してください ここでは、このリンク).

半自律型の車には人間のドライバーが必要であるため、これらのタイプの車の採用は、従来の車の運転とそれほど変わりません。そのため、このトピックについてそれ自体をカバーすること自体はそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。

半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。

レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。

自動運転車と AI の倫理

レベル4とレベル5の真の自動運転車両の場合、運転タスクに人間のドライバーは関与しません。

乗客はすべて乗客となります。

AIが運転を行っています。

すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。

AIが知覚力を持たないことを強調しているのはなぜですか?

AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。

その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。

このトピックで遊びに来る無数の側面に飛び込みましょう。

まず、すべてのAI自動運転車が同じであるとは限らないことを認識することが重要です。 各自動車メーカーと自動運転技術会社は、自動運転車を考案するためのアプローチを取っています。 そのため、AI駆動システムが何をするか、何をしないかについて、大胆な発言をすることは困難です。

さらに、AI駆動システムが特定のことを行わないと述べるときはいつでも、これは後で、実際にそのことを行うようにコンピューターをプログラムする開発者によって追い抜かれる可能性があります。 AI駆動システムは段階的に改善され、拡張されています。 現在の既存の制限は、システムの将来のイテレーションまたはバージョンでは存在しなくなる可能性があります。

それが、私がこれから関わろうとしていることの根底にある十分な警告を提供することを願っています。

AI 関連のソルティング状況を示すシナリオをスケッチしてみましょう。

完全自律型の自動運転車の開発に取り組んでいるある自動車メーカーは、公道での試行を急いでいます。 会社はそうするように大きなプレッシャーにさらされています。 彼らは市場で注目されており、自動運転車開発の最先端にいるとは思えない場合、その株価はそれに応じて下落します。 さらに、彼らはすでに数十億ドルを投資しており、投資家は、自動運転車が日常の商用利用の準備ができていることを会社が発表できる日を待ちきれなくなっています.

AI 開発者は、自動車メーカーの取り組みを遠くから注意深く見守っています。 AI の運転システムが混乱したり、間違いを犯したりする事例がニュースで頻繁に見られます。 さまざまな事例には、他の車との衝突、自転車のライダーとの衝突、およびその他の悲惨な事故が含まれます。

会社は通常、この秘密を守ろうとします。 AI 開発者は、会社のエンジニアの何人かと個人的に話をし、AI の倫理指針はせいぜい口先だけで伝えられていることを知りました。 企業による倫理的 AI の回避に関するこのような問題に関する私の記事については、以下を参照してください。 ここのリンク.

この AI 開発者は何をするつもりですか?

彼らは何かをしなければならないと感じています。

少し分岐作業を行い、この AI 開発者がそれぞれ引き受ける可能性のある XNUMX つのパスを考えてみましょう。

XNUMX つの方法は、AI 開発者がメディアを利用して、自動車メーカーによる AI 倫理規定への適切な注意の欠如を明らかにしようとすることです。 おそらく、この心配している AI スペシャリストは、これらの懸念を強調するためにブログを書いたり、vlog を作成したりすることを選択します。 もう XNUMX つの可能性は、AI チームの既存のメンバーを一種の内部告発者にすることです。 ここのリンク.

これは明らかに、この AI 開発者による部外者のアプローチと見なされます。

もう XNUMX つの方法は、AI 開発者が社内でより多くのことを成し遂げられる可能性があると直感的に信じていることです。 AI 開発者のスキルセットは、自動運転車に関連する AI の側面で十分に調整されており、同社で掲載されている AI エンジニアの求人にすぐに応募できます。 AI 開発者はそうすることにしました。 さらに、その推進力は、自動車メーカーに倫理的 AI についてより真剣に取り組んでもらうことだけに集中しています。 仕事自体は、この AI 開発者にとって特に重要ではありませんが、内部から説得力を持って作業できるようになることを除けば.

AI 開発者は仕事を得ることができますが、その後、非常に大きな内部抵抗があり、倫理的な AI の努力目標が無意味であることに気付きます。 その人は会社を辞め、AI 開発者が達成しようとしていることをもっと喜んで理解しているかもしれない別の自動車メーカーを目指すことを決定します。 繰り返しになりますが、彼らはAIの倫理的考慮事項を明確に達成するためにそうしています.AIの仕事が何であれ、その主力のためではありません.

まとめ

これらの AI 関連の取り組みを一種の塩漬けとして言及するという概念は、すでに確立されている用語や語彙の乱用に胸焼けを起こす人もいるでしょう。 塩漬けは、労働とビジネスに関連する組合活動にかなり定着しています。 組合活動とはまったく関係のない性質のものですが、これらの他の種類の一見類似した活動で単語を過負荷にしようとする試みは、誤解を招き、混乱させる可能性があります.

別の言い回しを思いついたとします。

ペッパー?

まあ、それは塩漬けとまったく同じ感情を呼び起こすようには見えません. それを規定し、私たちの日常の言語辞書に含めようとするのは困難な戦いです.

どんなネーミングやキャッチフレーズがふさわしいと思われるとしても、XNUMX つのことは確かです。 企業に AI 倫理を受け入れてもらうことは、依然として困難な戦いです。 試す必要があります。 試みは正しい方法で行われなければなりません。

フェンスのどちら側に落ちたとしても、適切な塩の粒でその警告を受け取る必要があるようです.

ソース: https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/