AI の倫理と迫り来る大失敗 AI バイアスの監査を義務付けるニューヨーク市の法律が本格化するとき

細部への注意が著しく欠けているために、最善の意図が悲しげに打ち砕かれることがあります。

この賢明な知恵の典型的な例は、探求する価値があります。

具体的には、1 年 2023 月 XNUMX 日に施行される人工知能 (AI) に関するニューヨーク市の新しい法律を詳しく見てみましょう。あらゆる種類の混乱、驚愕、トラブルが発生するという大きな賭けに簡単に勝つことができます。法律が施行されたら。 問題は設計によるものではありませんが、設計が不十分であるか、少なくとも必要な詳細の規定が不十分であるために、容易に工夫して明示する必要があり、明示することができたために、間違いなく発生します。

昨年 11 年 2021 月 2023 日にニューヨーク市で可決され、XNUMX 年初頭に施行される予定の地方法について言及しています。この新しい法律は動揺するでしょう。 この野心的な法律が、やるべきこと、つまり、雇用の決定を下す領域における潜在的な AI の偏見に対処することをシームレスに行うと言えたらいいのにと思います。 悲しいかな、その意図は称賛に値するものですが、私は、この法律を弱体化させ、意図しないがかなり不利な影響に対処しようとする雇用者を狂わせる大きな抜け穴、省略、および具体性の欠如について説明します.

これは中途半端な計画を押し進める典型的な問題と言えるかもしれません。 ドワイト・アイゼンハワーの有名な格言は、「計画は無意味であり、計画こそがすべてである」というものでした。 要するに、この特定の法律は、立法者が熟考に失敗することによって時として不十分になる可能性があることの鮮明な例を提供しようとしています。 あらかじめ 法律が称賛に値する目標を達成し、確実に合理的かつ慎重な方法で採用できるようにするために必要な詳細。

大惨事が待っています。

言い訳はすでに並べられています。

一部の専門家は、法律を完全に特定することはできず、法律のどの側面を微調整する必要があるかを知るために実際にそれを確認する必要があると述べています (この場合、一般的な自明の理は不釣り合いにねじれています)。 さらに、彼らは、AI 関連の法律が新しくなりつつあることに関しては、特にそうであると熱く主張しています。 一体、彼らは、AI は立法者として私たちがあまり知らないハイテクの魔法であり、したがって、法律のページに何かを入れることは、そこに何もないよりはましであると主張します。

表面的には、それは確かに説得力があるように聞こえます。 ただし、さらに深く掘り下げると、特にこの特定の法律の場合を含め、それが潜在的に厄介であることがわかります. この法律は、より巧妙かつ賢明に規定することが容易にできます。 魔法のポーションは必要ありません。 混乱が生じるまで待つ必要はありません。 法律が作成された時点で、適切な種類の文言と詳細が確立されていた可能性があります。

また、養子縁組の側面を事前に予測できなかったという見苦しい、浮かんだ考えが痛々しいほどばかげていることを確認しましょう. これは、最も空虚な種類の合法的な巨大な手振りです。 AI バイアスへの対処と AI 監査の実施については、すでにこの法律に組み込まれている可能性のある既知の考慮事項がたくさんあります。 このような法律の制定を検討している他の法域についても同じことが言えます。 やみくもに合法的なダーツを暴風に投げ込み、苦悩に苦しむだけに頼らなければならないと信じ込まされないでください。 AI の適切な理解と組み合わせた法的な考え方のほんの少しはすでに実現可能であり、ストローだけで把握する必要はありません。

付け加えるかもしれませんが、これを正す時間はまだあります。 時計はまだ時を刻んでいます。 目覚ましベルが鳴る前に目覚めることができるかもしれません。 必要なアドバイスを導き出し、知らせることができます。 時間が短いので、これを優先する必要があります。

いずれにせよ、ここで重点を置いていることを確認してください。

AIのバイアスに関するそのような法律にはメリットがあることをはっきりさせておきます。 その理由をちょっと説明します。 私はまた、多くの人が法律書に掲載された最初の法律であると言うであろうこの新しい法律にどのような問題があるかについても説明します (他のバリエーションが存在しますが、おそらくこれとはまったく異なります)。

実際、同様の法律が全国で徐々に施行されることが予想されます。 注目すべき懸念の XNUMX つは、このニューヨーク市の先行者の試みがうまくいかない場合、国の他の地域がそのような法律の制定に慎重になる可能性があることです。 それは学ぶべき正しい教訓ではありません。 正しい教訓は、そのような法律を作成する場合は、分別を持って十分に考慮して作成することです。

十分な精査なしに法律が制定されると、非常に動揺し、あらゆる種類の下流の問題を引き起こす可能性があります。 そういう意味では、赤ちゃんを湯と一緒に放り出さないでください(古いことわざ、おそらく引退するべきです)。 要点は、そのような法律は、正しく作成された場合、真に生産的で保護的なものになり得るということです.

残念ながら、この特定のものは、ゲートからそうするつもりはありません。

あらゆる種類のパニックに陥った指導は、法律の施行者や施行者からもたらされるに違いありません。 2023 月下旬から XNUMX 年 XNUMX 月までのカレンダーをマークして、スクランブルが続くのを見てください。 指差しは非常に激しくなるでしょう。

新しい法律によってうんざりする雇用主の頭にはまだ法律が上陸していないため、今のところ特に悲鳴を上げている人はいません。 これが比喩的に言えば、2023 年の最初の数週間に発生する予定のある種の地震であると想像してみてください。地震に備えている人はほとんどいません。 多くの人は、地震がすでにカレンダーに組み込まれていることさえ知りません。 そうは言っても、地震が発生すると、非常に驚​​いてショックを受けた多くの企業が、何が起こったのか、なぜ混乱が発生しなければならなかったのか疑問に思うでしょう.

これらはすべて、AI の倫理に非常に重要な意味を持ち、AI を法制化しようとする際に (すべての教訓が生じる前であっても) 学んだ教訓への便利な窓を提供します。 AI 倫理に関する私の継続的かつ広範な報道については、AI ガバナンスの法的側面の中で AI 法とともに倫理的 AI を見つけることができます。 ここのリンク & ここのリンク, わずか数名に。

この法的な悲惨な話は、今日の AI、特に技術の形態としての機械学習 (ML) とディープ ラーニング (DL) の使用とその利用方法に関するかつての懸念に関連しています。 お分かりのように、ML/DL が知覚力のある AI であるか、その近くにある (そうではない) と信じているか、または想定することを選択して、大衆によって AI を擬人化する傾向がある ML/DL の使用法があります。 さらに、ML/DL には、倫理や法律の観点から、望ましくない、まったく不適切な、または違法な計算パターン マッチングの側面が含まれている可能性があります。

まず、AI 全体について言及する際の意味を明確にし、機械学習と深層学習の概要を簡単に説明しておくと役立つ場合があります。 人工知能が何を暗示しているかについては、多くの混乱があります。 また、AI 倫理の教訓を紹介したいと思います。これは、この談話の残りの部分に特に不可欠です。

AIについての記録を述べる

今日の AI の性質について同じ認識を持っていることを確認しましょう。

今日、感性のあるAIはありません。

私たちはこれを持っていません。

知覚力のある AI が可能になるかどうかはわかりません。 私たちが知覚力のある AI を達成するかどうか、また、知覚力のある AI が何らかの形で奇跡的に自発的に計算認知超新星 (通常はシンギュラリティと呼ばれます。 ここのリンク).

今日の AI は、人間の思考と同等の方法で「考える」ことができないことを認識してください。 Alexa や Siri とやり取りするときの会話能力は、人間の能力に似ているように見えるかもしれませんが、実際には、それはコンピューター処理であり、人間の認識が欠けています。 AI の最新の時代では、計算パターン マッチングを活用する機械学習とディープ ラーニングが広く利用されています。 これは、人間のような性癖の外観を持つ AI システムにつながりました。 一方、今日の AI には、常識に似たものはなく、堅牢な人間の思考の認知的驚異もありません。

問題の一部は、コンピューター、特に AI を擬人化する傾向にあります。 コンピューター システムまたは AI が、人間の行動に関連する方法で動作しているように見える場合、人間の性質をシステムに帰したいという圧倒的な衝動があります。 これは、感覚に到達する可能性について最も妥協のない懐疑論者でさえもつかむことができる、よくある精神的な罠です。

ある程度、それが AI の倫理と倫理的 AI が非常に重要なトピックである理由です。

AI 倫理の教訓により、私たちは警戒を怠らないようになります。 AI 技術者は、テクノロジー、特にハイテクの最適化に夢中になることがあります。 彼らは必ずしもより大きな社会的影響を考慮しているわけではありません。 AI 倫理の考え方を持ち、それを AI の開発と実施に統合することは、AI 倫理が企業にどのように採用されるかの評価を含め、適切な AI を生み出すために不可欠です。

一般にAI倫理の原則を採用することに加えて、AIのさまざまな使用を管理する法律を設ける必要があるかどうかという対応する質問があります。 AIの考案方法の範囲と性質に関係する新しい法律が、連邦、州、地方のレベルで広まっています。 そのような法律を起草して制定する努力は段階的なものです。 AI倫理は、少なくとも、考慮された一時的なギャップとして機能し、ほぼ確実に、ある程度、これらの新しい法律に直接組み込まれます。

AIを対象とする新しい法律は必要なく、既存の法律で十分であると断固として主張する人もいることに注意してください。 彼らは、これらの AI に関する法律の一部を制定した場合、社会に計り知れない利点をもたらす AI の進歩を取り締まることで、黄金のガチョウを殺すことになると警告しています。 たとえば、私の記事を参照してください ここのリンク.

これまでのコラムでは、AI を規制する法律を作成して制定するためのさまざまな国内および国際的な取り組みについて取り上げてきました。 ここのリンク、 例えば。 また、さまざまな国が特定して採用したさまざまな AI 倫理の原則とガイドラインについても説明しました。たとえば、200 近くの国が採用したユネスコ AI 倫理のセットなどの国連の取り組みが含まれます。 ここのリンク.

以下は、私が以前に詳しく調べた AI システムに関する倫理的な AI 基準または特性のキーストーン リストです。

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

これらの AI 倫理の原則は、AI 開発者だけでなく、AI 開発の取り組みを管理する人々、さらには最終的に AI システムを整備して維持する人々によっても利用されることを真剣に想定されています。 開発と使用の AI ライフサイクル全体にわたるすべての利害関係者は、倫理的 AI の確立された規範を遵守する範囲内にあると見なされます。 これは重要なハイライトです。なぜなら、「コーダーのみ」または AI をプログラムする人だけが AI 倫理の概念に従う必要があると通常想定されているからです。 ここで強調したように、AI を考案して運用するには村が必要であり、村全体が AI の倫理規定に精通し、それを遵守する必要があります。

物事を現実的に保ち、今日のコンピューターによる無感覚 AI に焦点を当てましょう。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI開発者も何が起こっているのか理解していない可能性があります。 ML / DLの難解な数学は、現在隠されているバイアスを見つけるのを困難にする可能性があります。 AI開発者が潜在的に埋もれているバイアスをテストすることを当然期待し、期待するでしょうが、これは見た目よりも難しいです。 比較的大規模なテストを行っても、ML/DLのパターンマッチングモデルにバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

私は、静かな禁煙のルーブリック内で AI の役割を十分に議論するための準備が整ったと信じています。

雇用の意思決定に使用される AI

ニューヨーク市の法律は、雇用の意思決定に焦点を当てています。

最近、この地球上のほぼどこでも最新の仕事に応募しようとした場合は、雇用の意思決定プロセスで AI ベースの要素に遭遇した可能性があります。 もちろん、それが舞台裏に隠されている可能性があり、AI システムが関与していたことを識別する準備ができていないため、そこにあることを知らない可能性があります。

これらの AI システムを参照するために使用される一般的なキャッチフレーズは、それらが考慮されているというものです。 自動雇用決定ツール、AEDTと略されます。

ニューヨーク市の法律が、雇用の意思決定を伴うこれらのツールまたはアプリをどのように定義しているかを見てみましょう。

  • 「「自動化された雇用決定ツール」という用語は、機械学習、統計モデリング、データ分析、または人工知能から派生した計算プロセスを意味し、スコア、分類、または推奨事項を含む単純化された出力を発行します。自然人に影響を与える雇用決定を行うための裁量的意思決定を置き換える。 「自動化された雇用決定ツール」という用語には、任意の意思決定プロセスを自動化、サポート、実質的に支援、または置き換えるものではなく、自然人に重大な影響を与えないツールは含まれません。ファイアウォール、ウイルス対策ソフトウェア、電卓、スプレッドシート、データベース、データ セット、またはその他のデータの編集」(NYC、Int 1894-2020、サブチャプター 25、セクション 20-870)。

この文言は、法律の全体的な性質と範囲にとって不可欠であるため、簡単に検討します。

まず、私が何度も書いてきたように、AI に関する法律を書く際の最も難しいハードルの XNUMX つは、AI が何を意味するのかを適切に定義しようとすることです。 誰もが到達した、法的に防弾基準に完全に合意された単一の基準はありません。 あらゆる種類の定義が存在します。 役立つものもあれば、そうでないものもあります。 で私の分析を参照してください ここのリンク.

AI をどのように定義するかは特に問題ではないと考えたくなるかもしれません。 申し訳ありませんが、あなたはそれについて間違っているでしょう.

問題は、AI の定義が特定の法律で曖昧に規定されている場合、AI を開発する人々が、ソフトウェアやシステムに AI が組み込まれていないと一見主張することで、法律を回避しようとする可能性があることです。 彼らは、法律が彼らのソフトウェアに適用されないことを非常に大胆に主張するでしょう. 同様に、ソフトウェアを使用している人は、使用しているソフトウェアまたはシステムが法律で述べられている AI の定義から外れているため、法律は自分には関係ないと主張することもできます。

人間ってこんなにもむずかしいものです。

自分が好まない法律に侵されないようにする最も賢明な方法の XNUMX つは、その法律が自分には適用されないと断言することです。 この場合、AEDT の定義を少しずつ分解しようとします。 あなたの目標は、法律に背を向けられたくないと仮定すると、法律で与えられた定義があなたの雇用関連のコンピューターシステムが何であるか、または何をするかについて間違っていると法的に主張することです.

この種の法律は、意図的に除外規定を定義に含めることによって、助けられることもあれば、時には弱められることもあります。

この法律で述べられている AEDT の定義をもう一度見てみましょう。 「…裁量的意思決定プロセスを自動化、サポート、大幅に支援、または置換せず、自然人に重大な影響を与えないツールは含まれない…」という除外条項があることに気付いたことを願っています。

一方では、そのような除外を含めるための根拠は明らかに役に立ちます。

(私の素人の見解では)AEDT は特定の目的を提供し、実質的な方法で利用されなければならないことを示唆しているようです。 AEDT が大雑把または周辺的なものである場合、雇用の決定がまだ人間の手作りである場合、おそらく使用されているソフトウェア システムは AEDT と解釈されるべきではありません。 また、ソフトウェアまたはシステムが自然人 (人間) に「実質的に」影響を与えていない場合、いわば火に足を踏み入れる価値はないように思われます。

賢明なことに、法律がその範囲を誇張し、台所の流しを含むすべてを飲み込むことを望んでいません. そうすることは本質的に不公平であり、法律が包含することを意図していない人々にとって負担となります。 彼らは、それらのキャッチオールフィッシュネットのXNUMXつのように機能する泥沼に巻き込まれる可能性があります. おそらく、私たちの法律は、罪のない人を法律の範囲に引きずり込まないように注意する必要があります.

すべてが順調です。

抜け目のない弁護士は、除外条項が一種の合法的な脱獄カードになり得ることを認識しているはずです(余談ですが、この特定の法律は刑事罰ではなく民事罰を規定しているため、 脱獄 発言は単に比喩的であり、風味豊かなパンチを与えるためのものです)。 企業が雇用処理に AEDT を使用していると誰かが主張した場合、その主張を克服しようとする最初の方法の XNUMX つは、いわゆる AEDT は実際には排他的な領域にあると主張することです。 いわゆる AEDT がそうではないことを示そうとするかもしれません。 自動化する 雇用決定、またはそうでない サポート 雇用決定、またはそうでない 大幅にアシスト or replace 裁量的な意思決定プロセス。

次に、このコンテキストで「自動化」、「サポート」、「実質的に支援」、または「置換」という言葉が何を意味するのかを特定するという、曲がりくねった道をたどることができます。 それは非常に便利な合法的なウサギの穴です。 AEDT であると主張されているソフトウェアまたはシステムが除外表示の一部であるという説得力のあるケースが作成される可能性があります。 したがって、この特定の法律に関して、害も反則もありません。

当然のことながら、そのような問題については、認可を受けた弁護士に相談する必要があります (ここでは法的助言のようなものは示されておらず、これは完全に素人の見解です)。

ここで私が言いたいのは、この新しい法律には小刻みに動く余地があるということです。 ウィグルルームは、AEDT を純粋に使用している一部の雇用主が、おそらく AEDT の使用を回避するための抜け穴を見つけることを可能にします。 逆に言うと、AEDT を真に使用していない企業がこの法律の罠にかかる可能性があるということです。 彼らが使用しているものは何でも実際に AEDT であると主張される可能性があり、ソフトウェアまたはシステムが AEDT の範囲外であり、除外条項に該当することを示す手段を見つける必要があります。

この大胆な予測を行うことができます。

  • 潜在的に法的責任を回避しようとする可能性のある AEDT を故意に使用している雇用主が間違いなく存在するでしょう。
  • AEDT を使用していない雇用主は、AEDT を使用しているという主張に行き詰まり、AEDT を使用していないことを示すために「余分な」努力をしなければならなくなることは避けられません。

この議論が進むにつれて、これらの多数の順列と組み合わせについてさらに詳しく説明します。 踏むべき場所はまだたくさんあります。

AEDT を使用すること自体は、この問題で実証的な懸念を生じさせるものではありません。法的な怒りを引き起こすのは、AEDT がその行動をどのように実行するかです。 重要なのは、AEDT が雇用の意思決定に関連するバイアスを導入する可能性がある場合、あなたはお湯に浸かっている可能性があるということです (まあ、一種の)。

AEDT が実際に AI を多用したバイアスを雇用の意思決定に持ち込んでいるかどうかを知るにはどうすればよいでしょうか?

この法律による答えは、AI 監査を実施することです。

私はこれまで、AI 監査の性質とその内容について頻繁に取り上げてきました。 ここのリンク & ここのリンク、他の多くの同様の投稿の中でも。 簡単に言えば、会社の財務監査を行ったり、コンピューター システムに関連する技術監査を行ったりするのと同じように、AI システムの監査を行うことができるという概念です。 専門的な監査技術、ツール、および方法を使用して、AI システムが何で構成されているかを調べて評価します。たとえば、何らかのバイアスが含まれているかどうかを確認しようとします。

これは注目の急成長分野です。

AI 監査に特化した監査のこのサブフィールドは、今後も成長し続けることが期待できます。 ますます多くの AI システムが市場に投入され、その結果、AI 監査に対する要求がますます高まることは明らかです。 新しい法律は、これを刺激するのに役立ちます。 これらの法律がなくても、人々や企業がAIによって不当な扱いを受けていると主張し、害が存在し、使用されているAIに関連していたことを示す具体的な文書化された兆候を提供しようとするため、AI監査が数多く行われるでしょう.

AI 監査人は注目を集め、需要が高まるでしょう。

それはエキサイティングな仕事かもしれません。 おそらくスリリングな要素の XNUMX つは、最新かつ最高の AI に没頭することです。 AIは進化し続けます。 これが起こると、抜け目のない AI 監査人は常に注意を払う必要があります。 あなたが毎日の従来の監査にうんざりしている監査人である場合、目を見張るような常に新しい AI 監査アリーナが約束を提供します (監査員の地位を部分的に高めるためにこれを言います。彼らの努力は無視される傾向にある)。

余談ですが、私は認定されたコンピューターシステム監査人 (そのような指定の XNUMX つが CISA) であり、AI 監査を含む IT (情報技術) 監査を長年にわたって何度も行ってきました。 ほとんどの場合、そのような努力に値する評価を得ることはできません。 その理由はおそらく推測できます。 一般に、監査人は間違っていることや壊れていることを見つける傾向があります。 その意味で、彼らは非常に役に立ちますが、これは悪いニュースとして認識されることもあり、悪いニュースのメッセンジャーは通常、特に台座に置かれることはありません.

本題に戻ります。

ニューヨーク市の法律に関して、AI の監査と AI の偏見を明らかにしようとすることについて、法律は次のように述べています。

  • 「『バイアス監査』という用語は、独立した監査人による公平な評価を意味します。 このようなバイアス監査には、タイトルのセクション 1e-2000 のサブセクション (c) に従って雇用主が報告する必要がある構成要素 8 カテゴリの人に対するツールの異なる影響を評価するための、自動化された雇用決定ツールのテストが含まれますが、これに限定されません。連邦規制コードのタイトル 42 のパート 1602.7 で指定されている米国コードの 29」(NYC、Int 1894-2020、サブチャプター 25、セクション 20-870)。

要約すると、これまでのところ、この法則を解き明かすのは次のとおりです。

  • 法律は、Automated Employment Decision Tools (AEDT) を対象としています。
  • AEDT とは何かを識別するために、種類の定義が含まれています。
  • AEDT の定義には、除外規定も含まれています。
  • 要点は、法律が AEDT における AI バイアスを明らかにしたいということです。
  • AI バイアスが存在するかどうかを把握するには、AI 監査を実施する必要があります
  • AI監査は、おそらくAIのバイアスを明らかにします

次に、法律をもう少し掘り下げることができます。

雇用決定の内容は次のとおりです。

  • 「「雇用決定」という用語は、市内で昇進するために雇用または従業員の候補者を選別することを意味します」(NYC、Int 1894-2020、サブチャプター 25、セクション 20-870)。

「都市」の境界的な側面は、この問題がニューヨーク市内の雇用関連の状況のみを扱っていることを示唆していることに注意してください。 また、定義されている雇用決定には、候補者のスクリーニングが伴うことも注目に値します。これは、私たちが雇用決定として考えていることの通常の含意であり、さらに昇進も含まれます。

これは、企業が AEDT (使用している場合) が最初の雇用設定と企業内での昇進時にどのように使用されているかを把握する必要があることを認識する必要があるという意味で、二重の打撃です。 多くの企業は、プロモーション要素がこのルーブリック内にあることを十分に認識していないことを推測または推測できます。 彼らは必然的に、自らの危険を承知でその追加の構造を見落とします。

次に、この法律によって違法と解釈されているものの本質を明らかにするために、法律の重要な抜粋を追加します。

  • 「自動雇用決定ツールの要件。 a. 市では、雇用者または職業紹介所が自動化された雇用決定ツールを使用して、雇用決定のために候補者または従業員を審査することは違法となります。ただし、次の場合を除きます。かかるツールの使用の 1 年前。 2. そのようなツールの最新のバイアス監査の結果の概要、およびそのような監査が適用されるツールの配布日が、使用前に雇用主または職業紹介所の Web サイトで公開されていること。そのようなツール…」 (NYC、Int 1894-2020、サブチャプター 25、セクション 20-871)。 法的な文言に強い関心がある場合は、確認する必要がある追加の細分条項があります。

懐疑論者や批評家は、違法行為が告発されていることに関して、これはやや生ぬるいように見えると主張しています。

彼らは、法律は狭く最小限に焦点を当てているだけだと言います 導電性 AI監査と 公表する AI 監査が AI の偏見を発見したかどうかや、この法律の適用範囲に含まれる雇用の決定に影響があったとしたらどのような影響があるかではなく、その結果です。 本質的に、それは明らかに違法です そのような AI 監査を実施することを選択します (該当する場合、前述のとおり)。 それを公表します。

法律は、AI バイアスが検出され、存在するかどうかという問題について沈黙しているようです。 同様に、AIのバイアスが顕著な雇用の意思決定活動に関係する人に影響を与えたかどうかについても沈黙しています. 鍵となるのは、AI 監査を「単に」実行して、それについて報告することです。

この法律は十分ではありませんか?

この法律が包含するものの範囲または範囲に関してこれが一見満足できるものであると主張することに対する反論の一部は、AI 監査が AI バイアスを発見した場合、およびそれらの AI バイアスが特定の雇用意思決定インスタンスに結び付けられている場合、その人は、または、そのような被害を受けた人は、雇用主を追跡することができます。 他の 法律。 したがって、この特定の法律にその側面を含める必要はありません。

この法律は、そのような問題を明らかにすることを目的としていると言われています。

これらの不都合な慣行が明るみに出れば、AI の偏見が存在し、人々に影響を与える場合は、あらゆる方法で他の法的手段を講じることができます。 この法律がなければ、AEDT を使用している人々は暴走している可能性があり、就職を希望する人や昇進を希望する人がそれを知らない大量の AI バイアスを持つ可能性があるという議論があります。

それらを表面に持ってきます。 彼らに言わせます。 ボンネットの下に入る。 そのエンジンの中身を見てください。 それがこの場合のマントラです。 この表面化と通知から、追加のアクションを実行できます。

AI監査がおそらくAIバイアスが存在すると報告したことを明らかにした結果として法的措置を求めることに加えて、これらの結果の投稿が評判への影響をもたらすという信念もあります. AIバイアスを持つAEDTを使用していると示されている雇用主は、ソーシャルメディアなどを介して、社会的な怒りに苦しむ可能性があります. 彼らは自分たちの悪行を露呈し、自分の行動を正すことを恥ずかしく思います。また、AI のバイアスが雇用を妨げたり、昇進を奪ったりするという不安のために、そこで働きたいと思っている人々を失うことになるかもしれません。

違法であることに関連する定められた罰則は次のとおりです。

  • 「ペナルティ。 a. この副章の条項またはこの副章に従って公布された規則に違反した者は、最初の違反と、最初の違反と同じ日に発生した追加の違反ごとに 500 ドル以下の民事罰の責任を負います。その後の違反ごとに 500 ドルまたは 1,500 ドルを超えない」(NYC、Int 1894-2020、サブチャプター 25、セクション 20-872)。 法的な文言に強い関心がある場合は、確認する必要がある追加の細分条項があります。

懐疑論者や批評家は、罰則が十分に厳しくないと主張しています。 大企業は、関連するわずかなドルの罰金を嘲笑したり、笑ったりするでしょう。 他の人は、罰金が目に見える以上のものになる可能性があると指摘しています。たとえば、会社が毎日365,000ドルの違反を犯した場合(シナリオはXNUMXつだけで、他のシナリオはたくさんあります)、XNUMX年分の価値があるでしょう. XNUMX ドル、会社が単に XNUMX 年間法律を無視し、それを回避したと仮定した場合 (想像するのは難しいようですが、発生する可能性があり、理論的には、より長く、または毎日の罰金のより高い集大成のために発生する可能性さえあります)。

一方、中小企業とそれに伴う罰金を心配する人もいます。 かろうじて目的を達成している中小企業が罰金を科された場合、法律を回避する意図的な動機によるものではなかったと思われる場合、罰金は彼らの事業に重大な影響を与える可能性があります.

Keystone 問題のある考慮事項

シンプルで率直な質問があります。

この法律の文脈において、正確に AI 監査を構成するものは何ですか?

問題は、法律の説明の中に決定的な指示がないことです。 私たちが言われているように見えるのは、「バイアス監査」は「独立した監査人による公平な評価」(法律の文言による)を介して実行されるということだけです。

そのぽっかりと開いた穴から Mac のトラックを走らせることができます。

理由は次のとおりです。

このかなり当惑させる例を考えてみましょう。 詐欺師がニューヨーク市の会社に連絡し、AEDT のいわゆる「バイアス監査」を行うようなサービスを提供していると説明します。 彼らは、「公平に」(それが何を意味するにせよ)そうすることを約束します。 彼らは独立した監査人としての地位を確立しており、独立した監査人としての地位を確立しています。 あらゆる種類の会計または監査トレーニング、学位、資格、またはそのようなものは必要ありません。 わざわざ名刺を印刷したり、独立監査人としての立場を宣伝するウェブサイトを急いで立ち上げたりするかもしれません。

彼らは会社に、例えば100ドル程度の少額の手数料を請求します。 彼らのサービスは、おそらく AEDT についていくつかの質問をした後、AEDT にはバイアスがないことを宣言することで構成されています。 次に、XNUMX ページのサイズのレポートを送信し、いわゆる監査の「結果」を宣言します。 同社はこれを忠実にウェブサイトに掲載しています。

会社はこの法律を遵守していますか?

教えて

彼らが持っているようです。

監査が大雑把に行われたことにすぐに驚かれるかもしれません (この特定のシナリオでは、これは礼儀正しく寛大です)。 バイアスの検出 (またはその欠如) がおそらく本質的に事前に決定されていたことに戸惑うかもしれません (出来上がり、バイアスがないように見えます)。 投稿された結果が、経験豊富で訓練を受け、経験豊富で、認定された正真正銘の監査人による厳格な監査に合格したかのようなオーラを与える可能性があることに腹を立てるかもしれません。

はい、それはサイズアップについてです。

雇用主は、この「ばかげた」要件が満たされたことに安堵し、わずか 100 ドルしかかからなかったことを喜んでいるかもしれません。 雇用主は、独立した監査が見せかけだったことを内部的に静かに認識するかもしれませんが、それを決定する責任はないようです。 彼らは独立した監査人であると主張し、監査人は監査人が準拠していると述べた作業を行い、会社はその費用を支払い、結果を取得し、結果を投稿しました。

一部の雇用主はこれを行い、法律を順守していることに気づきます。 それにもかかわらず、彼らは完全に準拠していると信じています。

他の雇用主はだまされるかもしれません。 彼らが知っているのは、法律を遵守する必要があるということだけです。 彼らにとって幸運なことに (または彼らはそう思い込んでいます)、「独立した監査人」が彼らに連絡し、100 ドルで苦情の監査と結果を得ることができると約束します。 500 日あたり 100 ドル以上の罰金を科されるのを避けるために、同社は天からの贈り物を受け取ったと考えています。 彼らは XNUMX ドルを支払い、「監査」が行われ、AI バイアスの欠如に関する無料の健康保険証書を受け取り、結果を投稿し、次にそのような監査を行う必要があるときまで、このことを忘れます。 .

この法律の対象となるNYCのすべての企業は、法律の真正な遵守とは何かをどのように知っているのでしょうか?

まだお腹が壊されていない場合は、事態を悪化させる可能性があります. 次のねじれはそのままにしておくのが難しいので、ここ数時間は食事をしていないことを願っています.

準備は完璧?

この偽のサービス プロバイダーは、あなたが思っていたよりももっとひどいものであることが判明しました。 彼らは、独立監査人として公平なバイアス監査を行うために、100ドルのサービスにサインアップするように会社に依頼します。 見よ、彼らは「監査」を行い、AEDTの隅々に偏見があることを発見します.

彼らは、ゴキブリの蔓延のような AI バイアスを持っています。

ええ、会社は言います、私たちはそれについて何ができますか?

問題ありません、彼らは言われました、私たちはあなたのためにそれらのAIバイアスを修正することができます. 見つかったそのようなバイアスごとにわずか 50 ドルかかります。 わかりました、会社は言います、それらを修正してください、そうしてくれてありがとう。 サービス プロバイダーはちょっとしたコーディングを行い、5,000 個の AI バイアスを修正したため、50 ドルを請求することを会社に伝えます (これは、修正する AI バイアスごとに 100 ドルに、見つかった XNUMX を掛けたものです)。

痛い、会社は窮地に立たされていると感じていますが、それでも500日あたりXNUMXドル以上の違反に直面するよりはましなので、「独立監査人」に支払い、バイアスがないことを示す新しいレポートを受け取ります. 彼らはこれを誇らしげに彼らのウェブサイトに掲載しています。

彼らは、これがばかげたこと、詐欺、詐欺であることをほとんど知りません。

あなたは、このサービス プロバイダーの策略を罰するべきだと主張するかもしれません。 これらのトリックスターを捕まえて止めることは、想像以上に困難です。 あなたのために財産を持っている外国に拠点を置く王子を追跡するのと同じように、米国の法律の範囲を超えた外国の土地にいる可能性が高いのと同じことが、この場合にも発生する可能性があります.

この新しい法律により、家内工業が出現することが予想されます。

これらのサービスを提供しようとする善意の監査人が存在します。 彼らにとって良いことです。 この作業の後を追う大雑把な監査役がいるでしょう。 この仕事の後を追う、虚偽の宣言された監査人がいるでしょう。

私は、サービス プロバイダーのシナリオには、いわゆる AI 監査を行うために 100 ドルを要求することが含まれていると述べました。 それは単なる作り置きのプレースホルダーでした。 たぶん、10ドルを請求する人もいます(大ざっぱに思えます)。 たぶん 50 ドルくらいです (まだ大ざっぱです)。 等。

サービス プロバイダーが、その作業を行うのに 10,000 ドルかかると言ったとします。

またはそれを行うために100,000ドル。

そのためにおそらく1,000,000万ドル。

一部の雇用主は、これにどれくらいの費用がかかるか、または費用がかかるかについて、まったく手がかりがありません. これらのサービスのマーケティングは、自由に行うことができます。 これは、これらのサービスを合法的に実行する人にとっては金儲けの法律であり、そうすることで手に負えない人にとっても金儲けです. どれがどれだかわかりにくいでしょう。

また、別のぽっかり穴を熟考するようにお願いします。

この法律の文脈において、正確に AI バイアスを構成するものは何ですか?

米国の連邦規制法に関する言及を除けば (これは特に AI の偏見の問題に答えているわけではなく、したがって、この問題の一時しのぎや解決策として機能するわけでもありません)、この新しい規制が法律は、AI バイアスとは何かについて実質的な指標を提供します。 繰り返しになりますが、これは広く異なる解釈に対して完全に開かれており、何を探し、何を発見したかなどは特にわかりません。 また、正真正銘の AI 監査人によって実行される作業でさえ、他の監査人とは比較にならない可能性が高く、それぞれが独自の定義とアプローチを使用する傾向があります。

要するに、私たちは、善意ではあるものの、このゆるいグージーな言い回しの法律の結果として、雇用主が直面することを恐怖と懸念とともに見ることができます。

  • 一部の雇用主は、法律を熟知し、全力を尽くして真剣かつ完全に遵守します。
  • 一部の雇用主は法律について知っており、彼らが見つけた、または彼らの玄関口に来る最もスリムで安価で、おそらく不快な道をわずかに遵守します.
  • 一部の雇用主は、法律について知っていて、法律の範囲内にないと信じているため、それについては何もしません (ただし、範囲内にある可能性があります)。
  • 一部の雇用主は法律について知っていて、おそらく誰も気付かない、法律が施行されない、または法律が施行不能であることが判明するなどと信じて、それを無視することをきっぱりと決めるでしょう.
  • 一部の雇用主は法律について知らず、順守しようと慌てて立ち往生してしまいます。
  • 一部の雇用主は法律について知らず、無残にも詐欺師に騙されます
  • 一部の雇用主は法律について知らず、範囲内ではありませんが、範囲内であると確信させる詐欺師によってとにかく逃げられます.
  • 一部の雇用主は法律について知らず、それについて何もしませんが、奇跡的に、彼らの見落としのために捕まったり、けがをしたりすることはありません.
  • その他

心に留めておくべき重要な考慮事項の XNUMX つは、この新しい法則に関連する規模またはスケーリングです。

ニューヨーク市の企業数に関するさまざまな報告された統計によると、その数は通常、約 200,000 程度の企業として示されています (これを桁数として使用しましょう)。 これが合理的な概算であると仮定すると、おそらく雇用主としての企業はこの新しい法律の対象となります。 したがって、雇用主がこの法律に反応する上記のいくつかの方法を取り上げて、今述べたさまざまなバケツのそれぞれにどれだけの数が含まれるかを考えてみてください。

これはかなり驚異的なスケーリングの問題です。

さらに、報告された統計によると、ニューヨーク市にはおそらく 4 万の民間部門の仕事があり、さらに 300,000 人ほどの公務員がニューヨーク市政府によって雇用されていると推定されています (繰り返しますが、正確な数ではなく桁数として使用してください)。 新規雇用がこの新しい法律の範囲内にあるように見えること、および既存および将来のすべての従業員に関連する昇進を考慮すると、この法律によって何らかの形で影響を受ける従業員の数は、率直に言って驚くべきものです.

ビッグアップルには、一見無害で表面上は取るに足らないか平凡に見える新しい法律があります。

まとめ

この議論の冒頭で、これは善意の新しい法律であると述べました。

潜在的な抜け穴、省略、ギャップ、問題などとして説明したものはすべて、簡単に予測できます。 これはロケット科学ではありません。 付け加えるかもしれませんが、この法律にはさらに固有の懸念や交絡の側面があり、ここでは紙面の制約のために言及していません。

樽で魚を撃つように、それらを簡単に見つけることができます。

この種の法律は、この種の卑劣な結末を防ぐために慎重に作成する必要があります。 真面目な作曲家は、比較的鉄壁であり、最悪の場合、あちこちにわずかな小さなしずくが出る可能性があると彼らが信じている法律を書こうとしたと思います。 残念ながらドリップの消防ホースです。 大量のダクトテープが必要になります。

これらの明白な抜け穴と関連する問題を封じるために、法律はより明確な方法で書かれているでしょうか?

はい、豊富にそうです。

さて、そうであれば、そのような法律は間違いなくもっと長くなるだろうと憤慨して勧めるかもしれません. 簡潔でコンパクトであることと、延々と続く法則を持つこととのトレードオフが常にあります。 ただし、実質的で価値のある明確さと具体性を失うことで簡潔さを得たいとは思わない. シェナニガンを許可する短い法律は、トラブルに満ちています。 採用段階でダウンストリームの問題を回避、回避、または少なくとも最小限に抑える場合、より長い法律は、一見より複雑に見える場合でも、通常は価値のあるトレードオフになります。

聖アウグスティヌスが言った有名な言葉:「不当な法は法ではないように思えます」。

問題のある言葉で構成された公正な法律は、悲惨な問題を生み出すことを懇願する法律であるという当然の帰結を提供するかもしれません。 この場合、偉大な法学者オリバー・ウェンデル・ホームズ・ジュニアの賢明な言葉が残されているように思われます。つまり、歴史のページは XNUMX ポンドの論理に値するということです。

歴史がもうすぐ作られるので、見守ってください。

ソース: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai-バイアス-監査-キック-イントゥ-ギア/