責任ある AI は、トップ プロフェッショナル ソサイエティ The ACM による AI 倫理宣言による卓越した後押しを享受

ニュースを見たり聞いたりしましたか?

もう XNUMX つの AI 倫理規定が新たに宣言されました。

よろしければ、盛大な拍手をお願いします。

それからまた、あなたはかもしれません 他の非常に多くの AI 倫理法令がしばらくの間浮かんでいるという事実のために、私はそれに気づきました。 一部の人々は、エシカル AI 宣言の絶え間ない浸透が少し麻痺しつつあると言っています。 何人必要ですか? 誰もそれらすべてについていくことができますか? どれが最高ですか? AI の倫理原則に乗りすぎているのではないでしょうか? 等々。

ええと、この特定のケースでは、クラブへのこの最新の追加を特に歓迎すべきだと私は言います.

その理由をすぐに洞察力を持って説明します。

最初に、明確化として、現在公式に知られている AI 倫理規定セットについて言及しています。責任あるアルゴリズムシステムの原則に関する声明」 これは、26 年 2022 月 XNUMX 日に ACM 技術政策評議会によって最近発行されました。この貴重な文書をまとめた専門家チームに称賛を送りたいと思います。共同主執筆者である Jeanna Matthews (クラークソン大学) と Ricardo Baeza-Yates (Universitat Pompeu Fabra) を含みます。 )。

よく知っている人は、よく調べてみると、このドキュメントがかすかに見覚えがあることに気付くかもしれません。

いい目!

この最新版は本質的に、2017 年に ACM 米国技術政策委員会と ACM ヨーロッパ技術政策委員会によって公布された以前の合同「アルゴリズムの透明性と説明責任に関する声明」の更新および拡張版です。私のコラムの忠実な読者は、 AI の倫理と AI の法律の根底にある重要な側面についてのコラム記事で、2017 年の大統領令について時々言及してきました。

AI 倫理と AI 法に関する私の広範かつ継続的な評価とトレンド分析については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

ACM によるこの最新の声明は、いくつかの重要な理由から特に重要です。

理由は次のとおりです。

ACM は、 計算機学会は、コンピューティングに焦点を当てた世界最大の協会と見なされています。 推定 110,000 人ほどのメンバーで構成される ACM は、コンピューティング分野における長年のパイオニアです。 ACM は、コンピューティング分野で最も優れた学術研究の一部を生み出しており、同様に専門的なネットワークを提供し、コンピューティングの専門家にもアピールしています。 このように、ACM は、一般的にハイテクであり、コンピューター分野を進歩させるためにたゆまず努力してきた人々を代表する重要な声です (ACM は 1947 年に設立されました)。

これについても個人的なメモを少し追加するかもしれません。 高校で初めてコンピューターに触れたとき、私は ACM に参加し、ACM の教育プログラムに参加しました。特に、年に一度のコンピューター プログラミング コンテスト (このようなコンテストは今日では一般的であり、一般的に ハッカトン)。 私は在学中も地元の大学支部を通じて ACM に参加し続けており、学生支部の役員になることでリーダーシップについて学ぶ機会を得ました。 業界に入ると、私は専門家の章に参加し、再びリーダーシップの役割を引き受けました. この後、私が教授になったとき、キャンパスの学生の章を後援するとともに、ACM 委員会と編集委員会に参加しました。 今日でも、私は ACM US Technology Policy Committee の委員を務めるなど、ACM で積極的に活動しています。

私は、生涯学習とキャリア開発という ACM の愛らしく永続的なビジョンを楽しんでいます。

いずれにせよ、最新の AI 倫理声明に関して言えば、これが ACM によって発行されたという事実には、かなりの重みがあります。 倫理的な AI の教訓は、コンピューティングの専門家の世界的なグループの全体または集合的な声であると合理的に主張するかもしれません。 それはそこで何かを言います。

また、コンピューター分野の他の人が、同僚のコンピューティングの同僚が声明で宣言していることを十分に考慮するという意味で、元気を出して耳を傾けるように促されるという側面もあります。 したがって、ACM に参加していない人や、尊敬されているグループについて何も知らない人でも、この声明の内容を発見することに強い関心が寄せられることを願っています。

一方、 外側 コンピューティング分野の関係者は、倫理的 AI についてコンピューターに興味を持っている人々が何を言っているのかを舞台裏のインサイダーとして見て、この声明に惹きつけられるかもしれません。 ただし、この声明はコンピューター コミュニティだけでなく、すべての人を対象としていることを強調したいと思います。したがって、AI の倫理規定は、いわば全面的なものであることを心に留めておいてください。

最後に、ほとんどの人が考慮しない追加のひねりがあります。

部外者は、コンピューティング関連は技術に深く関わっており、コンピューターと AI の社会的影響を特に認識していないと認識することがあります。 このような専門家は、ハードウェアまたはソフトウェアの最新かつ最もホットなブレークスルーだけに関心があると思いがちです。 彼らは、簡単に言うと大雑把な方法で、技術オタクとして大衆に認識されています。

率直に言って、私は最初にコンピューターを始めて以来、コンピューティングの社会的影響に没頭してきました。同様に、ACM もそのようなトピックに深く関わってきました。

AI 倫理指針に関するこの声明がまとめられ、ACM によって発表されたことに驚いた人は誰でも、これらの問題に関して行われている長年の研究と作業に注意を払っていません。 また、興味のある方は ACM をよく見てください。 Code of Ethicsは、何年にもわたって進化してきた耳障りな職業倫理規定であり、システム開発者が自分の努力や製品の倫理的影響を認識し、遵守し、警戒する必要があることを強調しています。

AI は、コンピューティングの倫理についての知識を得ることに火をつけてきました。

今日の AI の出現により、コンピューティング分野における倫理的および法的考慮事項の可視性が大幅に向上しました。 専門職の人々は、AI の倫理と AI 法の問題に適切な注意を払うように知らされ、時には叩かれています。 議員は、AI の倫理と AI に関する法律の側面をますます意識するようになっています。 企業は、自分たちが考案または使用している AI が有利であると同時に、時には莫大なリスクと潜在的なマイナス面をもたらすという考えに賢明です。

この最新の一連の AI 倫理指針に飛び込む前に、適切なコンテキストを確立できるように、過去数年間に起こったことを解き明かしましょう。

倫理的 AI に対する意識の高まり

最近の AI の時代は、最初は次のように見なされていました。 AI For Good、人類の向上のために AI を使用できることを意味します。 に続いて AI For Good 私たちも没頭していることに気づきました 悪い人のためのAI. これには、差別的になるように考案または自己変更され、過度のバイアスを吹き込む計算上の選択を行う AI が含まれます。 AI がそのように構築されている場合もあれば、その不利な領域に方向転換している場合もあります。

今日の AI の性質について、私たちが同じページにいることを十分に確認したいと思います。

今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

私が注目しているタイプの AI は、今日私たちが持っている感覚を持たない AI で構成されています。 知覚力のある AI について荒々しく推測したい場合、この議論は根本的に異なる方向に進む可能性があります。 知覚力のある AI は、おそらく人間の品質を備えているでしょう。 知覚力のある AI は、人間と同等の認知能力を持っていると考える必要があります。 さらに、私たちが超インテリジェント AI を持っている可能性があると推測しているため、そのような AI は最終的に人間よりも賢くなる可能性があると考えられます (可能性としての超インテリジェント AI の私の調査については、 ここでの報道).

物事を現実的に保ち、今日のコンピューターによる非感覚的 AI について検討することを強くお勧めします。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、計算パターンマッチングを活用する機械学習(ML)とディープラーニング(DL)が広く利用されています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

今日の AI を擬人化することには十分注意してください。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI 開発者も何が起こっているのか理解していない可能性があります。 ML/DL の難解な数学は、現在隠された偏見を見つけ出すことを困難にする可能性があります。 AI 開発者が埋もれている可能性のあるバイアスをテストすることを期待し、期待するのは当然ですが、これは思ったよりも難しいことです。 比較的大規模なテストを行ったとしても、ML/DL のパターン マッチング モデルにまだバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

これらはすべて、AI の倫理に非常に重要な意味を持ち、AI を法制化しようとする際に (すべての教訓が生じる前であっても) 学んだ教訓への便利な窓を提供します。

一般にAI倫理の原則を採用することに加えて、AIのさまざまな使用を管理する法律を設ける必要があるかどうかという対応する質問があります。 AIの考案方法の範囲と性質に関係する新しい法律が、連邦、州、地方のレベルで広まっています。 そのような法律を起草して制定する努力は段階的なものです。 AI倫理は、少なくとも、考慮された一時的なギャップとして機能し、ほぼ確実に、ある程度、これらの新しい法律に直接組み込まれます。

AIを対象とする新しい法律は必要なく、既存の法律で十分であると断固として主張する人もいることに注意してください。 彼らは、これらの AI に関する法律の一部を制定した場合、社会に計り知れない利点をもたらす AI の進歩を取り締まることで、黄金のガチョウを殺すことになると警告しています。

これまでのコラムでは、AI を規制する法律を作成して制定するためのさまざまな国内および国際的な取り組みについて取り上げてきました。 ここのリンク、 例えば。 また、さまざまな国が特定して採用したさまざまな AI 倫理の原則とガイドラインについても説明しました。たとえば、200 近くの国が採用したユネスコ AI 倫理のセットなどの国連の取り組みが含まれます。 ここのリンク.

以下は、私が以前に詳しく調べた AI システムに関する倫理的な AI 基準または特性のキーストーン リストです。

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

これらの AI 倫理原則は、AI 開発者だけでなく、AI 開発の取り組みを管理する人々、さらには最終的に AI システムを整備して維持する人々によっても利用されることを真剣に想定されています。

開発と使用の AI ライフサイクル全体にわたるすべての利害関係者は、倫理的 AI の確立された規範を遵守する範囲内にあると見なされます。 これは重要なハイライトです。なぜなら、「コーダーのみ」または AI をプログラムする人は、AI 倫理の概念に従う必要があると通常想定されているからです。 ここで強調したように、AI を考案して運用するには村が必要であり、村全体が AI の倫理規定に精通し、それを遵守する必要があります。

私も最近調べました AI権利章典 これは、科学技術政策局 (OSTP) による XNUMX 年間にわたる取り組みの結果である、「AI 権利章典の青写真: アメリカ国民のために自動化されたシステムを機能させる」というタイトルの米国政府の公式文書の正式なタイトルです。 )。 OSTP は、国家的に重要なさまざまな技術的、科学的、および工学的側面について、米国大統領および米国行政府に助言する連邦組織です。 その意味で、この AI 権利章典は、現存する米国のホワイト ハウスによって承認され、承認された文書であると言えます。

AI 権利章典には、次の XNUMX つのキーストーン カテゴリがあります。

  • 安全で効果的なシステム
  • アルゴリズム差別保護
  • データプライバシー
  • 注意と説明
  • 人間による代替、検討、およびフォールバック

私はそれらの教訓を注意深く見直しました。 ここのリンク.

これらの関連する AI の倫理と AI の法律のトピックに役立つ基礎を築いたので、最近リリースされた ACM「責任あるアルゴリズム システムの原則に関する声明」に飛び込む準備ができました (ちなみに、ドキュメントのタイトルは 責任 アルゴリズムシステムについて話すことが何を意味するかについての私の評価を見てみたいかもしれません 信頼できるAIを参照してください ここのリンク).

この最新の一連の AI 倫理原則への旅に備えましょう。

ACM 宣言の AI 倫理規定を熱心に掘り下げる

倫理的 AI に関する ACM の声明は、次の XNUMX つのキーストーンで構成されています。

  • 正当性と能力
  • 害を最小限に抑える
  • セキュリティとプライバシー
  • 透明性
  • 解釈可能性と説明可能性
  • 保守性
  • 競争可能性と監査可能性
  • 説明責任と責任
  • 環境への影響を制限する

この最新のセットを他の特に入手可能なセットと比較すると、それらの間には多くの類似点または類似の対応があります。

一方では、それを良い兆候と見なすことができます。

私たちは一般的に、あちこちに散らばっている多数の AI 倫理原則がすべて合体して、同じ全体的な範囲になることを望んでいるかもしれません。 あるセットが別のセットといくらか比較できることを見ると、これらのセットが同じ球場内にあり、不可解なレフト フィールドにあるわけではないという確信が得られます。

一部の人々からの潜在的な不満は、これらのさまざまなセットがほぼ同じように見えることであり、一見重複しているように見えるリストを多数持つべきではないという懸念のために、混乱または少なくとも驚愕を引き起こす可能性があります. リストは XNUMX つだけではありませんか? もちろん問題は、そのようなリストをすべて一様に正確に同じにする簡単な方法がないことです。 さまざまなグループやさまざまな団体がさまざまな方法でこれに取り組んできました。 良いニュースは、彼らがほぼすべて同じ包括的な結論に達したことです. セットに大きな違いがないことは安心できます。全体的なコンセンサスがなければ不安になるかもしれません.

逆張り派は、これらのリストの共通性は当惑させるものであり、集団思考が進行している可能性があると主張するかもしれません。 おそらく、これらの異なるグループはすべて同じように考えており、標準を超えて見ることができていません. 私たち全員が同じ罠に陥っています。 表向きはリストが私たちの思考を固定しており、私たちは自分の鼻先を見ることができません。

私たちの鼻の向こうに目を向けることは、間違いなく価値のある原因です。

私は確かに、反対派が何を言わなければならないかを聞くことにオープンです。 時々彼らは、 タイタニック 巨大な氷山に向かっています。 いくつかのイーグルアイ ルックアウトを使用できます。 しかし、これらの AI の倫理規定に関しては、過度の共通性が進行しているという懸念を明白に弱めたり、懸念を引き起こしたりするように見える、逆張り派によって決定的に明確に述べられたものは何もありません。 私たちは大丈夫だと思います。

この ACM セットには、特に注目に値すると私が考えるいくつかの特に注目すべき点または際立った点があります。

まず、標準とは少し異なるトップレベルのフレージングが好きです。

たとえば、 正当性と能力 (箇条書きの最初の項目) は、AI に関連する設計者と管理者の両方の能力の重要性を思い起こさせます。 加えて 合法性 キャッチフレーズは、私たちを AI の倫理に引き込んでしまう & AI 法の領域。 私がこれを言うのは、AI の倫理規定の多くは、ほぼ完全に倫理的な意味合いに集中しているが、法的な影響についても言及していないか、恥ずかしがっているように見えるからです。 法律の分野では、倫理的な考慮事項は「ソフト ロー」であると宣伝されることがよくありますが、書籍の法律は「ハード ロー」 (法廷の重みを担うことを意味します) として解釈されます。

私の好きな言葉の XNUMX つは、有名な法学者アール ウォーレンの言葉です。「文明化された生活では、法は倫理の海に浮かぶ」。

私たちは、AI の倫理指針が、AI 法の起草、制定、施行などの厳格な側面も包含し、強調していることを確認する必要があります。

第二に、リストに次のものが含まれていることに感謝します 競合性と監査可能性.

AIシステムの影響下にあるときに、異議を唱えたり、危険信号を発したりできることの価値について、私は繰り返し書いてきました。 ここのリンク. さらに、AI システムの監査を強制する新しい法律をますます目にするようになるでしょう。これについては、従業員の雇用と昇進に使用される AI システムのバイアスの監査に関するニューヨーク市 (NYC) の法律について詳しく説明しました。 ここのリンク. 残念ながら、ニューヨーク市の新しい法律を公然と批判しているように、これらの監査可能性に関する法律に欠陥がある場合、おそらく解決するよりも多くの問題を引き起こすでしょう.

第 XNUMX に、AI が持続可能性の問題に影響を与える可能性があるという認識が徐々に高まっています。 環境の トピックは、これらの AI 倫理規定で最高レベルの請求を受けました (リストの最後の箇条書きを参照)。

AI システムを作成する行為だけでも、多くのコンピューティング リソースを消費する可能性があります。 これらのコンピューティング リソースは、直接的または間接的に持続可能性を侵害する可能性があります。 AI が提供するメリットと AI に伴うコストについては、考慮すべきトレードオフがあります。 ACM の箇条書き項目の最後の項目では、AI で生じる持続可能性と環境への配慮について言及しています。 AI 関連の二酸化炭素排出量の問題に関する私の報道については、以下を参照してください。 ここのリンク.

ACM の AI 倫理指針のリストを徹底的に調べたので、次に足を水に深く入れます。

以下は、高レベルの AI 倫理規定のそれぞれの公式の説明です (公式声明から引用)。

1。 '正当性と能力: アルゴリズム システムの設計者は、そのようなシステムを構築および展開するための管理能力と明示的な権限を持っている必要があります。 また、システムの使用目的の科学的根拠となるアプリケーション ドメインの専門知識が必要であり、システムの影響を受ける利害関係者から社会的に正当であると広く認められている必要があります。 システムによって導入されたリスクが対処されている問題に比例すること、および利益と害のトレードオフがすべての関連する利害関係者によって理解されていることを確認するために、法的および倫理的な評価を実施する必要があります。」

2。 '害の最小化: アルゴリズム システムの管理者、設計者、開発者、ユーザー、およびその他の利害関係者は、アルゴリズム システムの設計、実装、および使用に関連するエラーやバイアスの可能性、およびシステムが個人や社会にもたらす可能性のある害について認識しておく必要があります。 組織は、システムが害、特に差別的な害を生み出す可能性があるかどうかを判断し、適切な軽減策を適用するために、採用するシステムの影響評価を定期的に実行する必要があります。 可能であれば、それ自体が差別的だった可能性のある過去の決定のパターンだけでなく、実際のパフォーマンスの尺度から学ぶべきです。」

3。 'セキュリティとプライバシー: アルゴリズム システムのコンテキストで発生する新しい脆弱性を軽減するための堅牢な制御を含む、システムのライフサイクルのすべてのフェーズにわたってセキュリティとプライバシーのベスト プラクティスを導入することで、悪意のある当事者からのリスクを軽減できます。」

4。 '透明性: システム開発者は、特定のデータセット、変数、およびモデルが開発、トレーニング、検証、およびテストのために選択された方法、およびデータと出力の品質を保証するために使用された特定の手段を明確に文書化することをお勧めします。 システムは各出力の信頼度を示す必要があり、信頼度が低い場合は人間が介入する必要があります。 開発者は、潜在的なバイアスを調査するために使用されたアプローチも文書化する必要があります。 生命と幸福に重大な影響を与えるシステムについては、独立した検証と検証手順が必要です。 データとモデルを公に精査することで、修正の機会が最大限に提供されます。 したがって、開発者は公共の利益のためにサードパーティのテストを促進する必要があります。」

5。 '解釈可能性と説明可能性: アルゴリズムシステムの管理者は、採用されたアルゴリズムが従う手順 (解釈可能性) とアルゴリズムが下す特定の決定 (説明可能性) の両方に関する情報を作成することが推奨されます。 説明可能性は、正確性と同じくらい重要かもしれません。特に、公共政策のコンテキストや、承認なしであるグループに利益をもたらすためにアルゴリズムがどのように歪められるかについて懸念がある環境では. 説明と、説明されている結論に到達するために使用された証拠または意思決定プロセスを反映していない事後の合理化を区別することが重要です。」

6。 '保守性: すべてのアルゴリズム システムの健全性の証拠は、システム要件の文書化、変更の設計または実装、テスト ケースと結果、検出および修正されたエラーのログなど、ライフ サイクル全体を通じて収集する必要があります。 適切なメンテナンスには、新しいトレーニング データによるシステムの再トレーニングや、採用されているモデルの交換が必要になる場合があります。」

7。 '競争可能性と監査可能性: 規制当局は、個人やグループが結果に疑問を呈し、アルゴリズムに基づいた情報に基づいた決定から生じる悪影響の是正を求めることができるメカニズムの採用を奨励する必要があります。 管理者は、データ、モデル、アルゴリズム、および意思決定が記録されていることを確認して、害が疑われたり主張されたりした場合にそれらを監査して結果を複製できるようにする必要があります。 監査戦略は、個人、公益団体、および研究者がレビューし、改善を推奨できるように公開する必要があります。」

8。 '説明責任と責任: 公共および民間の機関は、アルゴリズムがどのように結果を生成したかを詳細に説明することが不可能であっても、使用するアルゴリズムによって下された決定について責任を負う必要があります。 このような機関は、特定のシステムを構成する個々の部分だけでなく、特定のコンテキストで展開されるシステム全体に責任を負う必要があります。 自動化されたシステムに問題が検出された場合、それらのシステムの展開を担当する組織は、問題を修復するために実行する特定のアクションと、そのようなテクノロジーの使用を停止または終了する必要がある状況を文書化する必要があります。」

9。 '環境への影響を制限する: アルゴリズムシステムは、トレーニングと運用計算の両方からの炭素排出量を含む、環境への影響の推定値を報告するように設計する必要があります。 AI システムは、展開された状況で必要とされる精度を考慮して、二酸化炭素排出量が妥当であることを保証するように設計する必要があります。」

これらの重要な AI 倫理の教訓のそれぞれを注意深く読んでいただけると信じています。 それらを心に留めておいてください。

まとめ

ACM の宣言には、多くの人がうっかり見落としていると思われる微妙な、しかし同様に重要な部分があります。 これをあなたの注意を引くようにしましょう。

私は、AI の倫理指針に関連するトレードオフを検討しなければならないという、痛ましい難問について論じている部分をほのめかしています。 おわかりのように、ほとんどの人は AI の倫理原則を読んでいて、すべての教訓の重要性は同じであり、すべての教訓には常に同じように最適な敬意と価値が与えられると思い込んで、無意識にうなずきます。

現実の世界ではありません。

ゴムが道路に出会うと、わずかな複雑ささえ持っているあらゆる種類の AI は、他の原則のいくつかよりも十分に達成可能な要素のいくつかについて、AI の倫理指針を不快にテストします。 すべての AI はすべての AI 倫理規定を最大限に活用する必要があると大声で叫んでいるかもしれませんが、これは特に現実的ではありません。 それがあなたの立場であるなら、AI メーカーとユーザーのほとんどまたはほとんどすべてに、店を閉めて AI を完全に片付けるように言う必要があるでしょう。

AI を普及させるには、妥協が必要です。 とは言っても、私は AI の倫理指針に違反する手抜きを推奨しているわけでも、AI 法に違反すべきだとほのめかしているわけでもありません。 特定の最低限を満たす必要があり、それを超えると目標はさらに努力することです。 最終的には、バランスを慎重に判断する必要があります。 このバランスをとる行為は、慎重に、明示的に、合法的に、そして真正で誠実な信念としての AI 倫理に従って行われなければなりません (企業が AI 倫理委員会をどのように利用してこの厳粛なアプローチを獲得しようとしているかを知りたいと思うかもしれません。 ここのリンク).

以下は、ACM 宣言がトレードオフの複雑さについて言及している箇条書きのポイントです (公式文書から引用)。

  • 「ソリューションは、複雑さやコストに影響を与えるとしても、解決する問題に比例する必要があります(たとえば、単純な予測タスクに公共のビデオ監視を使用することを拒否するなど)。」
  • 「さまざまなパフォーマンス メトリックを考慮する必要があり、アプリケーション ドメインに基づいて異なる重み付けを行うことができます。 たとえば、一部の医療アプリケーションでは、偽陰性の影響が偽陽性よりもはるかに悪い場合がありますが、刑事司法では、偽陽性の結果 (無実の人を投獄するなど) が偽陰性よりもはるかに悪い場合があります。 最も望ましい運用システムのセットアップが、最大の精度を備えたものになることはめったにありません。」
  • 「プライバシー、企業秘密の保護、または悪意のあるアクターがシステムを操作することを可能にする可能性のある分析の暴露に関する懸念は、適格な個人へのアクセスを制限することを正当化することができますが、第三者の精査を制限することを正当化したり、開発者の義務を免除するために使用されるべきではありませんエラーを認識して修復すること。」
  • 「透明性は、アルゴリズムシステムによって影響を受ける利害関係者が、行われた損害に対して有意義な救済を求めることを可能にする説明責任のプロセスと組み合わせる必要があります。 透明性は、システムを正当化したり、他の当事者に責任を転嫁したりするために使用されるべきではありません。」
  • 「システムの影響が大きい場合、より説明可能なシステムが望ましい場合があります。 多くの場合、説明可能性と正確性の間にトレードオフはありません。 しかし、状況によっては、誤った説明は説明がないよりもさらに悪い場合があります (たとえば、医療システムでは、症状は XNUMX つだけでなく、多くの可能性のある病気に対応する場合があります)。

AI を開発または使用している人は、自分たちが直面しているトレードオフをはっきりと認識していない可能性があります。 企業のトップ リーダーは、AI がすべての AI 倫理原則の最大値を満たしていると素朴に想定するかもしれません。 彼らは、AI について無知であるためにこれを信じているか、またはこれを信じたいと思っており、AI をすぐに採用するためにウィンクウィンクを行っている可能性があります。

実質的かつ率直にトレードオフに立ち向かわないと、最終的に AI が害を及ぼす可能性があります。 これらの損害により、企業は潜在的に大規模な負債を抱える可能性があります。 それに加えて、従来の法律は、AI に関連する可能性のある犯罪行為に耐えられるようになる可能性があり、これにも影響を与える新しい AI に焦点を当てた法律があります。 トレードオフを回避できると考えている人や、トレードオフが存在することにまったく気づいていない人の頭の上には、大量のレンガが待っています(彼らには破滅的な認識が必然的に降りかかります)。

このトピックに関する最後の言葉は、ACM 宣言の結論の側面に譲ります。これは、これらの倫理的 AI の教訓が巨視的に何をもたらすことを目指しているかを説明する強力な仕事をしていると思うからです。

  • 「前述の推奨事項は、アルゴリズム システムの責任ある設計、開発、および使用に焦点を当てています。 責任は、法律および公共政策によって決定されなければなりません。 アルゴリズム システムの能力が増大し、生命にかかわる重要なアプリケーションでの使用が増加していることは、それらを使用する際に細心の注意を払う必要があることを意味します。 これらの XNUMX つの重要な原則は、信頼性、安全性、および責任を促進しながら、幅広いユーザーに利益をもたらすための議論の開始、研究の開始、およびガバナンス方法の開発においてインスピレーションを与えることを目的としています。 最終的には、影響を受けるすべての利害関係者の代表者と協力してアルゴリズム システムの正しい設計と使用を定義するのは、特定のコンテキストです」(公式文書から引用)。

知恵の言葉が鋭く語るように、千マイルの旅は最初の一歩から始まります。

AI の倫理と AI の法律に精通し、最初の一歩を踏み出すことで、これらの重要な取り組みを進めることができます。 素晴らしいことに、私たちはまだ AI を管理し、社会的に対処する方法を収集する初期段階にあるということです。そのため、皆さんは XNUMX 階に足を踏み入れており、皆さんの努力が皆さんの未来と私たち全員の未来を明確に形作ることができます。

AI の旅は始まったばかりで、重要な最初のステップがまだ進行中です。

ソース: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing-専門職協会the-acm/