AIの倫理は、AIの悪行に対する説明責任を確保するために法的に義務付けられた贖罪基金のメリットについて熟考しています

誰が責任を負うのですか?

それは簡単な質問のように思えるかもしれませんが、アボットとコステロの伝説的なデュオによる野球チームに関する有名なコメディのビットの場合、「誰」が混乱する可能性があります. あなたは漠然と知っているかもしれません 一塁手は誰だ 彼らがこれまでで最も永続的なスキットの XNUMX つにしたコメディー ルーチン (聞いたことがない人にはネタバレ注意)。

アボットはコステロに、誰が XNUMX 位、何が XNUMX 位、I Don't Know が XNUMX 位であると伝えます。 一塁手は誰、二塁手は何、三塁手はアイ・ドント・ノウという巧妙な手口です。 もちろん、これらのフレーズにも従来の意味があるため、アボットの言っていることを解釈しようとすると、完全に困惑する可能性があります. 確かに、コステロは、誰が最初に参加するかという一見無害な質問をしますが、その答えは断固としてイエスです。 しかし、コステロは名前を期待していたのに、答えとして困惑する「はい」を受け取ったため、これは意味がありません。

話は変わりますが、人工知能 (AI) の出現に関して、最も悩ましい質問の XNUMX つは、AI が道に迷った場合に責任を問われるのは誰か、あるいはおそらく何が責任を問われるかということです。

私は以前、AI が犯罪行為を引き起こしたり実行したりする場合の刑事責任について説明しました。 ここのリンク. また、AI があなたに過ちを犯した場合に、誰または何を訴えるかなどの民事責任の問題もあります。これについては、ここで説明します。 これらすべてに、AI の倫理に関する重要な考慮事項があります。 AI の倫理と倫理的 AI に関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

AI 倫理の教訓により、私たちは警戒を怠らないようになります。 AI 技術者は、テクノロジー、特にハイテクの最適化に夢中になることがあります。 彼らは必ずしもより大きな社会的影響を考慮しているわけではありません。 AI 倫理の考え方を持ち、それを AI の開発と実施に統合することは、適切な AI を作成するために不可欠です。これには、(おそらく驚くべきことか皮肉なことに) AI 倫理が企業にどのように採用されるかの評価が含まれます。

一般にAI倫理の原則を採用することに加えて、AIのさまざまな使用を管理する法律を設ける必要があるかどうかという対応する質問があります。 AIの考案方法の範囲と性質に関係する新しい法律が、連邦、州、地方のレベルで広まっています。 そのような法律を起草して制定する努力は段階的なものです。 AI倫理は、少なくとも、考慮された一時的なギャップとして機能し、ほぼ確実に、ある程度、これらの新しい法律に直接組み込まれます。

AIをカバーする新しい法律は必要なく、既存の法律で十分であると断固として主張する人もいることに注意してください。 実際、彼らは、私たちがこれらのAI法のいくつかを制定すれば、莫大な社会的利点をもたらすAIの進歩を抑制して、金のガチョウを殺すことになるだろうと警告しています。

激しい議論が繰り広げられており、既存の法律が社会全体での AI システムの出現に適切に対処できるかどうかが争われています。 法的責任は通常、誰が有害な行為の責任を負うかについてロバに尻尾を付けることができることを必要とします。 AI の場合、特定の人物を、何らかの有害な行動を起こした AI に結び付ける不明確な経路が存在する可能性があります。 AI は、AI を構成した情報源または発明者をほとんど追跡できない可能性があります。

もう XNUMX つの考慮事項は、AI のルーツを誰かにたどることができたとしても、問題は、AI が最終的に生み出した不利な結果を合理的に予測できなかった可能性があるかどうかということです。 予見可能性の核心は、法的責任を評価する上で慣習的に注目すべき要素です。

単純に AI 自体を追跡し、被害を受けたとされるあらゆる被害に対して説明責任を負う、または責任を負う法的当事者として AI を名指しすればよいと考えたくなるかもしれません。 概して、一般的な法的見解は、AI はまだ法人格のレベルに達していないというものです。 したがって、厳密に言えば、AIに支払いを求めることはできず、いわば舞台裏でレバーを操作していた人間を見つける必要があります(AIの法人格に関する私の分析については、 ここのリンク).

この潜在的な法的泥沼のすべてに、短期的またはおそらく長期的な解決策として浮上している考えがあります。 AIによって被害を受けた人々に経済的救済を提供するために、おそらく特別な補償基金を設立する必要があるという考えです。 他の方法で AI に補償してもらうことができず、おそらく責任を負うべき人物を特定できない場合、次善の策は、AI によって被害を受けた人々を支援することを目的とした補償基金を活用することです。

このような基金は、示唆に富む研究論文で述べられているように、一種の保険のようなものです。損害行為の予見不可能な性質、損害(の種類)自体、または手順の過度の費用および/または複雑さのために、不確実または成功の見込みがない」(Olivia Erdelyi と Gabor Erdelyi による記事、「AI 責任パズル」そして、資金ベースの回避策」、 人工知能研究ジャーナル、2021)。

補償基金は、包括的な AI 保証スキーム (AIGS) の一部であり、法的責任に関する既存の法律への軽いタッチの変更が伴います。 既存の法体制にさらに骨の折れる一連の実証的な変更が加えられた場合、軽いタッチはおそらく制定するのがより簡単であり、骨の折れるような法的および社会的不安を必要としないでしょう. 研究者によると、「これは、そのような迅速な解決策の魅力にもかかわらず、 変わらない 既存の責任規則を AI または 保護主義的な動機 いかなる犠牲を払っても責任を確立する目的で厳格責任に訴えることは、XNUMX つの理由から正しい答えではありません。第 XNUMX に、これらのルールはさまざまな状況に合わせて調整されているため、AI には不適切である可能性があることを無視しており、AI の微妙にバランスの取れた目的に違反しています。法的責任制度。 第二に、過度に懲罰的なアプローチを採用することで、AI のイノベーションを阻害します。 第三に、厳格責任への不当な訴えは、予見可能性と過失の問題を是正するのではなく、独断的に一貫性のない方法で回避するだけです」(上記の論文による).

このような AI 補償基金を支持する議論には、次のようなものがあります。

  • AI による損害に対処するための、時間と費用のかかる法的裁判の必要性を軽減します
  • AI を利用できることと、害があった場合に補償を受けることができることを人間に安心させる
  • AI イノベーターが直面する法的な不確実性を軽減することで AI イノベーションを促進
  • 既存の法律を大幅に変更するよりもはるかに迅速に使用できる
  • 信頼性が高く、すぐに利用できる比較的明確な治療法を提供する
  • その他

一方、AI 補償基金のアプローチに反対する人々は、次のように述べています。

  • AI メーカーは過度にオフフックにして、説明責任を回避できるようにしましょう
  • 従順な安全性と適切な制御に欠ける AI を作成するように AI メーカーを勇気づける
  • 資金を利用できるように、人々が AI の害を誤って主張するように促す可能性があります
  • AI を十分に管理するために法を見直す真の必要性を回避し、弱体化させている
  • 行き詰まり、資金を悪用する官僚的な悪夢になる可能性がある
  • その他

明らかなように、この完全に物議を醸す概念の支持者と反対者の両方がいます。

危害をもたらす AI に関する懸念の高まりに対する潜在的なアプローチとして、AI 補償基金をすぐに除外することは難しいでしょう。 また、提案されたソリューションはスラムダンクではありません。

ひとつの見方としては、AI メーカーは AI を考案し普及させる際の努力の一環として、基金に資金を投入する必要があるということです。 これは、AI を世に出すために課せられた手数料や税金のようなものと解釈できます。 しかし、この追加コストは、今日の AI の限界を押し広げようとしているスタートアップによる取り組みを潜在的に抑制しているのでしょうか? また、AI メーカーが料金や税金を確実に支払うようにすることは、どのように処理されるのでしょうか?

多数の疑問が生じ、それらを打ち砕く必要があります。

  • AI補償基金はどの国で最も実現可能でしょうか?
  • 相互接続された AI 補償基金のグローバルな類似性を確立できますか?
  • そのような資金に関連する詳細で実行可能なメカニズムは何ですか?
  • AI 補償基金はどのように資金調達されますか (公的、私的、慈善的)?
  • これは無過失保険の根拠になるのでしょうか、それとも他のアプローチが取られるのでしょうか?

すでに AI 補償基金のアイデアが広まっている領域は、自動運転車や自動運転車などの自律システムで構成されています。 自動運転車と AI 自律システムに関する私の記事については、 ここのリンク.

これが AI ベースの自動運転車でどのように機能するかを示すスケッチです。

自動運転車が自転車に衝突したとします。 自転車のライダーが負傷した。 自転車のライダーは、自動運転車の自動車メーカーを追及して法的救済を求めるかもしれません。 あるいは、AI 運転システムを開発した自動運転技術企業を狙うかもしれません。 自動運転車がフリートとして運用されている場合、もう XNUMX つの合法的な手段は、フリート オペレーターを追跡することです。 AI の法人格がまだ確立されていないため、AI を訴えようとすることは、現時点ではオプションではありません。

これらの当事者に対して法的措置を取るのではなく、別の手段として、適切な AI 補償基金に申請または請求することです。 基金は、請求の審査を含むプロセスを正式化し、請求者に補償金を支払うかどうかを決定します。 基金によって誤って拒否されたか、基金からの補償が不十分であると考えている請求者を支援する上訴プロセスが存在する可能性があります。

理論的には、AI補償基金は、与えられた損害に対する補償を得るためのはるかに迅速な道となるでしょう. 訴訟がいかに骨の折れる作業であるかは容易に想像できるでしょう。

ただし、弁護士は、AI 補償基金により、AI メーカーなどの他の当事者が、公道で自動運転車を放して自転車のライダーと衝突したことに対する明確な罰則を回避できるようになる可能性があることを強調するかもしれません。 これらの企業が「不用意に」行うことを選択した場合、他に何ができるでしょうか? 彼らの頭上に法的な剣がぶら下がっているという迫り来る亡霊がなければ、私たちは日々、危険にさらされている能力に満ちた AI に直面することになります。

引数をぐるぐる回します。

まとめ

AI Ethics は、AI の倫理的および法的影響を常に考慮する必要があることを思い出させてくれます。 この AI 補償基金の場合、AI によって損害を受けた人々を補償するための保険のような資金プールの提案された概念は、魅力的に見えます。 資金はそこで待っているように見え、利用する準備ができており、できるだけ早く補償を提供します.

これが安全制御をますます少なくする AI の作成に向けて水門を開くかどうかのトレードオフは、気が遠くなるような、あまりにも現実的な懸念事項です。 おそらく、すでにある程度進行中の火災に燃料を追加する必要はないでしょう。

どうにかして AI メーカーに適切なエシカル AI を考案させ、同時にこれらの AI 補償基金を設立することはできますか?

はい、できると言う人もいます。 AI 補償基金に合わせて既存の法律を再調整することで、AI によって被害を受けた人々は、正当な補償を求める二重の道を歩む可能性があります。

誰が最初にいますか?

はい、それは (私たち全員と同様に) AI 補償基金の潜在的な使用について熟考し、既存の法律をほんのわずかであっても修正して、優れた AI とAIが悪い。

その重要な考慮事項について混乱はありません。

出典: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai-説明責任/