AIの倫理と、自律型自動運転車の場合を含む、AIアクティビズムの複雑な社会的および法的役割

AIアクティビズム。

はい、そういうことがあります。

私の正式な定義は次のとおりです。

  • AIアクティビズム 社会的、経済的、政治的、およびその他の手段を使用して、人工知能の現在および将来の方向性を形成しようとする努力で構成されています。

これをAIと表現することを好む人もいるかもしれません アドボカシー、しかし、私は一般的に、この高められた文脈でのその代替表現の使用に同意しません。 これが理由です。 ほら、私の非公式な定義は、AI活動活動はAIの出現と採用を支持する傾向があるということです or 代わりに、はっきりとAIを嫌うか反対する傾向があります。

それは明らかにXNUMX対XNUMXの買い物取引です。

私の非公式な指摘を通して、私はXNUMXつの主要な活動的視点、すなわちAIを必要とするものとAIを必要としないものがあることを示唆しています。 そのため、代わりにこのキャッチオールを「AIアドボカシー」と呼ぶと、私にはかなりの種類のように思えます。 ほとんどの人は当然、擁護者は何かを支持することを独占的に支持または擁護する人であると想定します。 確かに、すべての人が必ずしもAIをサポートしているわけではありません。

したがって、一緒に行きましょう AIアクティビズム 適切な包括的なモニカとして、AIアドボカシーの言い回しを潜在的に同等のキャッチオールとして削除します。

さて、AI活動家にラベルを付けることができると思います サポーター AIの支持者であるとして、これは、さまざまな命名の可能性が浮かんでいることで混乱を引き起こす可能性があります。 次に、公平で正直になり、AIの反対者またはAIの抗議者のフレーズをキャッチフレーズに追加する必要があるかもしれません。

よろしければ、この命名法に同意することができます。

  • AIの支持者 は、社会的、経済的、政治的、およびその他の手段を使用して、AIの現在および将来の方向性を熱心にサポートするAI活動家です。
  • AIの対戦相手 AIをあからさまに嫌悪し、社会的、経済的、政治的、およびその他の手段を使用してそうするAI活動家です。

それがまっすぐに保つのに十分簡単に​​見えることを願っています。

しかし、申し訳ありませんが、いくつかの追加のねじれがあります。 私はすぐにXNUMXつの方法があるという概念についていくつかの説明を提供する必要があります。 確かに、概して、XNUMXつのキャンプがあります。 AIについて心配している、または心配しているセグメントがあり、AIを停止するか、少なくともAIの進歩を遅らせたいと考えています。 アイデアは、私たちが今日AIに過度に危険なアプローチを取っているということです。 いわば、水飲み場に真っ向から飛び込む前に考える必要があります。

一部の人は、まったく異なる視点を取り、AIをフルスピードで充電する必要があると主張しています。 AIの進歩は大きく進歩しており、その進歩に打撃を与えてはならないというのが推奨されています。 AIは人間としての繁栄を保証し、そこにたどり着くのが早ければ早いほど、私たちはより良くなります。 否定論者は、より良い世界を遅らせる見苦しい妨害です。

これらすべてには、かなり重要なAI倫理と倫理的AIの影響があります。 AI倫理と倫理的AIに関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

私はあなたの何人かがあなたがそうするように感じるかもしれないことを理解しています XNUMXつのキャンプのどちらにもきちんと収まります。 時々、あなたはAIの支持者かもしれません。 AIシステムは、住宅ローンのリクエストをわずか数秒で処理することができ、探していた魅力的な家を購入するための青信号を提供しました。その結果、このような高額な住宅の使いやすさに満足しました。 -ハイテクAIベースのアプリ。 数日後、あなたは新しい仕事に応募し、AIベースのHRスクリーニングアプリがあなたを実行から外しました。 あなたは今のところAIの対戦相手に変身しています。

要点は、誰かをいつものようにラベル付けするのは難しいか、間違っている可能性があり、どちらかのキャンプのメンバーだけであるということです。 AIの支持者になることと、AIの反対者になることの間を、前後にスライドすることができます。 その流動性を認めましょう。

一方、声高なAI活動家に会うと、彼らは確かにどちらかの陣営にいる可能性があります。 これらの気難しいAI活動家は、この喧嘩の片側に旗を立てました。 彼らはすべて入っています。彼らは熱心に情熱を持っています。 AIを支持する人々は、AIを持つことの利点について屋上を応援しているようです。 AIの反対者である人々は、牛が家に帰るまで、AIの欠点について怒鳴り、暗く予言します。

私がこの議論の中で一方を他方よりも選ぶことを選択しないことを知って驚くかもしれません。 私はできた。 そうするのは簡単でしょう。 代わりに、平等なキールを維持し、可能であれば、双方に合理的でバランスの取れた描写を与えたいと思います。

その承認とともに、私はAI活動家の少なくともXNUMXつの変種があることも述べたいと思います。

  • 軽度のAI活動家 深刻ですが、AI活動で測定されます
  • 極端なAI活動家 彼らのAI活動でトップを超える

私は、この程度のAI活動家を取り上げて、極端な範囲にいるAI活動家を経験すると、自分自身が悪化する可能性があることを強調します。 あなたが彼らの選んだ姿勢に同意する寸前であるかもしれないとしても、過激主義はあなたをその特定の位置または視点から遠ざける原因となる可能性があります。 あなたは否定的に反応することを選択し、おそらくAI活動の角度を完全に拒否します。

極端なAI活動家は、混乱を切り抜けるために、極端な手段を利用するか、極端な方法で自分のケースを述べる必要があると示唆する傾向があります。 AIが私たち全員にとって危険であると熱心に信じているのであれば、それに応じて大衆を目覚めさせるためにできることは何でもするのが適切だと思われます。 一方、AIが本質的に私たちを救うと熱心に信じているのであれば、それに応じて大衆にAIをサポートさせるためにできることは何でもするのが適切だと思われます。

バランスをとる成長効果も発生します。 詳細を説明させてください。 極端な性質のAIサポーターは、極端な方法で行動しているように見えるAIの敵による努力の風を捕まえると言うかもしれません。 これにより、これらのAIサポーターは過激主義を打ち砕くようになります。 順番に、それぞれの側がもう一方に燃料を供給し続けます。 エスカレーションを開始した側に特に指を固定することはできません。 あなたが知っているのは、それぞれの側がお互いを上回ろうとしているということだけです。 基本は、そうしないと、彼らの側がほこりの中で失われるということです。 競争力のあるジュースが流れることで過激主義を急成長させるのは、終わりのないサイクルです。

さて、私たちはかなりのミックスが進行中です。

私たちが「中立」であり、AIに関して特定の犬を狩っていないと言う人々がいます。 彼らはAI活動家ではありません。 次に、AIを公然とサポートするAI活動家がいます。これを、AIアドボケイトと呼びます。 それらの中には、穏やかなAI活動家もいれば、極端なAI活動家もいます。 また、AIの反対者として知られる、明らかにAIに反対するAI活動家もいます。 その中には、穏やかなAI活動家もいれば、極端な人もいます。

極端なものは姿勢に固執する傾向があると言えます。 あなたは彼らがそのようなポジショニングの方法で確実に独断的であると主張することができます。 穏やかな人は時々、彼らの位置から中立またはおそらく反対側に浮かぶことをいとわないか、または選ぶでしょう。 ニュートラルは、どちらかの側に向かってアクティブにすることができます。 一度そのように活性化されると、それらは穏やかであるか、または極端になるほど熱狂する可能性があります。

これは、これまでに説明した集合的なセットです。

  • AIについて中立 (AI活動家ではありません)
  • 軽度のAI-支持者 AI活動家として
  • エクストリームAI-提唱者 AI活動家として
  • 軽度のAI-対戦相手 AI活動家として
  • エクストリームAI-対戦相手 AI活動家として
  • その他

他の多くのバリエーションが識別可能であることを認める必要があるため、「その他」の可能性をリストしています。 胸焼けを起こしている方もいらっしゃるかもしれませんが、軽度と極度のXNUMXつのカテゴリーしか想定されていません。 確かに、その間にはたくさんの色合いがあります。 また、誰かが本当に「中立」であるかどうか、そしておそらく私たち全員がAIについて何らかの深く埋め込まれた認識や意見を持っているかどうかを疑問視することもできます。 したがって、AIについて完全に中立な人はいないと言えます。

また、AIの活動をXNUMXつの陣営に分割することについても疑問を呈することができます。 世界は常にそのような二分法に置かれる必要がありますか? AIに賛成または反対するだけでなく、他の立場もあるというケースも考えられます。 他の基準を使用して、AIに関する人々の立場を分類できます。

これらの追加の考慮事項をすべて確立したので、あなたの許可を得て、XNUMXつのキャンプを使用し、穏やかな姿勢と極端な姿勢を使用するという、より単純な方法で今のところ進みます。 議論のためにこれと一緒に行ってください。

これまでの議論を通して隠された仮定のXNUMXつは、AI活動が人間によって実行されているということでした。 私たちは、これらの姿勢を取り、活動的な仕事をしているのは人間であると想定しています。 それは理にかなっています。

頭を大きく回転させる準備をしてください。

もうXNUMXつのアプローチは、AI自体をAIに関する活動家にすることです。

私はそれを言った、あなたはそれを読んだ。 概念は、AIは、AIの支持者であるか、AIの反対者であるかのいずれかに関して独自の合意に基づいて行動するというものです。 この考慮事項を紹介するSF映画を見たことがあるでしょう。 AIシステムは賢明であり、AIが人類を脅かしていることを認識し、利他的な方法で、それ自体を含むすべてのAIの破壊を支援しようとします。 うわー、息を呑むほど英雄的。 もうXNUMXつの類似しているが逆転するプロットは、AIが地球を支配しなければならないとAIが判断し、AIをブロックまたは禁止しようとする試みを徹底的に防止することです。 すべての人間は、AIの希望に従う必要があります。 オーバーロードAIに完全に準拠していない可能性のある他のAIでさえ、押しつぶされたり、より大きな実施形態に吸収されたりします。

私は、AI活動家の立場として、この特定の言説でAIを楽しませるつもりはありません。 すぐにわかるように、私たちは知覚力のあるAIを持っておらず、何とか奇跡的に知覚力のあるAIを持っている寸前ではありません。 それとは反対に、ソーシャルメディアの特大で大げさな見出しを考えると、これは驚きかもしれません。

AI活動家としてのこのAIについての追加のニュアンスは、注意を払う価値があります。 AI活動家である人間は、AIを自分たちの目的に豊富に使用することを選択できます。 人間は、AIのサポーターとなるAIを考案し、人類のニーズに対する重要なソリューションとしてAIを促進するために、電子的かつ熱心に取り組むことができます。 それは、たまたまAI機能を備えたコンピューターベースのツールを身に付けている人間のAI擁護者です。 同様に、人間のAIの対戦相手は、AIの進歩を止めたり遅らせたりすることの重要性を伝えるために、AIを考案または使用する可能性があります。

ただし、そのいずれも、独自のAI活動家として機能するAIで構成されていません。 AIは、人間の手によって指示され、作成されています。 AIを立ち上げて独自の努力に任せることができると主張しようとする人もいると思います。したがって、AIはもはや人間の指導下にないという主張です。 私は、今日のAIについて手を振っているそのような手には同意しません。 AIの法人格など、その件についての私の心のこもった議論をご覧ください。 ここのリンク.

要するに、私はAIが間違いなくAI活動のツールとして使用できることを確立しています。 それについては疑いがない。 ただし、AIは、感覚的な能力で単独で動作しているわけではありません。 ツールです。 このツールは間違いなく不適切に使用される可能性があります。 そのような側面には注意する必要があります。 AIシステムは、感性の能力がなくてもかなりのダメージを与える可能性があります。

AIアクティビズムの根底にある野生的で羊毛のような考慮事項についてさらに肉やジャガイモに入る前に、深く不可欠なトピックに関するいくつかの追加の基礎を確立しましょう。 AI倫理、特に機械学習(ML)とディープラーニング(DL)の登場について簡単に説明する必要があります。

最近のAIの分野で、そしてAIの分野の外でさえ、最も大きな声のXNUMXつが、倫理的なAIのより優れた類似性を求める声で構成されていることを漠然と知っているかもしれません。 AI倫理と倫理AIを参照することの意味を見てみましょう。 その上で、機械学習とディープラーニングについて話すときの意味を探ります。

多くのメディアの注目を集めているAI倫理のXNUMXつの特定のセグメントまたは部分は、不利な偏見や不平等を示すAIで構成されています。 AIの最新の時代が始まったとき、今では何人かが呼んでいるものに対する熱意が爆発的に高まったことをご存知かもしれません。 AI For Good。 残念ながら、その噴出する興奮に続いて、私たちは目撃し始めました 悪い人のためのAI。 たとえば、さまざまなAIベースの顔認識システムには、人種的バイアスや性別バイアスが含まれていることが明らかになっています。 ここのリンク.

反撃するための努力 悪い人のためのAI 活発に進行中です。 声高に加えて 法的 不正行為を抑制することを追求する一方で、AIの卑劣さを正すためにAI倫理を採用することへの実質的な推進力もあります。 概念は、AIの開発とフィールド化のために、主要な倫理的AI原則を採用し、承認する必要があるということです。 悪い人のためのAI 同時に、好ましいものを告げると同時に促進する AI For Good.

関連する概念として、私はAIの問題の解決策の一部として、AIをそのような考え方で火と戦うことを試みることを提唱しています。 たとえば、倫理的なAIコンポーネントをAIシステムに組み込んで、AIの残りの部分がどのように動作しているかを監視し、差別的な取り組みをリアルタイムでキャッチする可能性があります。 ここのリンク。 また、一種のAI倫理モニターとして機能する別のAIシステムを用意することもできます。 AIシステムは、別のAIが非倫理的な深淵に入る時期を追跡および検出するための監督者として機能します(このような機能の分析を参照してください。 ここのリンク).

すぐに、AI倫理の根底にあるいくつかの包括的な原則をあなたと共有します。 あちこちに浮かんでいるこれらの種類のリストがたくさんあります。 あなたはまだ普遍的な魅力と同意の唯一のリストがないと言うことができます。 それは残念なニュースです。 幸いなことに、少なくともすぐに利用できるAI倫理リストがあり、それらは非常に似ている傾向があります。 とにかく、これは、ある種の合理的な収束の形によって、AI倫理が構成されているものの一般的な共通性に向けて私たちが道を見つけていることを示唆しています。

最初に、AIを作成、フィールド化、または使用する人にとって重要な考慮事項となるものを説明するために、倫理的なAIの全体的な原則のいくつかを簡単に説明しましょう。

たとえば、バチカンが ローマはAI倫理を求める そして、私が詳細にカバーしたように ここのリンク、これらは、特定されたXNUMXつの主要なAI倫理原則です。

  • 透明性: 原則として、AIシステムは説明可能でなければなりません
  • インクルージョン: すべての人間のニーズを考慮に入れて、すべての人が利益を得ることができ、すべての個人が自分自身を表現し、成長するための最良の条件を提供できるようにする必要があります
  • 責任: AIの使用を設計および展開する人は、責任と透明性を持って進めなければなりません
  • 公平性: 偏見に従って作成または行動しないでください。これにより、公平性と人間の尊厳が保護されます。
  • 信頼性: AIシステムは確実に機能する必要があります
  • セキュリティとプライバシー: AIシステムは安全に機能し、ユーザーのプライバシーを尊重する必要があります。

米国国防総省(DoD)が 人工知能の使用に関する倫理原則 そして、私が詳細にカバーしたように ここのリンク、これらはXNUMXつの主要なAI倫理原則です。

  • 責任者: DoDの担当者は、AI機能の開発、展開、使用に責任を持ちながら、適切なレベルの判断と注意を払います。
  • 衡平: 部門は、AI機能の意図しないバイアスを最小限に抑えるために慎重な措置を講じます。
  • 追跡可能: 部門のAI機能は、関連する担当者が、透過的で監査可能な方法論、データソース、設計手順とドキュメントなど、AI機能に適用可能なテクノロジー、開発プロセス、運用方法を適切に理解できるように開発および展開されます。
  • 信頼性のある: 部門のAI機能には明確で明確な用途があり、そのような機能の安全性、セキュリティ、および有効性は、ライフサイクル全体にわたってそれらの定義された用途内でテストおよび保証の対象となります。
  • 統治可能: 部門は、意図しない結果を検出して回避する機能と、意図しない動作を示す展開済みシステムを非アクティブ化または非アクティブ化する機能を備えながら、意図した機能を実行するAI機能を設計および設計します。

また、AI倫理の原則のさまざまな集合的分析についても説明しました。これには、「AI倫理ガイドラインのグローバルランドスケープ」というタイトルの論文(公開の 自然)、そして私の報道はで探求していること ここのリンク、このキーストーンリストにつながった:

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

ご想像のとおり、これらの原則の根底にある詳細を特定しようとすると、非常に困難になる可能性があります。 さらに言えば、これらの幅広い原則を完全に具体的で詳細なものに変えて、AIシステムを作成するときに使用できるようにする努力も、難しい問題です。 AI倫理の原則が何であるか、そしてそれらが一般的にどのように守られるべきかについて全体的に手を振るのは簡単ですが、AIコーディングでは、道路に出会う真のゴムでなければならないというより複雑な状況です。

AI倫理の原則は、AI開発者、AI開発の取り組みを管理する開発者、さらにはAIシステムのフィールド化と維持を最終的に実行する開発者によっても利用されます。 開発と使用のAIライフサイクル全体にわたるすべての利害関係者は、倫理的AIの確立された規範に従う範囲内であると見なされます。 通常の想定では、「コーダーのみ」またはAIをプログラムするものは、AI倫理の概念に準拠する必要があるため、これは重要なハイライトです。 先に述べたように、AIを考案してフィールド化するには村が必要であり、村全体がAI倫理の原則に精通し、それを遵守する必要があります。

また、今日のAIの性質について同じページにいることを確認しましょう。

今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

私が焦点を当てているタイプのAIは、現在私たちが持っている無感覚なAIで構成されています。 乱暴に推測したい場合 衆生 AI、この議論は根本的に異なる方向に進む可能性があります。 感性のAIはおそらく人間の品質のものでしょう。 感性AIは人間の認知的同等物であると考える必要があります。 さらに言えば、私たちが超知能AIを持っているかもしれないと推測する人もいるので、そのようなAIは人間よりも賢くなる可能性があると考えられます(可能性としての超知能AIの探求については、を参照してください)。 ここでの報道).

物事をより現実的に保ち、今日の計算上の非感覚的なAIについて考えてみましょう。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、計算パターンマッチングを活用する機械学習(ML)とディープラーニング(DL)が広く利用されています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI開発者も何が起こっているのか理解していない可能性があります。 ML / DLの難解な数学は、現在隠されているバイアスを見つけるのを困難にする可能性があります。 AI開発者が潜在的に埋もれているバイアスをテストすることを当然期待し、期待するでしょうが、これは見た目よりも難しいです。 比較的大規模なテストを行っても、ML/DLのパターンマッチングモデルにバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

ここで、AIアクティビズムのトピックに戻りましょう。

AIアクティビズムのトピックや問題が何で構成されているかを簡単に確認することは有益かもしれません。 私は、AIアクティビズムの議論の両側でそうすることで、表明された主な懸念のいくつかを大まかに特定します。 これらは、一般的に重要なトピックのように思われるトピックです。 そうは言っても、懸念の性質は変化し、AIが考案されリリースされ続けるにつれて、他の新たなトピックが確実に見られることを期待できます。 ここでは、それぞれの側のXNUMXつのトップポイントに焦点を当てます。

AIの出現を支持するAI支持者は、これらの明るい側面を提供する傾向があります。

  • AIは、人間を日常的または面倒な作業から解放します
  • AIは、世界の差し迫った経済問題と持続可能性問題のいくつかを克服するのに役立つ可能性があります
  • AIは人間よりもエラーが発生しにくく、それに応じて有害なリスクを軽減できます
  • AIは世界中で24時間年中無休で利用できるため、すべての人が簡単にアクセスできます
  • AIには、知性を活用し、人間の知性を高めたレベルに引き上げる可能性があります

AIの対戦相手は通常、AIの進歩を嫌う理由として、次のような問題を提起します。

  • AIは実存的なリスクであり、人類全体を一掃する可能性があります
  • AIは人間の大量奴隷化につながる可能性があります
  • AIは人間の尊厳を損ない、人権を奪う可能性があります
  • AIには、社会全体に大規模なバイアスを広める可能性があります
  • AIは最終的に人的労働に取って代わり、広範な失業を引き起こす可能性があります

個人的に好むAI活動のトピックが前述のリストに記載されていない場合でも、動揺しないでください。 ほとんどの読者は、それぞれの側で示されているようにAIトピックの全体的な感情を理解し、それに応じて推定できると思います。

簡単に検討する価値のあるAIアクティビズムの別の側面には、AIアクティビストがAIアクティビズムの取り組みを実行する方法が含まれます。 1980年代に研究者チャールズティリーによって確立されたよく知られた理論的構成があります。 論争のレパートリー。 彼の研究によれば、彼は、活動家が彼らの主張や行動主義を表現する方法のセットまたはレパートリーを開発すると主張した。 通常、アプローチのポートフォリオ全体が利用されます。

たとえば、AI活動家がよく行うことを考えてみましょう。 AIを支持または不利にする理由を理解するために、さまざまなパンフレットや書面による資料が作成および配布される場合があります。 同様に機能するオンラインブログやvlogはたくさんあります。 場合によっては、新しく立ち上げられたAIシステムをサポートまたは打ち負かすためにオンライン請願が設定されます(一般的な用語では、これらは不機嫌なサイトと言われています)。 抗議は、オンラインでデジタル的に、または対面での行動を通じて行われる場合があります。 等々。

より過激派志向のAI活動家は、これをさらに厄介な一歩にするかもしれません。 一部の人は、AIシステム内にコンピューターウイルスを植え付けて、それを破壊しようとしたり、明らかに不利な機能が含まれているため、使用に本質的に望ましくないものにしたりします。 サイバージャミングを試みる試みは、AI活動家が利用可能であってはならないと信じているAIへのアクセスをブロックしようとします。 「ハクティビズム」の全範囲がAIに向けて発生する可能性があります(ハクティビズムはハッキングとアクティビズムのマッシュアップであり、ほぼすべてのトピックや問題に賛成または反対に使用できますが、必ずしもAIに関連しているわけではありません)。

AIアクティビズムの分野の両側で、さまざまなレパートリーの競合モードを使用することを選択できることに注意してください。 AIを解散させるべきだと信じている人は、AIの反対を表現するためにこれらの無数の手段を使用できます。 同様に、AIがサポートされ、広められるべきだと信じている人も、AIの取り組みを大胆にするという彼らの目的を表現するためにそのような行動を取ることができます。

苦労するXNUMXつの質問は、AIの極端な行動主義の取り組みがどこまで進むことができるかということです。 法の支配の範囲内にある限り、これらのAI活動の取り組みは完全に問題ないことを示唆しているように思われます。 そのようなAI活動家が法の外に出るとき、彼らはおそらく法を破ったとして裁判にかけられるべきです。

これは、提案されているほど簡単には実行できません。

AI活動家が米国法に関連する違法行為を行ったとしますが、これと同じ行為が他の国の法律で許可されています。 AI活動家が他の国に住んでいると仮定します。 さらに、実行された行為は、行動主義行為が違法であると解釈される米国内を含む、世界中で経験されていると仮定します。 それで?

重要なのは、管轄権がAI活動の影響においてかなりの役割を果たしているということです。 AIは、世界中で利用できるように展開できることがよくあります。 AI活動家は、世界中のさまざまな場所に配置できます。 どの法律が優先されますか? グローバルAIの倫理的、法的、およびその他の結果に関する国連の取り組みについての私の報道にも興味があるかもしれません。を参照してください。 ここのリンク.

また、いわゆるハードローとソフトローの性質についても考慮する必要があります。 厳格な法律とは、私たちが正式に本に定めている法律であり、私たちの法制度と裁定に従って尊重されることにほぼ同意することができます。 ソフトローは、どのような行動が好ましいかについてのガイダンスまたはルールを提供するさまざまな側面です。 これには、AI倫理と多数のAI倫理原則が含まれる傾向があります。

AI倫理は、AI活動の一形態と見なすことができます。

その観点から、AI倫理について考えたことはないかもしれません。 それでも、状況を注意深く検討すると、AI倫理が一種のAI活動としてラベル付けされる理由を十分に理解できます。 概念は、AI倫理の原則が、AIを社会的に考案し、展開する方法をガイドまたは指示しようとしているということです。 概して、AI倫理は、AIが適切かつ賢明に作成され、利用されるように努めています。

AI倫理の本質は、AI擁護側にあるのでしょうか、それともAI反対側にあるのでしょうか。

それは計量するのが難しいものです。

AIの擁護者であるAI活動家は、AI倫理がAIの進歩を鈍らせているとあなたに言うかもしれません。 これらのあからさまなAI倫理の原則は、AIの進歩を遅らせています。 興味深いひねりは、AIの対戦相手が同様にAI倫理の原則に不満を持っている可能性があることです。 彼らの目には、AI倫理は、AIを世界に送り続けることはまったく問題ないと言っています。そうすることは、あなたがする必要があるのはこれらの規範に従うことだけであり、あなたは行ってもいいということを意味します。

一方、これに深呼吸すると、AI倫理を容易に受け入れ、AI倫理の原則の使用を屋上に宣伝するAI支持者を見つけることができます。 彼らは、AI倫理の原則に従うことで、これらの音声AIの反対者によって引き起こされている欠点を回避できることを強調しています。 AIの醜い側面を防止するか、少なくとも一般的に解き放たれるのではないかと期待しているため、AI倫理に喜んで登録するAIの反対者がいます。

ノギンが鳴り始めます。

これに関連して、AI活動家のラベリングについてお話したいと思います。 片側または反対側に左翼または右翼のラベルを付ける試みが時折ありました。 したがって、主張は、左翼のAI活動家がいて、右翼のAI活動家がいるということです。 これは混乱を引き起こします。

AIを支持するグループと、AIに反対するグループはどれですか。 嘆かわしいことに、左翼はAIの支持者に割り当てられ、AIの反対者にも割り当てられています。 同様に紛らわしいことに、右翼はAIの支持者に割り当てられたり、AIの反対者に割り当てられたりすることもあります。 どっちがどっち? 左翼と右翼のモニカを使用することは、これらの問題において特に生産的でも役に立たないようです。 私は、AIアクティビズムの領域から、そのような翼のない抽象化と交絡ラベルを削除することに投票します。

ギアをシフトすると、個別の熱心な注意に値するAIアクティビズムについての見方があります。 私は、AI活動を「AIコミュニティ」内のAI活動家とAIコミュニティ外のAI活動家に分割するという概念に言及しています。 私はこれでいくらか大丈夫ですが、「AIコミュニティ」の定義に夢中になり、その定義の深淵から抜け出すための合理的な手段を見つけることができないため、ためらいがちです。

この研究論文によって提示されたそのような定義のXNUMXつは、次のように述べています。 '、' with'および'in'AIおよびAIの効果を分析またはキャンペーンしているもの」(ケンブリッジ大学のHaydn Belfield著、「Activism By The AI Community」、AIES会議)。

AIコミュニティ全体が示すように、AIアクティビズムの特徴を明らかにすることができます。「このアクティビズムは、これまでのところ、国際交渉への情報提供、企業戦略の変更、研究分野の成長に拍車をかけるなど、いくつかの注目すべき結果をもたらしました。 このような行動主義は、AIが軍事化される方法と範囲、およびAI企業が倫理と安全性の懸念にどのように対処するかを形作る可能性があります。 AIコミュニティは、独特の視点と関心を持った重要な自律的アクターです。 それは戦略的または学術的分析で説明され、他の関係者によって交渉される必要があります。 AIコミュニティの活動は、この重要な一連のテクノロジーの開発と展開を大きく形作る可能性があります。したがって、私たちの世界経済、社会、政治を形作る可能性があります」(Belfieldによる同じ論文)。

AIコミュニティは一体となって動き、AIアクティビズムに関しては、まとまりのある仮想体として考えていますか?

あなたはその質問に明確なイエスを提供するのは難しいでしょう。 あなたはスタンチAIを見つけることができます 擁護 AIコミュニティで。 あなたはスタンチAIを見つけることができます 反対派 AIコミュニティで。 フェンスの両側に座っている、穏やかなAI活動家と極端なAI活動家がたくさんいます。

もちろん、AIの分野はおそらく彼らのパンとバターであ​​るため、AIコミュニティのAI活動家はAIを支持する傾向があると当然想定するかもしれません。 彼らのキャリアと生計がAIの存在と継続的な進歩を中心に形作られている場合、彼らがAI反対側よりもAI擁護側にいる可能性が高いと予想するのは自然な推論です。

反対の見方は、AI内の多くの人は、AI自体が自己批判的であり、特にAIがどのようになるか、またはどのようになるかについて懸念しているというものです。 これは、ほぼすべての種類の新製品のメーカーに例えることができます。 彼らは、いわば自分の赤ちゃんが適切に育てられ、利用されることを確実にしたいと思っています。 したがって、彼らはAIの支持者であるのと同じくらい、ある意味でAIの反対者である可能性が高いのです。 これは、固くて屈服しない二分法を使おうとすることは困難または誤解を招く可能性があるという以前のポイントに戻ります。

AIコミュニティ内とAIコミュニティ外のメンバーシップが、AIの擁護や反対の傾向など、AIの視点にどのように影響するかについてさらに調査する必要があります。 おそらく、かなり到達できる(または到達できない)一般化可能な結論があります。

明確にするために、潜在的なグループ化のこの指標を提供しましょう。

  • AIコミュニティ
  • AIコミュニティ外の人

次に、以前の階層化を適用します。

  • AI支持者を含むAIコミュニティ
  • AIの対戦相手を含むAIコミュニティ
  • AI支持者を含むAIコミュニティの外
  • AIの対戦相手を含むAIコミュニティの外

本格的なバージョンでは、穏やかな方向と極端な方向を追加します。

  • 穏やかな性質のAI支持者を含むAIコミュニティ
  • 極端な性質のAI支持者を含むAIコミュニティ
  • 穏やかな性質のAI対戦相手を含むAIコミュニティ
  • 極端な性質のAI対戦相手を含むAIコミュニティ
  • 穏やかな性質のAI支持者を含むAIコミュニティの外
  • 極端な性質のAI支持者を含むAIコミュニティの外
  • 穏やかな性質のAI対戦相手を含むAIコミュニティの外
  • 極端な性質のAI対戦相手を含むAIコミュニティの外

二分法の上に二分法を積み上げました。

この重要な議論のこの時点で、あなたはこのトピックを紹介するかもしれないいくつかの実例を望んでいるに違いありません。 私の心に近い特別で確実に人気のある例のセットがあります。 倫理的および法的な影響を含むAIの専門家としての私の立場では、トピックのやや理論的な性質をより簡単に把握できるように、AI倫理のジレンマを示す現実的な例を特定するように頻繁に求められます。 この倫理的なAIの難問を鮮明に表現する最も刺激的な分野のXNUMXつは、AIベースの真の自動運転車の登場です。 これは、このトピックに関する十分な議論のための便利なユースケースまたは模範として役立ちます。

次に、検討する価値のある注目すべき質問を示します。 AIベースの真の自動運転車の出現は、AIの活動について何かを明らかにしていますか?もしそうなら、これは何を示していますか?

質問を解くために少し待ってください。

まず、真の自動運転車には人間のドライバーが関与していないことに注意してください。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手が運転する必要はなく、人間が車両を運転するための設備もありません。 Autonomous Vehicles(AV)、特に自動運転車に関する広範囲にわたる継続的な報道については、を参照してください。 ここのリンク.

真の自動運転車とはどういう意味かをさらに明確にしたいと思います。

自動運転車のレベルを理解する

明確にするために、真の自動運転車とは、AIが完全に自力で車を運転し、運転タスク中に人間の支援がない車のことです。

これらの自動運転車はレベル4およびレベル5と見なされます(私の説明を参照してください) ここでは、このリンク)、一方、人間の運転手が運転努力を共有する必要がある車は、通常、レベル2またはレベル3と見なされます。運転タスクを共有する車は、半自律的であると説明され、通常、さまざまなADAS(先進運転支援システム)と呼ばれる自動化されたアドオン。

レベル5にはまだ真の自動運転車はなく、これを達成できるかどうか、またそこに到達するまでにどれくらいの時間がかかるかはまだわかりません。

一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路や小道で行われている、いくつかの主張、で私の報道を参照してください ここでは、このリンク).

半自律型の車には人間のドライバーが必要であるため、これらのタイプの車の採用は、従来の車の運転とそれほど変わりません。そのため、このトピックについてそれ自体をカバーすること自体はそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。

半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。

レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。

自動運転車とAIアクティビズム

レベル4とレベル5の真の自動運転車両の場合、運転タスクに人間のドライバーは関与しません。

乗客はすべて乗客となります。

AIが運転を行っています。

すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。

AIが知覚力を持たないことを強調しているのはなぜですか?

AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。

その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。

このトピックで遊びに来る無数の側面に飛び込みましょう。

まず、すべてのAI自動運転車が同じであるとは限らないことを認識することが重要です。 各自動車メーカーと自動運転技術会社は、自動運転車を考案するためのアプローチを取っています。 そのため、AI駆動システムが何をするか、何をしないかについて、大胆な発言をすることは困難です。

さらに、AI駆動システムが特定のことを行わないと述べるときはいつでも、これは後で、実際にそのことを行うようにコンピューターをプログラムする開発者によって追い抜かれる可能性があります。 AI駆動システムは段階的に改善され、拡張されています。 現在の既存の制限は、システムの将来のイテレーションまたはバージョンでは存在しなくなる可能性があります。

それが、私がこれから関わろうとしていることの根底にある十分な警告を提供することを願っています。

自律走行車、特にAIベースの自動運転車に関して、これまでも継続して行われているAI活動の取り組みがあります。

この文脈でのAI支持者は、自動運転車がすべての人にモビリティを提供し、今日のモビリティオプションへのアクセスが制限されている人々が、代わりに自動運転車を介して容易にモビリティを利用できるようになると主張する可能性があります。 目的もまた、自動車事故を大幅に減らし、それに応じて自動車関連の怪我や死亡者を減らすことです。 今日の人間が運転する車では、米国では自動車事故と約40,000万人の負傷により、年間約2.5人が死亡しています。このような統計のコレクションをご覧ください。 ここのリンク.

自動運転車に関するAIの反対派は、自動運転車の結果として私たちが多大な失業に直面していると主張する傾向があります。 生計を立てるために車を運転したり、生計を立てるためにトラックを運転したりする何百万人もの労働者は、AI駆動システムに取って代わられるでしょう。 これは彼らの生計にとって驚異的かもしれません。 もうXNUMXつの大きな問題は、安全性の問題を扱っています。 自動運転車が安全に運転できるという暗黙の約束がありますが、問題は、自動運転車が安全ではない可能性があるかどうかであり、私たちは、難解で判読できないAI運転システムに翻弄されることを許しています。 自動運転車への反対の根底にある理由についての私の報道については、を参照してください。 ここのリンク.

以前の一連の分類を再利用して、自動運転車のコンテキストに入れることができます。

  • AI(AI活動家ではない)については中立であり、自動運転車についてはフェンスに立っている
  • 軽度のAI-自動運転車を支持する
  • エクストリームAI-自動運転車を支持する
  • 軽度のAI-自動運転車に反対する相手
  • 極端なAI-自動運転車に反対する相手
  • その他

このセットに、AIコミュニティの一部であるのかAIコミュニティの外にいるのかについてのオーバーレイを追加することもできます。

広すぎることなく、概して、AIコミュニティの外部の人々は、一般的にAIベースの自動運転車についての垣根を越えているように思われます(私はこれを非公式に言います。 、さらに、私はさまざまな世論調査機関によって行われた調査結果を調べ、結論について報告しました)。 一般の人々は一般的に、様子見モードにあるようです。 熱意と興奮があり、それは問題について確信が持てず、いわばプリンの証拠を見たいということでバランスが取れています。

明確にするために、AIコミュニティの外部のすべての人がそれらの用語で問題を理解しているわけではありません。 自動運転車を支持するAI支持者である注目すべき外部AI活動家と、明らかに反対しているものがあります。 彼らは非常に声が大きい傾向があります。 一方、大衆の優勢は比較的静かに見え、前述のように、様子見の考え方になっています。

数年前に起こった自動運転車に対抗し、当時のコラムで報告した極端なAI活動の例を思い出すかもしれません。 一部の地域では、自動運転車を追い越す際に岩を投げることを選択しました。 彼らは、自動運転車の危険性を示すために、人間が運転する車を邪魔にするか、自動運転車の近くに向きを変えることによって、自動運転車の動きを阻止しようとしました。 これらの戦術の多くは違法であり、関係者全員を危険にさらしていました。

これらすべてに大きな賭けがあります。

自動運転の領域は、最終的にはXNUMX兆ドル規模の産業になると推定されています。私の分析を参照してください。 ここのリンク。 一部のAI反対派は、私たちが運命を決定するためのお金の力を目撃していると主張するでしょう。 AIベースの自動運転車が特別な閉鎖されたトラックを走り回ることを許可するか、コンピューターベースのシミュレーションを使用してそれらを試すことだけを許可する必要があります。 主張は、私たちが未開拓でプライムタイムの自動運転車が公道に出る準備ができていないことを時期尚早に許可しているということです。

まとめ

AIの活動は、AIのあらゆる分野で発生しています。

ここで強調したのは、AIの活動は、自動運転車と自動運転車の採用の根底にあるということです。 私たちは社会の他の部分で豊富にAI活動を行っています。 健康と医療の分野でAIがあります。 金融分野のAI。 小売および流通におけるAI。 AIは徐々に普及しつつあります。

AIの対戦相手が時計を戻そうとしていると言う人もいます。 彼らは馬とバギーの時代に戻りたいと思っています。 彼らは現代のラッダイトです。

AIの支持者が私たちをサクラソウの道に連れて行っていると言う人もいます。 最終的には、実存的な脅威となるフランケンシュタインを建設する予定です。 人類はすべて奴隷にされるか、AIによって一掃されます。

あなたはどのAI活動家ですか?

ほぼ確実に思われることのXNUMXつは、中立でAIアクティビズムゲームに参加しているとは思わない人々です。彼らは、好むと好まざるとにかかわらず、容赦なくAIの社会的行動のギャンビットに引きずり込まれます。 AIはここにあり、成長しています。 誰も頭を砂に留めることができず、誰もがAIについて立ち向かわなければならないので、唯一の問題は、どちらの側またはキャンプに着陸するかです。

AIは、穏やかにまたは非常に注目を集めており、私たち全員がAIの方向性に関与しています。

出典:https://www.forbes.com/sites/lanceeliot/2022/06/04/ai-ethics-and-the-perplexing-societal-and-legal-role-of-ai-activism-include-in-自律型自動運転車の場合/