AI の倫理と AI における自己認識の探求

あなたは自己認識していますか?

私はあなたがそうであると信じているに違いない。

問題は、おそらく、私たちの中で特に自己認識している人はほとんどいないということです. 自己認識には範囲または程度があり、私たちの自己認識の鋭さは人それぞれであると言われています。 あなたは、自分は完全に自己認識しており、わずかにしか認識していないと考えているかもしれません。 あなたは薄く自己認識し、それがあなたの精神状態であることに気付くかもしれません.

一方、スペクトルの最上部では、自分は完全に自己認識しており、率直に言って、彼らと同じくらい自己認識していると思うかもしれません。 よかったね。

そういえば、極度の自己認識を持つことは何の役に立つのでしょうか?

に発表された研究によると ハーバード·ビジネス·レビュー (HBR) ターシャ・ユーリッヒ著によると、あなたはより良い決定を下すことができ、より自信を持って決定を下すことができ、コミュニケーション能力が向上し、全体的により効果的であると報告されていますボーナス要因は、耳障りな自己認識を持つ人は、だます、盗む、または嘘をつく傾向が少ないと言われていることです. その意味で、悪党または詐欺師であることを回避することのXNUMXつがありますより良い人間になり、仲間の人類を装飾するよう努めています。

自己認識に関するこのすべての話は、いくぶん明白な疑問を引き起こします。つまり、自己認識という言葉は実際には何を意味するのでしょうか。 コンプレックスについてのさまざまな定義や解釈を簡単に見つけることができます。 自己認識とは、自分自身を監視し、自分が何をしようとしているのかを知ることであると示唆することで、問題を単純化する人もいます。 あなたは自分の考えや行動をよく知っています。

おそらく、自己認識していない場合、人は自分が何をしているのか、なぜそうしているのかを理解できず、他の人が自分について何を言わなければならないかを認識していない. そんな人たちに会ったことがあると思います。

一部の人々は、自分自身が何をしているのかを知らずにこの地球を歩いているように見えます。 繊細な壊れ物ブティックで頭を下げて充電している雄牛のようだと主張できると思います. 私たちは通常、雄牛は自分が何をしているのかを知らず、他の人が無知な生き物を物理的に操縦したり囲いに入れたりしない限り、他の人の視点に気付かないと信じがちです.

自己認識は幾分再帰的であると言われています。

この再帰を説明するために例をスケッチしましょう。 あなたはスマートフォンでかなり夢中になっている猫のビデオを見ている最中です (誰もがこれを行うようです)。 一部の人々は、それらの最愛の猫の素晴らしい心温まるおふざけ以外に、他に明らかな考えを持っていないでしょう. 一方、少しの自覚がある人なら誰でも、自分が猫の動画を見ていることを認識しています。 彼らはまた、猫のビデオを見ていることに周りの人が気づいていることに気づいているかもしれません。

あなたは自己認識していても、特定の主要な活動に没頭している可能性があることに注意してください. この例の主なアクティビティは、猫のビデオを見ることです。 副次的かつ同時に、実際に猫のビデオを見ているという考えを抱くことができます。 完全に面白い猫のビデオを見ていると、他の人があなたを観察しているという考えを抱くこともできます. 猫の動画を見ている (またはちょうど見ている) ことを個別に考えるために、猫の動画の視聴をやめるなど、必ずしも XNUMX つのアクティビティを停止する必要はありません。 これらの考えは、互いに並行して発生するように見えます。

時々、私たちの自己認識は、最初の精神活動から私たちを追い出すか、少なくとも中断するかもしれません. おそらく、猫のビデオを見ていることを考えている間、ビデオ自体だけに集中するために過度にストレッチしているため、あなたの心は部分的にゾーンアウトしています. 次に、ビデオを巻き戻して、見た部分を再訪することを選択しますが、精神的に気を散らして完全に理解することはできませんでした。 自己認識は、あなたの主要な精神活動を妨げました。

さて、これで再帰的な側面が発生する準備が整いました。

準備は完璧?

あなたは猫のビデオを見ています。 あなたの自己認識は、あなたが猫のビデオを見ていること、そしてあなたがビデオを見ているときに他の人があなたを見ていることを知らせています. それが現状です。

次に、さらに精神的な飛躍を遂げます。 あなたは自分の自己認識について考え始めます。 あなたは自分の自己認識に取り組んでいることを自己認識しています。 猫のビデオを見ることについて考えすぎているのでしょうか。絶望的に自問してください。 これは自己認識の別の層です。 他の自己認識の上にある自己認識のランキング。

ずっと亀であるという古いことわざがあります。 自己認識現象については、次のようになります。

  • 自分自身に気づいていない
  • 自分自身を自覚する
  • 自分自身の自己認識の自己認識
  • 自分が自分であることを自覚している 自分自身を自覚していることを自覚している
  • Ad Infinitum (つまり、など)

自己認識には XNUMX つの主要なカテゴリがあるように思われることを、私が以前に微妙に指摘していたことに気付いたかもしれません。 ある特定の理論では、私たちは自分の内部状態に焦点を当てた一種の内部自己認識を持っており、私たちを見ている周囲の人々の私たちについての認識を測定するのに役立つ外部自己認識も持っていると仮定しています.

HBR の記事によると、理論化された XNUMX 種類の自己認識を簡単に説明すると、次のようになります。 内部の自己認識、自分の価値観、情熱、願望、環境への適合、反応(思考、感情、行動、強み、弱みを含む)、および他者への影響をどの程度明確に見ているかを表しています。 一方、もう XNUMX つは次のとおりです。 外部の自己認識、上記の同じ要因に関して、他の人が私たちをどのように見ているかを理解することを意味します。 私たちの調査によると、他の人が自分をどのように見ているかを知っている人は、共感を示したり、他の人の視点を取り入れたりすることに長けています。」

便利な XNUMX 行 XNUMX 列の行列または四角形は、内的および外的自己認識の範囲が高いものから低いものまであると主張することで導き出すことができ、XNUMX つのカテゴリを互いに対比させることができます。 HBR の調査によると、あなたは次の XNUMX つの自己認識の原型のうちの XNUMX つであると言われています。

  • イントロスペクター: 低い外的自己認識 + 高い内的自己認識
  • シーカー:外的自己認識の低さ + 内的自己認識の低さ
  • Pleaser: 高い外的自己認識 + 低い内的自己認識
  • Aware: 高い外部の自己認識 + 高い内部の自己認識

頂点は、外部の自己認識の最上位にあり、同様に内部の自己認識の最上位にある「認識」原型です。 明確にするために、必ずしも永続的な方法でこの自慢の姿勢を達成するわけではありません. 内面と外面の両方の自己認識領域の間で、高い状態と低い状態の間を行き来することができます。 それは、時間帯、自分がいる状況、およびその他の多くの顕著な要因に依存する可能性があります.

自己認識に関するいくつかの基本的な要素を親しみを込めてカバーしたので、これを倫理的行動のトピックに結び付けることができます.

自己認識についての通常の主張は、自己認識している場合、より高い立場にいる可能性が高いというものです。 これは、すでに述べたように、盗み、不正行為、嘘などの倫理に反する行動を起こしにくいことを意味します。 この傾向の理論的根拠は、積極的な自己認識によって、自分の行動が不快または非倫理的であることに気付くようになるためです。 泥だらけの非倫理的な水域に入るときに自分を捕まえるだけでなく、いわば乾いた土地(倫理的な領域の神聖さ)に戻ってしまう傾向があります.

自己認識は、自制心を働かせるのに役立ちます。

対照的なのは、自己認識がほとんどまたはまったくない場合であると考えられます。これは、非倫理的な行動に傾倒していることにおそらく気づいていないことを示唆しています。 そのような無知な人は、自分のパフォーマンスが悪いことに気付いていない可能性があると主張することができます. 壊れ物屋の雄牛と同じように、何かがはっきりと注意を引くまで、自分自身を制御することはまずありません。

ところで、誰もがこれを受け入れるわけではありません。 自己認識は、倫理的であることと同じくらい非倫理的であることにも簡単に適用できると主張する人もいます. たとえば、悪行者は完全に自覚しており、自分が不正行為を行っていることを楽しんでいる場合があります。 彼らの自己認識は、ますます大規模な悪質な不正行為へと彼らを駆り立てます。

これには、目に直接触れるよりも多くの曇りがあります。 ある人が自己認識はしているが、与えられた社会や文化の倫理的慣習に気づいていないと仮定します。 そのように、彼らは自己認識しているという事実にもかかわらず、倫理的なガイダンスを持っていません. または、あなたが望むなら、おそらくその人は倫理的教訓について知っていて、それらが適用されるとは信じていません. 彼らは、自分自身がユニークであり、従来の倫理的思考の範囲外であると考えています。

ぐるぐる回ります。

自己認識は、倫理志向の両刃の剣と解釈される可能性があり、熱心に強調する人もいます。

さしあたっては、私たちを倫理的な行動へと導き、大きく促すことによる自己認識からなる幸せそうな顔のバージョンで行きましょう。 他のすべてが等しい場合、自己認識が高ければ高いほど、倫理的に傾倒するという大胆な仮定を立てます. そう願うことは確かに喜ばしいことであり、インスピレーションを与えてくれるように思えます。

ギアをシフトして、人工知能 (AI) を写真に取り入れましょう。

私たちは、進行中のすべてのもつれ合いを、一般に AI の倫理としても知られる、急成長している倫理的 AI の領域と結び付けるという、この議論の岐路に立っています。 AI 倫理に関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

倫理的 AI の概念は、倫理と倫理的行動の分野を AI の出現に結びつけることを伴います。 不公平やさまざまな偏見に満ちた AI について警鐘を鳴らしている見出しを見たことがあるでしょう。 たとえば、AI ベースの顔認識システムが人種差別や性差別を示すことがあるという懸念があります。これは通常、基礎となる機械学習 (ML) およびディープ ラーニング (DL) 施設がどのように訓練および配備されたかの結果として (私の分析を参照してください)で ここでは、このリンク).

試して停止するか、少なくともスペルメルラッシュに向かって緩和する 悪い人のためのAI、不注意に、または時には意図的に悪さをするように形作られているAIシステムで構成されているため、最近、AIの開発と使用に倫理規定を適用することが緊急に求められています. 真剣な目標は、AI 開発者に加えて、AI を構築または運用する企業、および AI アプリケーションに依存している企業に倫理的なガイダンスを提供することです。 エシカル AI の原則が作成され、採用されている例として、次の記事を参照してください。 ここのリンク.

次の XNUMX つの非常に重要な質問について考える時間を設けてください。

  • AI 開発者に AI の倫理原則を受け入れてもらい、それらのガイドラインを実際に使用できるようにすることはできますか?
  • AIを作成またはフィールド化する企業に同様のことをさせることはできますか?
  • AI を使用する人々に、同様に倫理的 AI の側面を認識させることはできますか?

私は恥ずかしがらずにこれを言います、それは難しい注文です。

AI を作ることのスリルは、AI の倫理に対する関心の暗示を圧倒する可能性があります。 スリルだけでなく、金儲けもその方程式に不可欠です。 AI 領域の一部の人々が、AI システムを公開したら、倫理的 AI の「もの」に対処するようになると言う傾向があることを知って驚くかもしれません。 これは、すぐに失敗し、うまくいくまで頻繁に失敗するようにするという典型的な技術者のマントラです (うまくいけば、うまくいくまで)。

もちろん、倫理的に疑わしい AI を大衆に押し付けている連中は馬を馬小屋から追い出している。 彼らの宣言された拡張された考えは、 悪い人のためのAI 馬はすでに気まぐれに駆け回っているので、それは有害なことに遅刻です. 害を及ぼす可能性があります。 また、AI の使用中に何も修正または調整されない可能性が高くなります。 よくある言い訳は、その時点で AI をいじると、すでに非倫理的なアルゴリズムによる意思決定 (ADM) が完全に狂ってしまうという点でさらに悪化する可能性があるというものです。

AI を構築し、AI を配備し、AI を使用している人々の心の中で、倫理的 AI を明るく照らし導く光として持つことの有用性と活力を得るために何ができるでしょうか?

回答: 自己認識。

はい、人々が AI をどのように使用または操作するかについてより自覚的であれば、倫理的 AI を標準にしたいと考える傾向が高まる可能性があるという考えです。 AI開発者やAIシステムに関連する企業についても同じことが言えます。 彼らが自分のしていることをもっと自覚していれば、おそらく AI の倫理をも​​っと受け入れていたでしょう。

すでに規定されている論理の一部は、自己認識を持つことは、倫理的により良い人になり、倫理的にお粗末な人になることを回避する傾向をもたらすということです. この前提を維持できれば、自己認識に傾倒している AI 開発者は、倫理的な行動に傾倒し、したがって倫理的に健全な AI を作成する傾向にあることを意味します。

その橋はあなたにとって遠すぎますか?

間接性が少し大きいと言う人もいます。 自己認識であること、倫理的に高潔であること、AI に倫理的教訓を適用することの間にある法外な連鎖は、飲み込むのが難しいかもしれません。 反論は、試してみても損はないというものです。

懐疑論者は、AI 開発者は自己認識しており、おそらくより倫理的な考えを持っているかもしれないと言うでしょうが、彼らは必ずしもその精神的野営地を倫理的 AI の慣習に適用する方向に飛躍するとは限りません。 その不安への答えは、倫理的な AI の問題を公表し普及させることができれば、そうでなければ一見希薄に見えるつながりがより明白になり、期待され、AI の作成に関して物事を行う標準的な方法になる可能性があるということです。

私は今、この物語にひねりを加えるつもりです。 ひねると頭がぐるぐるするかもしれません。 しっかりと着席し、これから説明する内容に備えてください。

エシカル AI を AI 自体に直接組み込むべきだと指摘する人もいます。

あなたはその発言に困惑するかもしれません。 開梱しましょう。

プログラマーは AI システムを作成し、AI が偏見や不公平を具現化するのを防ごうとするプログラミングの自己認識を持ってそれを行う場合があります。 開発者は、プログラミングをただ荒らすのではなく、自分たちのアプローチが AI に不利な要素を必要としない結果をもたらすかどうかを自分の肩越しに見守っています。

素晴らしい、十分に自己認識しているように見え、倫理的な行動を受け入れるよう努め、AI システムを作成する際に倫理的な教訓を含める光を見た AI 開発者がいます。

エシカル AI で勝利を収めましょう!

すべて順調ですが、後で発生する可能性のあるものがあります. AI は配備され、日常的に使用されます。 AI の一部には、オンザフライで「学習」できるコンポーネントが含まれていました。 これは、AI が新しいデータや元のプログラミングの他の側面に基づいて自分自身を調整できることを意味します。 余談ですが、これは AI が感覚的であることを意味するものではありません。 知覚力のある AI はありません。 私たちがそうしていると言っているそれらのばかげた見出しを無視してください。 私たちが知的 AI を持つかどうかは誰にもわかりませんし、それがいつ起こるかを十分に予測することもできません。

話に戻ると、AI は進行中に自身を改善するために意図的に考案されました。 かなり便利な概念。 プログラマーが継続的に改善しなければならないのではなく、AI プログラムが単独で改善できるようにします (おっと、それは自分で仕事をしているのでしょうか?)。

AIが少しずつ自分自身を調整している間に、さまざまな卑劣な不公平と偏見が、AIシステム自体の変更行為によってAIシステムに忍び込んでいることがわかります。 プログラマーはもともとこれらの怪しげな側面を除外していましたが、AI がその場で調整するため、現在は策定中です。 残念ながら、これは非常に微妙な舞台裏で起こる可能性があるため、賢明な人はいません。 初期の徹底的なテストの後、以前は AI にゴーサインを出していたかもしれない人々は、今では AI が腐った道を進んでいることに盲目的に気づいていません。 悪い人のためのAI.

この望ましくない出現を防止するか、少なくともキャッチする XNUMX つの手段は、AI に一種の倫理的 AI ダブルチェッカーを組み込むことです。 AI 内のコンポーネントは、AI の動作を監視し、非倫理的な ADM が発生し始めているかどうかを検出するようにプログラムされています。 その場合、コンポーネントは AI 開発者にアラートを送信するか、AI システムを実行している企業に送信する可能性があります。

このコンポーネントのより高度なバージョンは、AI の修復を試みる可能性があります。 これは調整の調整であり、非倫理的な側面を適切な倫理的パラメーターに戻します。 このタイプのプログラミングが難しいことは容易に想像できます。 それが道に迷う可能性があり、おそらく非倫理的なものから非常に非倫理的なものへと変わる可能性があります。 また、誤検知がコンポーネントの動作をトリガーし、それに応じて物事を台無しにする可能性もあります。

とにかく、このダブルチェッカーがどのように機能するかについて行き詰まることなく、私たちはそれについて大胆な宣言をするつもりです. ある限定された方法で、AI は自己認識的であると言われていると示唆することができます。

うーん、それらは多くの人にとって言葉との戦いです。

今日の AI は自己認識型ではないというのが、ほとんどの人に広く信じられていることです。 ピリオド、ピリオド。 感覚的 AI に到達するまでは、それが発生するかどうか、いつ発生するかはわかりませんが、自己認識型の AI は存在しません。 少なくとも人間本位の自己認識という意味では。 それが起こる可能性があることを示唆することさえしないでください。

AIを擬人化することに注意する必要があることには、確かに同意します。 その懸念については、後で詳しく説明します。

一方、議論のために「自己認識」という段階的な表現をおおざっぱな方法で使用することをいとわないのであれば、AI が自己の全体的な概念に従っていると言われる理由がすぐにわかると思います。意識。 AI の残りの部分を監視している AI の一部があり、残りの AI が何をしているかを監視しています。 残りの AI が船外に出始めると、監視部分がこれを検出しようとします。 さらに、AI 監視部分またはダブルチェッカーは、残りの AI を適切なレーンに戻す可能性があります。

それは、猫の動画を見て、自分がそうしていたことを自覚する行為に少し似ていると思いませんか?

おなじみのリングがあります。

これをさらに拡張できます。 AI ダブルチェッカー コンポーネントは、残りの AI の動作を観察するようにプログラムされているだけでなく、AI を使用している AI の動作も記録します。 AIを活用したときのユーザーの調子は? 一部のユーザーが、AI が自分たちを差別しているように見えることに憤慨しているとします。 AI ダブルチェッカーは、これを拾い上げて、残りの AI が道に迷うという別の危険信号として使用できる可能性があります。

これにより、内部の自己認識と外部の自己認識の分類が表示されます。

AI ダブルチェッカーは、残りの AI が厄介な海に向かったかどうかを把握するために、内部および外部をスキャンしています。 検出により、フラグが立てられるか、自己修正が実行されます。

気が遠くなるような拡張機能をもう XNUMX つ追加してみましょう。 コア AI ダブルチェッカーをダブルチェックするための別の AI ダブルチェッカーを作成します。 なんでそうなの? AI のダブルチェッカーがうまく機能していないか、機能していないように見えるとします。 ダブルチェッカーのAIダブルチェッカーは、この誤動作を検出し、それに応じて必要なアクションを実行しようとします。 自己認識の再帰的な性質へようこそ、と誇らしげに宣言する人もいるかもしれません。これは、計算 AI システムで示されています。

すでにこの件について議論の余地があるという方のために、今のところ最後のコメントは、AI システムを「自己認識」させると、倫理的な行動に引き寄せられる可能性があるということです。 彼らは感覚に基づいてこれを行っていますか? 決定的に、いいえ。 彼らはこれを計算ベースで行っていますか? はい、しかし、それは人間の行動と同じ口径ではないことを明確にする必要があります.

自己認識の概念が計算スキームに適合するように誤って歪められていることに不快感を覚える場合、これに対するあなたの不安はよく知られています. この概念を活用する進行中の AI の取り組みを停止する必要があるかどうかは、別の未解決の問題です。 少なくとも、AI が行う可能性があることのより良い結果に向けて私たちを導いているように見えると説得力を持って主張することができます. これが行われるとき、私たちは目を大きく見開いている必要があります。

これがどのように機能するかを確認する必要があると思います。 XNUMX年、XNUMX年、XNUMX年後にこれに戻って、物議を醸している問題についてあなたの考えが変わったかどうかを確認してください。

私はこれがトピックのやや頭の痛い検討であったことを理解しており、あなたはいくつかの日常の例を切望しているかもしれません。 私の心に近い特別で確実に人気のある例のセットがあります。 倫理的および法的な影響を含むAIの専門家としての私の立場では、トピックのやや理論的な性質をより簡単に把握できるように、AI倫理のジレンマを示す現実的な例を特定するように頻繁に求められます。 この倫理的なAIの難問を鮮明に表現する最も刺激的な分野のXNUMXつは、AIベースの真の自動運転車の登場です。 これは、このトピックに関する十分な議論のための便利なユースケースまたは模範として役立ちます。

次に、検討する価値のある注目すべき質問を示します。 AI ベースの真の自動運転車の出現は、AI が「自己認識」のようなものを持っていることについて何かを明らかにしますか?もしそうなら、これは何を示していますか?

質問を解くために少し待ってください。

まず、真の自動運転車には人間のドライバーが関与していないことに注意してください。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手が運転する必要はなく、人間が車両を運転するための設備もありません。 Autonomous Vehicles(AV)、特に自動運転車に関する広範囲にわたる継続的な報道については、を参照してください。 ここのリンク.

真の自動運転車とはどういう意味かをさらに明確にしたいと思います。

自動運転車のレベルを理解する

明確にするために、真の自動運転車とは、AIが完全に自力で車を運転する車であり、運転タスク中に人間の支援はありません。

これらの自動運転車はレベル4およびレベル5と見なされます(私の説明を参照してください) ここでは、このリンク)、一方、人間の運転手が運転努力を共有する必要がある車は、通常、レベル2またはレベル3と見なされます。運転タスクを共有する車は、半自律的であると説明され、通常、さまざまなADAS(先進運転支援システム)と呼ばれる自動化されたアドオン。

レベル5の真の自動運転車はまだありません。これが達成できるかどうか、また到達するまでにかかる時間もわかりません。

一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路や小道で行われている、いくつかの主張、で私の報道を参照してください ここでは、このリンク).

半自律型の車には人間のドライバーが必要であるため、これらのタイプの車の採用は、従来の車の運転とそれほど変わりません。そのため、このトピックについてそれ自体をカバーすること自体はそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。

半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。

レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。

いわゆる自己認識を持つ自動運転車とAI

レベル4とレベル5の真の自動運転車両の場合、運転タスクに人間のドライバーは関与しません。

乗客はすべて乗客となります。

AIが運転を行っています。

すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。

AIが知覚力を持たないことを強調しているのはなぜですか?

AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。

その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。

このトピックで遊びに来る無数の側面に飛び込みましょう。

まず、すべてのAI自動運転車が同じであるとは限らないことを認識することが重要です。 各自動車メーカーと自動運転技術会社は、自動運転車を考案するためのアプローチを取っています。 そのため、AI駆動システムが何をするか、何をしないかについて、大胆な発言をすることは困難です。

さらに、AI駆動システムが特定のことを行わないと述べるときはいつでも、これは後で、実際にそのことを行うようにコンピューターをプログラムする開発者によって追い抜かれる可能性があります。 AI駆動システムは段階的に改善され、拡張されています。 現在の既存の制限は、システムの将来のイテレーションまたはバージョンでは存在しなくなる可能性があります。

私はそれが私がこれから関係しようとしていることの根底にある十分な警告の連祷を提供すると信じています。

私たちは今、自動運転車と、AI が一種の自己認識を持っているという眉をひそめる概念を伴う倫理的な AI の問題について深く掘り下げる準備ができています。

簡単な例を使用してみましょう。 AIベースの自動運転車が近所の通りで進行中であり、安全に運転しているようです。 最初は、自動運転車を垣間見るたびに特別な注意を払っていました。 自動運転車は、ビデオカメラ、レーダーユニット、LIDARデバイスなどを含む電子センサーのラックで際立っていました。 自動運転車がコミュニティを何週間もクルージングした後、あなたは今ではほとんど気づいていません。 あなたに関する限り、それはすでに混雑している公道にある別の車にすぎません。

自動運転車を見るのに慣れることは不可能または信じられないことだと思わないように、自動運転車の試乗の範囲内にあるロケールが、スプルースアップされた車を見ることに徐々に慣れてきた方法について頻繁に書いていますが、で私の分析を参照してください ここでは、このリンク。 地元の人々の多くは、やがて口を大きく開ける猛烈なゴーキングから、曲がりくねった自動運転車を目撃するために退屈の広大なあくびを放つようになりました。

おそらく、自動運転車に気付く可能性がある現在の主な理由は、苛立ちと苛立ちの要因によるものです。 著書のAI運転システムは、車がすべての制限速度と道路の規則に準拠していることを確認します。 従来の人間が運転する車に乗っている多忙な人間のドライバーにとって、厳密に法を遵守するAIベースの自動運転車の後ろに立ち往生しているとイライラすることがあります。

それは、私たち全員が正しくまたは間違って慣れなければならないかもしれないことです。

私たちの話に戻りましょう。 ある日、あなたの町や市の自動運転車が一時停止の標識に近づいても減速していないように見えるとします。 どうやら、AI 運転システムにより、自動運転車が一時停止標識を通り過ぎてしまうようです。 歩行者や自転車に乗っている人が近くにいて、自動運転車が適切に停止しないことに不意を突かれた場合を想像してみてください。 恥ずかしい。 危険!

そして、違法。

ここで、AI 駆動システムの AI コンポーネントが自己認識ダブルチェッカーのスタイルとして機能することを考えてみましょう。

AI 運転システムの内部で何が起こっているのかを詳しく見ていきましょう。 自動運転車に取り付けられたビデオ カメラが、一時停止の標識と思われるものを検出したことが判明しました。 一時停止の標識で最初にトレーニングされた機械学習とディープ ラーニングのシステムは、主に完全な一時停止の標識のパターンに基づいて考案され、一般的に自由でした。 ビデオ画像をコンピューターで調べたところ、一時停止標識がその特定の場所に存在する可能性は低いと割り当てられました (さらに複雑なことに、さらに説明すると、これは、以前に作成されたデジタル マップには表示されなかった、新しく掲示された一時停止標識でした)。 AI運転システムが頼りでした)。

全体として、AI 運転システムは、一時停止標識が存在しないか、おそらく一時停止標識に似た別の種類の兆候であるかのように、先に進むことを計算で決定しました (これは発生する可能性があり、ある程度の頻度で発生します)。

しかし、ありがたいことに、AI 自己認識ダブルチェッカーは AI 運転システムの活動を監視していました。 AI の残りの部分によるデータと評価をコンピューターで確認すると、このコンポーネントは、通常の進行過程をオーバーライドすることを選択し、代わりに AI 駆動システムに適切な停止を命じました。

けが人はなく、違法行為も発生していません。

AI 自己認識ダブルチェッカーは、AI 運転システムが法律 (この場合は一時停止の標識) を遵守していることを確認しようとして、組み込みの法的エージェントのように機能したと言えます。 もちろん、安全性も重要でした。

この例は、考え出された AI 自己認識ダブルチェッカーがどのように機能するかを示していることを願っています。

次に、AI 自己認識ダブルチェックが倫理 AI 指向の組み込み機能をどのように提供するかを示す、より顕著な倫理的 AI の例を簡単に検討できます。

まず、背景として、AI ベースの自動運転車の出現について表明されている懸念の XNUMX つは、AI ベースの自動運転車が不注意で差別的な方法で使用される可能性があることです。 方法は次のとおりです。 これらの自動運転車が収益の可能性を最大化するように設定されているとします。これは、ライドシェアリングを利用できる自動運転車を運用している企業にとっては当然のことです。 フリートの所有者は、収益性の高い運用を望んでいます。

ある町や都市では、ローミングする自動運転車が徐々にコミュニティの一部にサービスを提供し始め、他の地域にはサービスを提供しなくなる可能性があります。 彼らは金儲けの目標のためにそうします。貧しい地域は、その地域の裕福な地域ほど収益を生み出さない可能性があるからです。 これは、ある地域に奉仕し、他の地域に奉仕しないという明確な願望ではありません。 代わりに、自動運転車の AI に関しては、地理的に支払いの高い地域に集中することで、より多くのお金を稼ぐことができることをコンピューターで「把握」することが有機的に発生します。 この社会的倫理的懸念については、次のような私のコラムで説明しました。 ここのリンク.

AI 運転システムに AI 自己認識ダブルチェッカーを追加したとします。 しばらくすると、AI コンポーネントは、自動運転車がローミングしている場所のパターンをコンピューターで認識します。 特に、一部の地域ではそうではありません。 いくつかの倫理的 AI 教訓でコード化されたことに基づいて、AI 自己認識ダブルチェッカーは、他の方法では無視されていた町の他の場所に自動運転車を誘導し始めます。

これは、AI の自己認識の概念を示しており、倫理的 AI 要素と組み合わせてそれを実現しています。

もう XNUMX つのそのような例は、この倫理的 AI の考慮事項が非常に冷静で深刻な生死に関わる影響である可能性があるという洞察を提供するかもしれません。

最近の自動車事故に関するニュース報道を考えてみましょう。 伝えられるところによると、人間の運転手が交通量の多い交差点に近づいていて、直進するための青信号を持っていました。 別のドライバーは、赤信号を通り過ぎて、交差点に入ってはいけませんでした。 青信号の運転手は、最後の瞬間、この他の車が彼の車に激しく衝突しようとしていることに気づきました。

この危険にさらされたドライバーによると、彼は注意して、他の車にぶつかるか、侵入者を避けようとするかのどちらかであると計算しました。 方向転換の問題は、近くに危険にさらされる歩行者がいるということでした。

あなたならどちらを選びますか?

攻撃を受ける準備をして、ダメージがあなたを傷つけたり殺したりしないことを願っています. 一方、極端に方向を変えることはできますが、重大な危険を冒し、近くの歩行者を傷つけたり殺したりする可能性があります。 これは、道徳的判断を含む困難な問題であり、倫理的 (および法的) な意味合いが完全に染み込んでいます。

この種のジレンマをカバーする汎用的な倫理的難題があり、トロリー問題と呼ばれることで有名または悪名高いものがあります。 ここでは、このリンク. それは、1900 年代初頭にさかのぼる、倫理的に刺激的な思考実験であることが判明しました。 そのため、このトピックはかなり前から存在しており、最近では AI と自動運転車の出現に一般的に関連付けられるようになりました。

人間のドライバーを、自動運転車に組み込まれた AI 運転システムに置き換えます。

次に、AI 自動運転車が交差点に進入しようとしているときに、自動運転車のセンサーが、人間が運転する車が赤信号を通り抜けて無人車を狙って危険にさらされていることを突然検出したと想像してください。 自動運転車の車内に何人かの乗客がいるとします。

AIに何をしてもらいたいですか?

AI 運転システムが先に進んで車に突っ込むことを選択するか (車内の乗客に危害を加えたり、死亡させたりする可能性があります)、それとも AI 運転システムにチャンスを利用させて、自動運転車を迂回させますか?近くの歩行者に危害を加えたり、死亡させたりするおそれがあります。

自動運転車の AI メーカーの多くは、これらの倫理的な AI の猛烈な苦境に真正面から取り組んでいます。 概して、現在プログラムされている AI は単純に前進し、相手の車に激しく衝突するだけです。 AI は、他の回避策を探すようにプログラムされていませんでした。

私は、AI 自動運転車メーカーのこの「見ざる、聞かざる」というスタンスが、最終的には彼らを苦しめるだろうと繰り返し予測してきました (私の分析は次のとおりです)。 ここのリンク)。 AIが何をするようにプログラムされているかを突き止めようとする、そのような自動車事故に関連する訴訟が予想されます. AI を開発して配備した会社または AI 開発者またはフリート オペレーターは、AI が行ったことまたはしなかったことに対して過失または責任を負いましたか? また、この種のケースが発生すると、倫理的な AI 意識が世間に広まることが予想されます。

この倫理的な AI のジレンマには、倫理志向の自慢の AI 自己認識ダブルチェッカーが含まれます。 おそらく、この特別な AI コンポーネントは、この種の状況に関与する可能性があります。 この部分は、AI 運転システムの残りの部分と自動運転車の状態を監視しています。 このような悲惨な状況が発生すると、AI コンポーネントはトロリー問題のソルバーとして機能し、AI 駆動システムが何をすべきかを提案します。

コーディングするのは簡単なことではありません。

まとめ

このトピックに関する最後の考えを共有します。

あなたはそれが興味をそそられると思うでしょう。

について知っていますか ミラーテスト?

それは自己認識の研究で非常によく知られています。 この問題の他の名前は、鏡の自己認識テスト、赤点テスト、ルージュ テ​​スト、および関連する言い回しです。 この手法とアプローチは、動物の自己認識を評価するために 1970 年代初頭に最初に作成されました。 テストに合格したと報告されている動物には、類人猿、特定の種類のゾウ、イルカ、カササギなどが含まれます。 テストされ、テストに合格しなかったと報告されている動物には、ジャイアントパンダ、アシカなどが含まれます.

ここでは取引があります。

動物が鏡で自分自身を見たとき、その動物は映っている像が自分自身であることに気づきますか、それとも動物は自分が別の動物だと思いますか?

おそらく、動物は自分の種を視覚的に認識し、同種の他の動物を見たことがあるため、鏡に映っている動物はいとこか、おそらく好戦的な競争相手であると考える可能性があります(特に動物が鏡の画像でうなり声を上げている場合)ターンは彼らにうなり声を上げているようです)。 家の猫や愛するペットの犬が、初めて家の鏡で自分自身を見たときに同じことをするのを見たことがあるかもしれません。

いずれにせよ、野生動物は自分自身を見たことがないと仮定します。 おそらく、動物は静かな水たまりの中で、または光沢のある岩層を介して自分自身を垣間見たので、これは必ずしも真実ではありません. しかし、それらは可能性が低いと考えられています。

さて、動物が実際に鏡に映っている動物であることを理解できるかどうかをどうにかして評価したいと思います。 その一見単純な行為を熟考してください。 人間は幼い頃から自分の存在を認識し、自分の存在を鏡で見ることで証明します。 彼らは自分自身を自覚するようになります。 理論的には、鏡で自分自身を見るまで、自分が自分であることに気付かないかもしれません。

おそらく、動物は同じように認知的に自己認識できるようになることはできません. 動物が鏡で自分自身を見て、自分が他の動物であると永久に信じている可能性があります. 何度自分を見ても自分とは別の動物だと思ってしまう。

これのトリックの部分が遊びに来ます。 動物に印をつけます。 このマークは、動物が鏡で自分自身を見たときにのみ見える必要があります。 動物がひねったり向きを変えたりして、自分自身のマークを(直接)見ることができる場合、それは実験を台無しにします. さらに、動物はマークを感じたり、嗅いだり、その他の方法で検出したりすることはできません。 繰り返しますが、そんなことをしたら実験が台無しになってしまいます。 動物は、何かがそこにあるという手がかりになるので、私たちがマークを付けたことを知ることはできません.

マークが発見できる唯一の理由が鏡で自分自身を見ることによるものになるように、物事を絞り込みたいと考えています。

ああ、テストの準備ができました。 動物は鏡の前に置かれるか、鏡に向かってさまよいます。 動物が後でマークに触れたり掘ったりしようとした場合、これが起こる唯一の方法は、動物がマークが自分自身にあることに気付いた場合であると合理的に結論付けます. このテストに合格できた動物種はほとんどありません。

試験に対する批判も多い。 人間のテスターが近くにいる場合、彼らはマークを見つめて何かを与える可能性があり、動物がそれをブラッシングしたり感じたりする可能性があります. もう XNUMX つの可能性は、動物が別の動物が鏡に映っていると信じていることですが、それは同じタイプであり、その動物は自分にも別の動物のマークと同じようなマークがあるかどうか疑問に思っています。

どんどん進みます。

あなたはこれを知って喜んでいると確信しており、そうでなければそのようなマークがない動物に点や奇妙なマークがある理由を理解するでしょう. 最近、ミラーテストの実験を終えたのかもしれません。 寛大な参加者であった動物を無事に祝福します。

AI ベースの自動運転車とどのような関係があるのでしょうか?

あなたはこの部分を気に入るはずです。

長い高速道路を自動運転車が走っています。 AI 運転システムは、センサーを使用して他の交通を検出します。 これは XNUMX 車線の高速道路で、一方の車線は北向き、もう一方の車線は南向きです。 場合によっては、車とトラックが互いに追い越そうとすることがあります。これは、反対側の車線に入ってから、適切な走行車線に戻ることによって行われます。

あなたはこれを見てきました、あなたは間違いなくこれをしました。

この次の側面があなたにも起こっているに違いありません。 自動運転車の先には、大型のタンカー トラックが XNUMX 台あります。 光沢のある金属製です。 磨き上げられ、口笛のようにきれいに。 このようなトラックの後ろに入ると、タンカーの後部から自分の車の鏡像を見ることができます。 これを見たことがあるなら、それがどれほど魅力的であるかを知っているでしょう。 タンカー トラックの後部の鏡のような反射に、あなたとあなたの車が映っています。

クレイジーなツイストのために座ってください。

タンクローリーの後ろに自動運転車が迫ってきます。 カメラは、鏡のような反射で示されている車の画像を検出します。 おっ、AI が判断して、それは車ですか? それは自動運転車に来ていますか? 自動運転車がタンクローリーにどんどん近づいていくと、車がどんどん近づいているように見えます。

ええ、AI はこれが危険な状況であると計算で計算する可能性があり、AI はこのクレイジーな不正車両から回避行動を取る必要があります。 ほら、AIは鏡で自分自身を認識していませんでした。 ミラーテストに失敗しました。

何をすべきか? おそらく、AI の自己認識ダブルチェッカーが問題に飛び込んで、AI 駆動システムの残りの部分に、それは無害な反射にすぎないことを安心させます。 危険は回避されました。 世界は救われる。 AIミラーテスト無事合格!

冗談めかして結論を​​出すと、AI は平均的なクマよりも賢く、または少なくとも自己認識している場合があると示唆することさえできます (ただし、クマの功績として、彼らは通常、ミラー テストで良好な成績を収めており、多くの場合、水たまりに反射するのに慣れている)。

訂正、おそらく AI はジャイアント パンダやアシカよりも自己認識している可能性がありますが、動物にそのことを伝えないでください。AI システムを壊したり叩いたりしたくなるかもしれません。 私たちはそれを望んでいませんよね?

ソース: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/