最新の中国が考案したAIパーティーによって混乱したAI倫理-抑圧的な自律システムの前兆となる可能性のある顔認識証明を読む忠誠心

あなたは忠実ですか?

理論的には、あなたの明白な行為を調べて、忠誠心があなたの行動によって示されているかどうかを確かめることが可能かもしれません。

代わりに、あなたの心を読み、その間にあなたの顔をスキャンして忠誠の商を決定しようとしたとしましょう。 これは不気味に邪魔になります。 あなたはすぐに非難するかもしれません。 未来のディストピア社会を思い描くクレイジーなSF映画のXNUMXつのように聞こえます。

ありがたいことに、あなたはひそかに自分自身にささやきます、今日私たちはそのようなものを持っていません。

おっと、あなたの馬を持ってください。

最近、1年2022月XNUMX日に中国でオンラインで投稿された研究論文が、中国共産党(CCP)に忠実であるかどうかを計算する目的で、人々の脳波と顔の表情の評価を含むと思われる研究を描いたというニュースの見出しが話題になっています。 。 ですから、少なくとも私たちが恐れていたディストピア社会を達成するという点で、未来はますます近づいています。

研究論文は、オンラインで投稿されたリンクからすぐに消えました。

おそらく、インターネットをすばやく一掃した急速な軽蔑は、紙を取り下げるのに十分でした。 あるいは、研究者は、iが点線で、tがすべて交差していることを確認するためのより徹底的な機会が得られたら、再投稿を行うことを目的として、いくつかの文言の変更やその他の無害な修正を行いたいだけかもしれません。 紙がセカンドライフになるかどうかを確認するには、目を開いたままにする必要があります。

私は先に進んで、調査研究について私たちが知っていることを深く掘り下げ、この種のAI関連の仕事が私たち全員にとってどのように重要であるかについて点をつなげてみます。ある特定の国に限定されているように。 私の報道は、この報道価値のある項目に関する他の最近の報告よりも少し広範になりますので、ご容赦ください。

私がさらに強調するのは、主張されている論文から収集できる重要なAI倫理のレッスンがたくさんあるということです。 AI倫理と倫理的AIに関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

これが調査研究についてこれまでに言及されたことです。

どうやら、CCPの認識に関する実験に参加するために何人かの「ボランティア」が採用されたようです。 彼らが自発的なボランティアであったのか、それともやっかいなボランティアであったのか、あるいはガイド付きのボランティアであったのかは不明です。 議論のために、彼らが研究の主題であることに同意したと仮定します。

私はこれを単に卑劣なものではないように持ち出します。 人間の被験者を含む実験が行われるときはいつでも、そのような被験者の募集と研究活動への没頭に関して、一般的に受け入れられている慣行がたくさんあります。 これは部分的に、人々をだまして実験に従事させたり、時にはそれらの参加者に不利な心理的影響や身体的危害をもたらしたりした以前の研究にまでさかのぼります。 科学界は、こうしたタイプの陰湿な研究を大幅に削減しようと試みており、人間関連の研究に含めることを求められている人々には、あらゆる種類の開示と警告を提供することを求めています。

明確にするために、誰もがそのような慎重で良心的なガイドラインを遵守しているわけではありません。

続いて、43人の被験者がいたと伝えられており、彼らは中国共産党のメンバーであると言われていました。 実験の対象の選択は実験にとって非常に重要であり、実験の結果について後で到達しようとする可能性のある結論についても考慮に入れる必要があることに注意してください。

高く評価されているスターウォーズシリーズを人々がどのように認識しているかについて実験したいとします。 すべての人がスターウォーズを大いに嫌う主題を事前に選択し(そのような人々はどのように存在することができますか?)、スターウォーズのビデオクリップを見せた場合、おそらく彼らはまだスターウォーズを嫌っていると言うでしょう。 この疑似科学実験に基づいて、おそらく私は、人々が-一般的に-スターウォーズを本当に嫌っていると主張します。スターウォーズは、私の「慎重に」準備された研究環境で「証明」(ウィンクウィンク)されました。

予想していた被写体を事前に選択して、ルーレット盤をリギングしたことを知らないかもしれませんが、ひそかに望みの結果が得られます。 もちろん、私が意図的にスターウォーズを愛し、熱心な熱心なファンである人々を採用した場合、彼らはそれらのスターウォーズのクリップを見ることに恍惚としていると報告する可能性があります。 繰り返しになりますが、一般的にスターウォーズに人々がどのように反応するかについて到達した結論は、努力のために選択された事前に選択された一連の主題によって和らげられるでしょう。

CCPに焦点を当てた研究では、被験者がキオスクのようなビデオディスプレイの前に座って、CCPの方針と成果に関するさまざまな記事を読んだようです。 これはおそらく、被験者がさらされていると考えられる「実験的治療」です。 実験を計画するとき、通常、参加者に影響を与えるかどうかを確認したい実験的な要素または側面を考え出します。

明らかに調査されている研究の質問は、これらの資料をレビューする行為が、CCPのその後の印象に関して増加、減少、または中立の観点から主題に何らかの影響を与えるかどうかでした。

古典的な帰無仮説では、消費された材料が被験者によって表現されたその後の印象に影響を与えないと述べるような研究を手配することができます。 CCPに関する彼らの見解の前後の比較を行ったら、印象の変化の統計的に有意な検出があったかどうかを統計的に確認しようとします。

前後で統計的に差がない可能性があるため、この特定の研究では、表示された資料(実験的処理)が印象に違いをもたらさなかったと合理的に暫定的に結論付けることができます。 一方、統計的に有効な差がある場合は、後が前よりも大きいかどうかを確認し、材料が印象を高めたことを生意気に示唆することができます(コインの反対側では、後は前よりも少なかったので、これは材料が印象を弱めたり下げたりしたことを意味している可能性があります)。

そのような研究で扱われる必要があるであろう多くのしつこいルーズエンドがあります。

たとえば、私たちは通常、実験的治療を受けたグループと比較できる、いわゆる対照群が必要です。 これが理由です。 キオスクの前に座って資料を読むという行為が、印象が変わった理由の真の根拠だったとしましょう。 消費される材料の性質は、印象への影響にはほとんど重要ではない可能性があります。 ただ座って、面白いことをする猫についての最新の話など、何かを読むだけで、うまくいくかもしれません。 したがって、CCPの方針と達成資料以外の、読むべき他の資料にさらされているいくつかの主題を私たちの対照群に入れるように手配するかもしれません。

この場合にそれが行われたかどうかはわかりません(まだ誰もこのファセットについて言及していないようです)。

私はあなたが今や研究のメディア爆発的な部分に腹を立てていることを理解しています。 その部分に迅速に移動します。

表示された資料を読んだ結果、この実験の被験者が印象に反応したか、または印象を変えたかどうかをどのように検出できますか?

慣習的な手段は彼らに尋ねることです。

あなたは、おそらく彼らにCCPの印象を尋ねる質問票を事前に管理していたでしょう。 次に、展示されている資料の読み方のように、実験的治療にさらされた後、別の質問票を実施することができました。 次に、被験者が前後に与えた回答を比較することができます。 対照群も使用している場合、対照群の回答は前から後へと実質的に変化しないと想定します(猫の戯れについての話を見ると、CCPの印象に影響を与えるべきではないと考えられます)。

被験者に印象を尋ねるこの行為は、必ずしも見た目ほど簡単ではありません。

実験の被験者が、特定の方法で実験的治療に反応することを望んでいるという感覚または全体的なドリフトを取得するとします。 その場合、彼らは実験的投与の後の部分で彼らの反応を故意に誇張するかもしれません。 あなたは確かにこれが起こるのを見てきました。 市場に出回っている新しいソーダの味覚テストをしているとしたら、ソーダメーカーの広告に取り上げられて、XNUMX分間の名声を得られることを期待して、ソーダを大いに楽しんだように振る舞うかもしれません。 。

要点は、単に人々に意見を求めることは、変化を測定する確実な手段ではないということです。 これはXNUMXつのアプローチです。 他のアプローチもしばしば行われる可能性があります。

この特定の研究は、被験者の反応をどのように測定することを選択しましたか?

どうやら、少なくともXNUMXつの方法が使用されました。 XNUMXつの方法は、顔スキャンを実行し、AIベースの顔認識ソフトウェアを使用して被験者の反応を評価することで構成されていました。 他の方法は、伝えられるところによると、何らかの形の脳波スキャンでした。 どのタイプの脳波スキャンデバイスが使用されたか、またどのようなAIベースの脳波分析ソフトウェアが使用されたかについてはまだ報告されていません。

さまざまな報告によると、この研究は実験の性質について次のように述べています。「一方で、党員が思考と政治教育をどのように受け入れたかを判断することができます。」 そして、この研究はおそらくこれについても言及していると思われます。「一方で、それは思考と政治教育のための実際のデータを提供するので、それを改善し、豊かにすることができます。」 この調査研究は、中国の合肥総合国立科学センターの支援の下で実施されたものとされています。

メディアの報道によると、この研究は、顔認識スキャンと脳波スキャンが、CCPについて後印象が高まったことを検出するのに役立つという主張をほのめかしました。

利用しているシステムを直接確認し、研究論文を詳しく調べることができなければ、これらのAIベースのシステムがどのように正確に使用されたかの詳細がわかりません。

被験者は実験的治療に反応するのではなく、実験的設定に反応していた可能性があります。 研究に参加する人は、そもそも不安になるかもしれません。 これは、脳波スキャンや顔のパターン分析を行うためのあらゆる努力を混乱させる可能性があります。 彼らが研究者を喜ばせる意欲を感じ、資料を見た後に前向きな考えをまとめることを選んだ可能性もあり、これは理論的には脳波スキャンと顔面スキャンに反映される可能性があります(おそらく、素晴らしいものがあることを知っておいてください結果を歪め、それらがプラスの影響を受けたことを示すことを望んで、そのような論争の有効性についての熱烈な論争の取引。

Twitterの反応は、AIを利用した脳波スキャンと顔認識を使用するという概念自体が、それ自体がぞっとするようなとんでもない行為であることを実質的に非難しました。 人間のモンスターだけがそのような種類のデバイスを使用するでしょう、私たちはそれらのツイートのいくつかによって言われています。

私はあなたに座って、失礼で衝撃的な驚きかもしれない何かのためにあなた自身を準備するように頼まなければなりません。

研究研究で同じ種類の技術を使用している研究者は世界中にたくさんいます。 脳波スキャン機能が研究活動で人間の被験者に使用されたのは確かにこれが初めてではありません。 また、実験目的で人間の被験者に顔認識が使用されたのはこれが初めてではありませんでした。 大まかなオンライン検索でさえ、これらのタイプのデバイスを使用したあらゆる種類の国や研究所にわたる多くの実験的研究が表示されます。

とはいえ、CCPへの忠誠心を測定するためにそれらを使用することは、あなたがあまり注目することではありません。 そのようなAIが政府の管理に使用される場合、彼らが言うように、赤い線が交差しています。

これは、キット全体とカブドルの明らかに冷静な部分です。

多くの人々が表明した懸念は、政府が目前の体制への忠誠を確認するために脳波スキャン技術と顔認識を使用することを選択した場合、私たちは傷ついたディストピアの世界に自分自身を見つけるだろうということです。 あなたが公道を歩いているとき、街灯柱に取り付けられた装置があなたの忠誠度を秘密裏に決定しようとしている可能性があります。

あなたの顔があなたが十分に忠実であることを示唆していないように見える場合、または脳波スキャンが同じことを示唆している場合、政府の凶悪犯が突然急いであなたを捕まえるかもしれません。 不安。 アビスマル。 許可されてはなりません。

それが、このニュース記事で大騒ぎと怒りの見出しが発生した理由の核心です。

これを想像してみてください。 私たちはおそらく、最新のAIを使用して、忠実であるかどうかを判断するコンピューターベースのシステムを作成して使用する予定です。 周りに座って同じことをするために人を雇おうとすると、多くの人が必要になり、すべての人に目を向けるように配置しようとするロジスティクスの問題が発生します。 AIベースのシステムの場合、必要なのは街灯柱や建物の側面などに電子機器を設置することだけです。 忠誠心のスキャンは、そのように装備されたすべての場所で、24時間7日いつでも行うことができます。 その後、これを大規模なデータベースにフィードできます。

私たちは、巨大なすべてを見通す社会的抑圧的な生態系の単なる歯車である人間になります。 見る目は私たちがしていることを見ているだけではありません。 それはまた、私たちの顔が政府への忠誠について言っていると主張していることを解釈しています。 私たちの心も同様に恐ろしい原因について調べられるべきです。

Yikes!

これからも二次的な懸念がありますが、すでにスケッチしたビッグブラザーの影響と比較すると、おそらくそれほど厄介ではありません。

これらのXNUMXつの差し迫った質問を熟考してください:

  • 脳波スキャンがあなたの忠誠心を証明できると確実に断言できますか?
  • 顔認識スキャンがあなたの忠誠心を証明できると確実に断言できますか?

ちょっと待ってください、あなたはあなたの肺の上部で叫んでいるかもしれません。

信頼性の側面自体についてはあまり気にしないかもしれないことを認識し、認めます。 これを確実に実行できるかどうかは、実行されているという事実ほど重要ではありません。 誰もそのような監視下に置かれるべきではありません。 テクノロジーがこのタスクに適切に機能するかどうかを忘れてください。 私たちは最初からその仕事を引き受けるべきではありません。

いずれにせよ、現時点での答えは断然ノーです。つまり、「脳波スキャン」と顔認識のようなものを実行する既存のAIシステムは、その飛躍を遂げるのに十分な能力がありません。

最近、顔認識メーカーの中には、顔認識システムがどのように使用されているかという点で、いくつかのバックトラックを行っていることをご存知かもしれません。 今後のコラムの投稿では、たとえばMicrosoftが、テクノロジーが実行できる、または使用すべきものをはるかに超えた目的で、Microsoftが提供する顔認識ツールを使用する人々の流れを食い止めようとする最近の取り組みについて説明します。 。 顔認識についてすでに広く知られているAI倫理のクォームについての私の以前の見方に興味があるかもしれません。を参照してください。 ここのリンク。 脳波スキャンの分野についても話し合いました。 ここのリンク.

簡単に言えば、脳波スキャンまたは顔認識スキャンが誰かの忠誠心を描写することを意図できることをまだ示唆する信頼できるまたは賢明な手段はありません。 これらのスキャンを誰かが幸せか悲しいかと確実に関連付けることができるかどうかなど、おそらく基本的な側面でさえ、まだ熱く議論されています。 忠誠心のように不定形で変化しやすいものにアンティを上げようとすることは、あまりにも遠い橋です。

付け加えるかもしれませんが、私たちが最終的にそこにたどり着くと熱心に信じている人もいます。 だから私は、決してそこにたどり着かないと言うのではなく、まだそこにいないことに注意深く注意しようとしました。 決して大きな言葉ではありません。 あなたがこれがそうすることをあちこちに投げるつもりであるかどうかあなたは絶対に確信しなければなりません 決して 実行可能である(「決して」には、今から数十年後、数世紀後、そして数千年または数百万年後が含まれることに注意してください)。

この中国の研究所の調査研究に関するニュース記事に、世界がAIの不適切で危険な使用にどれほど危険な方向に向かっているかを示すものとして反応した人もいます。 AI倫理とは何かを一瞬お話しします。 これは、この特定の研究が、一般的に受け入れられている倫理的AIの原則のほとんどすべてではないにしても、多くに違反しているように見える理由をより鮮明に理解するのに役立ちます。

信じられないかもしれませんが、この特定の研究に関して、私たちはモグラヒルから山を作っているのではないかと示唆する人もいます。

私たちは?

反論は、モグラヒルはすぐに山になることができるということです。 雪だるまが雪の丘を転がるにつれてどんどん大きくなるということわざの概念では、雪玉が進行するのを止める必要があります。 これらのタイプの研究を許容する場合、私たちはその雪だるまがその旅を始めさせています。 そのような研究を声に出して呼びかけることによって、おそらく私たちは雪だるまを未然に防ぐことができます。

XNUMXつ確かなことは、AIの側面に関しては、パンドラの箱を開ける寸前であり、箱の開けを防ぐことができるのか、少なくとも出てきたものに慎重に対処するための何らかの手段を見つけることができるのかという疑問が残ります。ボックスがその悪魔のような内容を解き放ったら。

他に何もないとしても、うまくいけば、これらの種類のメディアストームは、AI関連の悪行を防ぎ、AIによって引き起こされる多数の実存的リスクを回避する方法についての広範な議論を促すでしょう。 私たちは、AI倫理と倫理的AIの考慮事項に対する社会的認識を一段と高める必要があります。

これらの種類のAIシステムの根底にある野生の羊毛の考慮事項についてもう少し肉とジャガイモに入る前に、非常に重要なトピックに関するいくつかの追加の基礎を確立しましょう。 AI倫理、特に機械学習(ML)とディープラーニング(DL)の登場について簡単に説明する必要があります。

最近のAIの分野で、そしてAIの分野の外でさえ、最も大きな声のXNUMXつが、倫理的なAIのより優れた類似性を求める声で構成されていることを漠然と知っているかもしれません。 AI倫理と倫理AIを参照することの意味を見てみましょう。 その上で、機械学習とディープラーニングについて話すときの意味を探ります。

多くのメディアの注目を集めているAI倫理のXNUMXつの特定のセグメントまたは部分は、不利な偏見や不平等を示すAIで構成されています。 AIの最新の時代が始まったとき、今では何人かが呼んでいるものに対する熱意が爆発的に高まったことをご存知かもしれません。 AI For Good。 残念ながら、その噴出する興奮に続いて、私たちは目撃し始めました 悪い人のためのAI。 たとえば、さまざまなAIベースの顔認識システムには、人種的バイアスや性別バイアスが含まれていることが明らかになっています。 ここのリンク.

反撃するための努力 悪い人のためのAI 活発に進行中です。 声高に加えて 法的 不正行為を抑制することを追求する一方で、AIの卑劣さを正すためにAI倫理を採用することへの実質的な推進力もあります。 概念は、AIの開発とフィールド化のために、主要な倫理的AI原則を採用し、承認する必要があるということです。 悪い人のためのAI 同時に、好ましいものを告げると同時に促進する AI For Good.

関連する概念として、私はAIの問題の解決策の一部として、AIをそのような考え方で火と戦うことを試みることを提唱しています。 たとえば、倫理的なAIコンポーネントをAIシステムに組み込んで、AIの残りの部分がどのように動作しているかを監視し、差別的な取り組みをリアルタイムでキャッチする可能性があります。 ここのリンク。 また、一種のAI倫理モニターとして機能する別のAIシステムを用意することもできます。 AIシステムは、別のAIが非倫理的な深淵に入る時期を追跡および検出するための監督者として機能します(このような機能の分析を参照してください。 ここのリンク).

すぐに、AI倫理の根底にあるいくつかの包括的な原則をあなたと共有します。 あちこちに浮かんでいるこれらの種類のリストがたくさんあります。 あなたはまだ普遍的な魅力と同意の唯一のリストがないと言うことができます。 それは残念なニュースです。 幸いなことに、少なくともすぐに利用できるAI倫理リストがあり、それらは非常に似ている傾向があります。 とにかく、これは、ある種の合理的な収束の形によって、AI倫理が構成されているものの一般的な共通性に向けて私たちが道を見つけていることを示唆しています。

最初に、AIを作成、フィールド化、または使用する人にとって重要な考慮事項となるものを説明するために、倫理的なAIの全体的な原則のいくつかを簡単に説明しましょう。

たとえば、バチカンが ローマはAI倫理を求める そして、私が詳細にカバーしたように ここのリンク、これらは、特定されたXNUMXつの主要なAI倫理原則です。

  • 透明性: 原則として、AIシステムは説明可能でなければなりません
  • インクルージョン: すべての人間のニーズを考慮に入れて、すべての人が利益を得ることができ、すべての個人が自分自身を表現し、成長するための最良の条件を提供できるようにする必要があります
  • 責任: AIの使用を設計および展開する人は、責任と透明性を持って進めなければなりません
  • 公平性: 偏見に従って作成または行動しないでください。これにより、公平性と人間の尊厳が保護されます。
  • 信頼性: AIシステムは確実に機能する必要があります
  • セキュリティとプライバシー: AIシステムは安全に機能し、ユーザーのプライバシーを尊重する必要があります。

米国国防総省(DoD)が 人工知能の使用に関する倫理原則 そして、私が詳細にカバーしたように ここのリンク、これらはXNUMXつの主要なAI倫理原則です。

  • 責任者: DoDの担当者は、AI機能の開発、展開、使用に責任を持ちながら、適切なレベルの判断と注意を払います。
  • 衡平: 部門は、AI機能の意図しないバイアスを最小限に抑えるために慎重な措置を講じます。
  • 追跡可能: 部門のAI機能は、関連する担当者が、透過的で監査可能な方法論、データソース、設計手順とドキュメントなど、AI機能に適用可能なテクノロジー、開発プロセス、運用方法を適切に理解できるように開発および展開されます。
  • 信頼性のある: 部門のAI機能には明確で明確な用途があり、そのような機能の安全性、セキュリティ、および有効性は、ライフサイクル全体にわたってそれらの定義された用途内でテストおよび保証の対象となります。
  • 統治可能: 部門は、意図しない結果を検出して回避する機能と、意図しない動作を示す展開済みシステムを非アクティブ化または非アクティブ化する機能を備えながら、意図した機能を実行するAI機能を設計および設計します。

また、AI倫理の原則のさまざまな集合的分析についても説明しました。これには、「AI倫理ガイドラインのグローバルランドスケープ」というタイトルの論文(公開の 自然)、そして私の報道はで探求していること ここのリンク、このキーストーンリストにつながった:

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

ご想像のとおり、これらの原則の根底にある詳細を特定しようとすると、非常に困難になる可能性があります。 さらに言えば、これらの幅広い原則を完全に具体的で詳細なものに変えて、AIシステムを作成するときに使用できるようにする努力も、難しい問題です。 AI倫理の原則が何であるか、そしてそれらが一般的にどのように守られるべきかについて全体的に手を振るのは簡単ですが、AIコーディングでは、道路に出会う真のゴムでなければならないというより複雑な状況です。

AI倫理の原則は、AI開発者、AI開発の取り組みを管理する開発者、さらにはAIシステムのフィールド化と維持を最終的に実行する開発者によっても利用されます。 開発と使用のAIライフサイクル全体にわたるすべての利害関係者は、倫理的AIの確立された規範に従う範囲内であると見なされます。 これは重要なハイライトです。通常の想定では、「コーダーのみ」またはAIをプログラムするものは、AI倫理の概念に準拠する必要があるためです。 先に述べたように、AIを考案してフィールド化するには村が必要であり、村全体がAI倫理の原則に精通し、それを遵守する必要があります。

また、今日のAIの性質について同じページにいることを確認しましょう。

今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

私が焦点を当てているタイプのAIは、現在私たちが持っている無感覚なAIで構成されています。 乱暴に推測したい場合 衆生 AI、この議論は根本的に異なる方向に進む可能性があります。 感性のAIはおそらく人間の品質のものでしょう。 感性AIは人間の認知的同等物であると考える必要があります。 さらに言えば、私たちが超知能AIを持っているかもしれないと推測する人もいるので、そのようなAIは人間よりも賢くなる可能性があると考えられます(可能性としての超知能AIの探求については、を参照してください)。 ここでの報道).

物事をより現実的に保ち、今日の計算上の非感覚的なAIについて考えてみましょう。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、計算パターンマッチングを活用する機械学習(ML)とディープラーニング(DL)が広く利用されています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI開発者も何が起こっているのか理解していない可能性があります。 ML / DLの難解な数学は、現在隠されているバイアスを見つけるのを困難にする可能性があります。 AI開発者が潜在的に埋もれているバイアスをテストすることを当然期待し、期待するでしょうが、これは見た目よりも難しいです。 比較的大規模なテストを行っても、ML/DLのパターンマッチングモデルにバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

不適切またはおそらく完全な不正行為の目的で使用されるAIシステムと、それが最近投稿されたCCPの忠誠に関する研究とどのように関連しているかに焦点を当ててみましょう。

XNUMXつの主要な考慮事項が思い浮かびます。

1)このAIインスタンスは、AIの使用を混乱させる、より大きな継続的なパターンの一部であるため、何が起こっているかについて不吉で目を見張るものがあります

2)このようなAIをある国で採用すれば、他の国にも簡単に広めることができるように、猫をバッグから出すことができます。

進行中のパターンの一部であるAIのこのインスタンスについての最初のポイントから始めます。

この特定の研究によって特に混乱するための特に重要な根拠のXNUMXつは、AIが一部の人に使用されることを目指している方法のより大きなパターンの一部であるということです。 これがこれまでに行われた唯一のそのような研究であるならば、私たちはそれによって穏やかに動揺するかもしれません。 それにもかかわらず、それはおそらく私たちが今見ているような熱意に共鳴しないでしょう。

これはおそらく、手に負えなくなる何かに向かってインチングのドリップドリップです。

ニュースで報道されているように、中国は中国共産党への熱狂的な忠誠を主張したことでよく知られています。 さらに、人々が政府の教義に教化されることを確実にするために、様々な手段が確立されているか、または確立されつつある。 党員の思考状態を測定できるAIアルゴリズムを考案しようとする以前の研究の事例が引用されています(中国が支援するを参照) 勉強時間 これらの取り組みについて言及した2019年)。

2018年にマイクペンス副大統領がハドソン研究所でスピーチを行い、「中国の統治者は、人間の生活のほぼすべての側面を制御することを前提としたオーウェルシステムの実装を目指している」と強調したことを思い出してください(これは、CCPの実装への言及でした社会的信用スコアリングシステム、著名な論争のトピック)。 この最近のCCP調査は、その方向への別のステップであると容易に断言できます。

最後の藁がラクダの背中を壊すのはいつかどうかはわかりません。そのため、これらのXNUMX回限りの研究は、広範なAIベースの監視システムになります。

注目に値するXNUMXつ目のポイントは、この種のAIが中国に限定されるとは考えられないということです。 本質的に、中国でこの種のAIが普及する可能性があることは、それ自体が不安なことですが、他の国でも同様に行われる可能性があります。

このためのAIがプライムタイムの準備ができていると言われると、他の国もそれを実装したいと決めるのにそれほど時間はかからないでしょう。 猫は鞄から出ます。 一部の国では、おそらくこのAIを完全に抑圧的な方法で使用し、そうすることについてのふりをしようとはしません。 他の国では、このタイプのAIを有益な目的で使用しようとしているように見えるかもしれませんが、最終的には、ほぼ避けられない欠点があります。

実際、このタイプのAIがプライムタイムの準備ができていると見なされて初めて採用されることを示唆することは、少し誤称です。 AIがこのように確実に機能できるかどうかは、大きな違いにはならないかもしれません。 AIはカバーストーリーとして使用できます。私の説明を参照してください。 ここのリンク。 AIが実際に何を達成できるかに関係なく、AIは、大衆の監視と測定のスキームを生み出し、当局への絶対的な忠誠を保証するための便利なふりをすることができるという概念です。

この重要な議論のこの時点で、あなたはこのトピックを紹介するかもしれないいくつかの実例を望んでいるに違いありません。 私の心に近い特別で確実に人気のある例のセットがあります。 倫理的および法的な影響を含むAIの専門家としての私の立場では、トピックのやや理論的な性質をより簡単に把握できるように、AI倫理のジレンマを示す現実的な例を特定するように頻繁に求められます。 この倫理的なAIの難問を鮮明に表現する最も刺激的な分野のXNUMXつは、AIベースの真の自動運転車の登場です。 これは、このトピックに関する十分な議論のための便利なユースケースまたは模範として役立ちます。

次に、検討する価値のある注目すべき質問を示します。 AIベースの真の自動運転車の出現は、AIの誤用について何かを明らかにしていますか?もしそうなら、これは何を示していますか?

質問を解くために少し待ってください。

まず、真の自動運転車には人間のドライバーが関与していないことに注意してください。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手が運転する必要はなく、人間が車両を運転するための設備もありません。 Autonomous Vehicles(AV)、特に自動運転車に関する広範囲にわたる継続的な報道については、を参照してください。 ここのリンク.

真の自動運転車とはどういう意味かをさらに明確にしたいと思います。

自動運転車のレベルを理解する

明確にするために、真の自動運転車とは、AIが完全に自力で車を運転し、運転タスク中に人間の支援がない車のことです。

これらの自動運転車はレベル4およびレベル5と見なされます(私の説明を参照してください) ここでは、このリンク)、一方、人間の運転手が運転努力を共有する必要がある車は、通常、レベル2またはレベル3と見なされます。運転タスクを共有する車は、半自律的であると説明され、通常、さまざまなADAS(先進運転支援システム)と呼ばれる自動化されたアドオン。

レベル5にはまだ真の自動運転車はなく、これを達成できるかどうか、またそこに到達するまでにどれくらいの時間がかかるかはまだわかりません。

一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路や小道で行われている、いくつかの主張、で私の報道を参照してください ここでは、このリンク).

半自律型の車には人間のドライバーが必要であるため、これらのタイプの車の採用は、従来の車の運転とそれほど変わりません。そのため、このトピックについてそれ自体をカバーすること自体はそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。

半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。

レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。

自動運転車とAIの誤用

レベル4とレベル5の真の自動運転車両の場合、運転タスクに人間のドライバーは関与しません。

乗客はすべて乗客となります。

AIが運転を行っています。

すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。

AIが知覚力を持たないことを強調しているのはなぜですか?

AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。

その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。

このトピックで遊びに来る無数の側面に飛び込みましょう。

まず、すべてのAI自動運転車が同じであるとは限らないことを認識することが重要です。 各自動車メーカーと自動運転技術会社は、自動運転車を考案するためのアプローチを取っています。 そのため、AI駆動システムが何をするか、何をしないかについて、大胆な発言をすることは困難です。

さらに、AI駆動システムが特定のことを行わないと述べるときはいつでも、これは後で、実際にそのことを行うようにコンピューターをプログラムする開発者によって追い抜かれる可能性があります。 AI駆動システムは段階的に改善され、拡張されています。 現在の既存の制限は、システムの将来のイテレーションまたはバージョンでは存在しなくなる可能性があります。

それが、私がこれから関わろうとしていることの根底にある十分な警告を提供することを願っています。

大ざっぱな方法や不正な方法でAIを活用する可能性のある自動運転車のシナリオをスケッチしてみましょう。

AIベースの自動運転車の影響について説明します。これにより、身震いしたり、邪魔されたりする可能性があります。 これらは、現在ほとんど誰も議論していない側面です。 私は繰り返し問題を提起しましたが、自動運転車が普及するまで、社会が今日のように見えるものを単なる抽象的な概念として心配したり動揺したりすることについてはあまり注目されないことを公然と認めています。

準備は完璧?

基礎を築くことから始めましょう。

AIベースの自動運転車にはビデオカメラが搭載されます。 これにより、自動運転車は運転シーンのビデオ画像を受信できます。 次に、自動運転車のコンピューターに搭載されているAI駆動システムは、収集されたビデオをコンピューターで調べ、道路がどこにあるか、近くの車がどこにあるか、歩行者がどこにいるかなどを把握することを目的としています。 自動運転車101の基本を暗唱していることに気づきました。

自動運転車の外側にビデオカメラが取り付けられており、それらは外側を向いています。 さらに、概して、自動運転車の内部に向けて、車内または車内にビデオカメラが設置されることが期待できます。 なんでそうなの? 自動運転車内で起こっていることをビデオキャプチャするための重要な用途がたくさんあるので、簡単です。

自動運転車に乗るときは、ドライバーである必要はありません。 自動運転車に乗っている間、あなたはどうしますか?

あなたができることのXNUMXつは、自宅やオフィスで他の人と交流することです。 仕事に行く途中で、自動運転車でXNUMX時間の運転時間が必要になります。ズームのようなオンラインのリアルタイムのインタラクティブセッションを行うことで、すでにXNUMX日の仕事を始めることができます。 カメラが自動運転車の内側を向いているため、彼らはあなたを見ることができます。 自動運転車内のLEDスクリーンでそれらを見ることができます。 一日の終わりに、家に帰る途中で、子供たちが夜の宿題を始めているときに、子供たちと同様のインタラクティブなビデオディスカッションを行うことができます。

別の用途は、クラスを受講することです。 運転に時間を浪費する必要がなくなったので、自動運転車内でのデッドヘッドタイムをスキルの向上や認定や学位の取得に変えることができます。 内側を向いているカメラを介して、インストラクターはあなたを見て、トレーニングがどのように進んでいるかについて話し合うことができます。

さらに別の用途は、自動運転車のライダーが暴走しないようにすることです。 人間が運転する車では、ドライバーは大人の存在であり、通常、ライダーが落書きでインテリアをマークするなどの奇妙なことをするのを防ぎます。 AIベースの自動運転車はどうなりますか? ライダーが車内を引き裂くことを選ぶのではないかと心配する人もいます。 これを防ぐために、自動運転車を配備しているライドシェアリング会社は、自動運転車内で人々が何をしているかを監視するために、内向きのビデオカメラを使用する可能性があります。

運転シーンを識別するために外側を向くカメラに加えて、自動運転車の内部を指すビデオカメラがあることをあなたは確信していると思います。

これで、私がロービングアイと呼んでいるものの準備ができました。私の分析を参照してください。 ここのリンク.

まず、外側を向いているビデオカメラについて考えてみましょう。

自動運転車がどこに行っても、カメラが見るものは何でもビデオ録画できる可能性があります。 自宅から誰かにリフトを与えて食料品店に連れて行く自動運転車が近所を横断し、ビデオは道路だけでなく視界内で起こっている他のすべてを記録します。 彼らの前庭で遊んでいる父と息子。 フロントポーチに座っている家族。 どんどん進んでいきます。

現在、公道には自動運転車がほとんどないため、日常の活動のビデオをキャプチャするこの機能は比較的少なく、重要ではありません。

私たちが最終的に安全で普及した自動運転車を実現することを想像してみてください。 それらの数千。 多分数百万。 現在、米国には約250億24万台の人間が運転する車があります。 最終的には、これらはほとんど自動運転車に取って代わられるか、単に使用されなくなり、主に道路に自動運転車が設置されるようになります。 これらの自動運転車はAIによって運転されているため、基本的に7時間XNUMX日ローミングできます。 休憩やバスルームの休憩はありません。

ビデオデータは、OTA(Over-The-Air)電子ネットワーク接続を介してこれらの自動運転車からアップロードできます。 自動運転車はOTAを使用して、最新のAIソフトウェアアップデートを車両にダウンロードします。 さらに、OTAを使用して、自動運転車からクラウドベースのデータベースにデータをアップロードできます。

とにかく、このアップロードされたデータをつなぎ合わせるのは実行可能です。 ステッチを使用すると、自動運転車を多用している場所で、いつでも外に出た人の毎日の出入りをつなぎ合わせることができる可能性があります。

それは私が警告してきたロービングアイです。

これで、CCPの調査をこの種の機能に適合させることができます。 政府がこの収集されたすべてのビデオデータにアクセスできるとします。 次に、AIベースの顔認識アルゴリズムを使用して、毎日の生活の中で、どこに、何時に、どこに行ったかを確認できます。 さらに、彼らはおそらく彼らの「忠誠」AIベースのアナライザーを使用して、あなたがあなたの顔に忠実な表情をしているように見えるかどうかを確認することができます。

火曜日の午後、地元の食堂でサンドイッチを買うために歩いていたと想像してみてください。 自動運転車が車道を通りかかっていました。 たくさんのビデオのすべてが、あなたが食事をするためにXNUMX分間歩いているときにあなたを捕らえました。 データは一元化されたデータベースにアップロードされました。 政府は、データに対してAI顔認識プログラムを実行しました。

AIは、あなたの顔が不誠実であると「判断」されたことがわかります。

たぶん、この不誠実な表情は一瞬だけ起こったのでしょう。 あなたは通りの角で光が変わるのを待っていたので、通りを渡って食堂に行くことができました。 その瞬間、あなたは少し嫌悪感を覚え、ウォークのシンボルを長時間待たなければなりませんでした。 これはおそらくあなたの政府への不忠の兆候でしたか?

はい、AIは計算で計算されました、あなたはその瞬間に豊富に不誠実でした。 あなたがその夜家に帰ると、政府はあなたの逮捕を手配しました。

しかし、待ってください、もっとあります。

ビデオカメラも内側を向いていることを忘れないでください。

その同じ火曜日に、自動運転車で作業するために乗っていたとき、ビデオカメラがあなたのあらゆる瞬間を捉えていました。 これは一元化されたデータベースにアップロードされました。 不誠実さについて顔のパターンを分析するAIソフトウェアは、オフィスへの旅行中にあなたの顔の表情の計算パターン検査を行いました。

ある時点で、あなたは何気なく自動運転車の外を見ていて、建設作業員が道路を部分的に塞いでいて、AI駆動システムが自動運転車の速度を落としていることに気づきました。 ほんの一瞬、あなたの顔は、この建設作業員が交通を遅くしていることに嘲笑の表情を見せました。

AIの顔のパターン分析は、これを政府への不忠の兆候と解釈しました。

XNUMX日にXNUMX回のストライキ。

あなたは薄い氷の上に住んでいます。

もちろん、AIがあなたの忠誠心を判断できることについて「正しい」か「間違っている」かは、この文脈ではほとんど重要ではありません。 要点は、この目的のためにAIが導入されているということです。 AIを展開している人間は、AIがこのタイプのタスクに適しているかどうかを気にする場合と気にしない場合があります。 AIは、技術的な妥当性自体に関係なく、政府による管理を可能にします。

それは顔のスキャンをカバーしています。

最終的に、脳波スキャンを実行するためのあらゆる種類のポータブルで費用効果の高いデバイスがあれば、これは自動運転車にも含めることができます。 ビデオカメラは今や確実なものです。 この口径の脳波スキャン装置を持っている可能性は現在カードにはありませんが、明らかに将来的に想定されているものです。

政府が自動運転車の制御をつかむことによって大衆を乗っ取ろうとする方法についての私の調査については、を参照してください。 ここのリンク。 悪意のある攻撃者が同じことを行おうとする可能性もあります。を参照してください。 ここのリンク。 これらは、これらの関連トピックをカバーするための恐ろしい戦術を意味するものではなく、代わりに、サイバーセキュリティの重要性や、ユビキタス自動運転車の登場に関して社会が取ろうとしなければならないその他の予防措置についての注意事項です。他の自動運転車。

まとめ

AIが忠誠心を確認するために使用されていることについて、もうXNUMXつの側面について簡単に説明したいと思います。これは、多少別のトピックだと思いますが、一部のツイートやソーシャルメディアはこれに取り組んでいます。

先ほど、私たちには感性のAIがなく、いつそうなるかわからないことを述べました。 感性のあるAIができるという考えを楽しませましょう。 その場合、次のシナリオを検討してください。

私たちは、非感覚的なAIを介して、顔のスキャンや脳波のスキャンなどを使用して、人々が政府に忠実であるかどうかを計算で確認するAIを広く使用することを選択します。 これは完全に権威のある人間によって運営され、使用されています。 それは私がほんの少し前に説明した不穏なシナリオです。

アンティを上げる時間。

AIは感性になります。 私たちは今、この知覚力のあるAIに、おそらく人間の忠誠心と不忠誠心を特定する広範な機能を提供している可能性があります。 人間を一掃することを検討している悪意のあるAIは、この機能を使用して、実際に人間が不誠実になり、完全に破壊されるべきであると判断する可能性があります。 あるいは、顔や考えを介して不忠の兆候を示している人間だけが、特に廃棄されるべきかもしれません。

別の角度は、AIが人間を奴隷にすることを望んでいるということです。 ここのリンク.

私たちはAIにその探求を実行するための完璧な贈り物を与えたようです。 私たちが導入した既存のインフラストラクチャにより、AIは私たち人間を注意深く監視することができます。 不誠実な顔の兆候を表明したり、AIの大君主について考えたりしたように見える人は、AIの怒りを感じるでしょう。

これはアンティの上昇だと言ったことに気づきました。 それが事実かどうかはわかりません。 AIの大君主が私たちの運命を直接決定するのか、人間の大君主が忠誠を決定するためにAIシステムを使用するのか、どちらの提案も特に望ましいとは思えません。

今のところ最後のコメント。

ローマの学者で哲学者のマーカス・トゥリウス・シセロは、忠誠心ほど高貴で尊敬すべきものはないと述べました。 私たちはAIを先取りさせ、恐ろしい手段で「忠誠心」を確保するためのツールになるかもしれません。

AI倫理をTo-Doリストの一番上に置く価値のある注意深い理由。

ソース:https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- attestation-that-might-foreshadow-oppressive-autonomous-systems /