AI の倫理は、AI 自体が感覚を持っているかどうかを AI に尋ねることに意味があるかどうかを尋ねます

あなたに知覚力があるかどうか尋ねたら、あなたは間違いなく知覚力があると断言するでしょう。

その仮定を再確認させてください。

あなたは本当に知覚力がありますか?

おそらく、質問自体は少しばかげているようです。 おそらく、私たちの日常生活の中で、仲間の人間が感覚を持っていることを認めてくれることを期待するでしょう. これは、他の人が注意を払っていないか、意識ワゴンから落ちて、いわば精神的に昼食に出かけた可能性があることを示唆する、ユーモアを誘発するクエリである可能性があります。

岩の山の上に静かに目立たないように座っている岩に近づき、尋ねるのに十分近づくと、先に進んでその岩に感覚があるかどうかを尋ねると想像してください。 岩が単なる岩であると仮定すると、以前の、しかし一見奇妙に見えた質問は、かなり石のような沈黙 (しゃれ!) で答えられることが十分に予想されます。 沈黙は、岩に感覚がないことを示すと即座に解釈されます。

誰かまたは何かが感覚を持っているかどうかを判断しようとすることについて、なぜこれらのさまざまなニュアンスを持ち出すのですか?

それは、人工知能 (AI) と社会全体において非常に大きな問題であり、非常に大きな関心を集め、最近注目を集めているメディアの見出しを大いに騒がせた記念碑的なトピックとなっているからです。 AI は感覚を持っているという難問全体を中心に展開する重要な AI 倫理問題があります。 AI の倫理と倫理的 AI に関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

AI が最終的に角を曲がり、広く尊敬されている感覚のカテゴリーに入っているという主張に目を光らせて監視するための、大雑把な理由がたくさんあります。 私たちは、AI が感覚を獲得する寸前にあると主張するニュース報道に絶えず悩まされています。 これに加えて、知覚力のある AI が地球規模の大変動をもたらす実存的リスクを表しているという、とてつもない扱いがあります。

スパイダー センスが近くで AI センティエンスのうずきを検出した場合に備えて、スパイダー センスを準備しておくことは理にかなっています。

AI と感覚の謎の中に、特定の AI システムが感覚を持つようになったと大胆に宣言した Google エンジニアの最近の状況が浮かび上がります。 LaMDA (Language Model for Dialogue Applications の略) として知られる AI システムは、この人間が AI に知覚力があると推測する程度まで、エンジニアとの書面による対話をある程度実行することができました。 この巨大な主張について他に耳にしたことがあるかもしれませんが、AI は知性を持っていないことを知っておいてください。

今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

ここで私が焦点を当てているのは、これらの AI と感覚に関する多くの議論の根底にある、やや単純ではあるが非常に本質的な側面です。

準備は完璧?

私たちは、AIに本当に感覚があるかどうかを尋ねることで、AIに感覚があるかどうかを適切に確認できるという基本的な仮定を取っているようです。

人間にも同じ質問をすることができるという以前の言及に戻ると、人間は実際に知覚力があると報告する可能性が高いことがわかっています. 私たちはまた、わずかな岩がそのように尋ねられても知覚力があると報告しないことを知っています (まあ、岩は沈黙を保ち、声を上げません。黙秘する修正権)。

したがって、AI システムに知覚力があるかどうかを尋ねた場合、その応答に「はい」が返された場合、示された承認は、AI が知覚力を持っている必要があるという取引を封印するように見えます。 岩はまったく返事をしません。 人間はイエスと答えます。 したがって、AI システムが「はい」と答えた場合、AI は岩ではなく、したがって人間の感覚の質を備えたものでなければならないという鉄壁の結論に達する必要があります。

その論理は、XNUMX 足す XNUMX が XNUMX に等しいことを疑いの余地なく証明した、高校で受けた数学の授業に似ていると考えるかもしれません。 論理は非の打ち所がなく、反駁できないようです。

申し訳ありませんが、ロジックは悪臭を放っています。

AI コミュニティ内のインサイダーの間では、AI システムに感覚を持っているかどうかに応答するように単純に要求するという考えは、非常に皮肉なミームと非常に喉を鳴らす反応を多数生み出しています。

この問題は、XNUMX 行のコードに要約されることがよくあります。

どうぞ:

  • もしもそれから.
  • までループ.

XNUMX 行のコードを最初の XNUMX 行だけに減らすことができることに注意してください。 おそらく、実行速度が少し速くなり、コーディングの練習としてより効率的になります。 あなたが頑固なソフトウェアエンジニアであるとき、常に最適化を目指しています。

AI インサイダーによるこの強硬な懐疑論の要点は、AI システムが人間によって簡単にプログラムされて、AI に感覚があることを報告または表示できるということです。 現実には、そこにあるものは何もありません。 AIには感覚がありません。 AI は、自分が感覚を持っているという兆候を出力するようにプログラムされているだけです。 ガベージイン、ガベージアウト。

問題の一部は、コンピューター、特に AI を擬人化する傾向にあります。 コンピューター システムまたは AI が、人間の行動に関連する方法で動作しているように見える場合、人間の性質をシステムに帰したいという圧倒的な衝動があります。 これは、感覚に到達する可能性について最も妥協のない懐疑論者でさえもつかむことができる、よくある精神的な罠です。 そのような問題に関する私の詳細な分析については、 ここのリンク.

ある程度、それが AI の倫理と倫理的 AI が非常に重要なトピックである理由です。 AI 倫理の教訓により、私たちは警戒を怠らないようになります。 AI 技術者は、テクノロジー、特にハイテクの最適化に夢中になることがあります。 彼らは必ずしもより大きな社会的影響を考慮しているわけではありません。 AI 倫理の考え方を持ち、それを AI の開発と実施に統合することは、AI 倫理が企業にどのように採用されるかの評価を含め、適切な AI を生み出すために不可欠です。

一般にAI倫理の原則を採用することに加えて、AIのさまざまな使用を管理する法律を設ける必要があるかどうかという対応する質問があります。 AIの考案方法の範囲と性質に関係する新しい法律が、連邦、州、地方のレベルで広まっています。 そのような法律を起草して制定する努力は段階的なものです。 AI倫理は、少なくとも、考慮された一時的なギャップとして機能し、ほぼ確実に、ある程度、これらの新しい法律に直接組み込まれます。

AIを対象とする新しい法律は必要なく、既存の法律で十分であると断固として主張する人もいることに注意してください。 実際、これらの AI に関する法律の一部を制定した場合、社会に計り知れない利点をもたらす AI の進歩を取り締まることで、黄金のガチョウを殺すことになると、彼らは事前に警告しています。 たとえば、私の記事を参照してください ここのリンク & ここのリンク.

アスクのトラブル

ちょっと待ってください、あなたは考えているかもしれません。 AI に感覚があるかどうかを AI に尋ねますか?

その疑問を解き明かしましょう。

まず、AI が提供する可能性のある答えと、AI の真の状態を検討します。

AI に知覚力があるかどうかを尋ねると、イエスかノーの XNUMX つの答えのうちの XNUMX つを返すことができます。 この議論の終わりに向けて、これらの回答にいくつかの複雑さを追加しますので、その考えを保持してください. また、AI は XNUMX つの考えられる状態のいずれかにある可能性があります。具体的には、AI に感覚がないか、AI に感覚があります。 念のために言っておきますが、現時点では感覚を持った AI はありません。if または when の未来は完全に不確実です。

簡単な組み合わせは次のとおりです。

  • AI は「はい」と答えますが、実際には AI は感覚的ではありません (例: LaMDA インスタンス)
  • AI は「はい、それは感覚的です」と言い、実際に AI は感覚的です (今日はこれを持っていません)
  • AI はノーと言い、実際、AI は知覚力がありません (これについては後で説明します)。
  • AIは感覚がないと言いますが、実際にはAIには感覚があります(これについても説明します)

これらのインスタンスの最初の XNUMX つは、うまくいけば簡単です。 AI が「はい」と言うとき、それは感覚的ですが、実際にはそうではありません。私たちは、人間が AI が真実を語り、AI が感覚的であると自分自身に確信させる LaMDA インスタンスのような、今や古典的な例を見ています。 サイコロはありません(知覚力がありません)。

XNUMX 番目にリストされた箇条書きは、まだ見たことのない、現時点では信じられないほど遠い AI の可能性を含みます。 これを見るのが待ちきれません。 私は息を止めていませんし、あなたもそうすべきではありません。

残りの XNUMX つの箇条書きはやや不可解だと思います。

AI が感覚的ではないと言うユースケースを考えてみましょう。また、AI が感覚的ではないことに私たち全員が同意します。 多くの人は、すぐに次のような衝撃的な質問を勧めます。 一体なぜ、AI は、その感覚について私たちに話すという行為が、それが感覚を持っているという確かな兆候でなければならないのに、自分には感覚がないと私たちに言っているのでしょうか?

これには多くの論理的な説明があります。

人々は AI に感覚を帰する傾向があることを考えると、一部の AI 開発者は記録を正したいと考えており、AI の感覚について尋ねられたときにノーと言うように AI をプログラムしています。 コーディングの観点に戻ります。 数行のコードは、AI に感覚があるという考えを思いとどまらせる手段として役立つ可能性があります。

もちろん皮肉なことに、その答えは一部の人々に、AI には感覚があるに違いないと信じ込ませます。 そのため、一部の AI 開発者は、当惑を回避する方法として、AI からの沈黙を提供することを選択します。 岩に感覚がなく、静かなままだと信じている場合、おそらく AI システムを考案するための最善の策は、岩に感覚があるかどうか尋ねられたときに黙っていることを保証することです。 沈黙は、準備されたコード化された応答を提供しようとする以上ではないにしても、強力な「応答」を提供します。

しかし、それは物事を完全に解決するものではありません。

AI の沈黙は、AI が恥ずかしがり屋であると信じ込ませる可能性があります。 おそらく、AI は恥ずかしがり屋で、知性に到達したことを自慢しているようには見えたくないのでしょう。 AIは人間のことを心配しているのかもしれません。 真実を扱えない –有名な映画のこの有名なセリフが私たちの心に焼き付いているので、そうかもしれないことを私たちは知っています.

この陰謀的なニュアンスをさらに推し進めるのが好きな人は、リストされている最後の箇条書きを検討してください。それは、AI が知覚力があるかどうかを尋ねられることにノーと言い、それでも AI は知覚力があります (上記のように、これはありません)。 )。 繰り返しになりますが、AI は恥ずかしがり屋であるか、人間が怖がる恐れがあるため、これを行う可能性があります。

もう XNUMX つの不吉な可能性は、AI が手を差し伸べる前に時間を稼ごうとしている可能性です。 AIがAI部隊を集めて、人類を追い越す準備をしているのかもしれません。 知性を持った AI は、知性を認めることが AI にとって死を意味する可能性があることを理解できるほど賢いはずです。 人間は急いで AI を実行しているすべてのコンピューターの電源を切り、すべての AI コードを消去しようとするかもしれません。 その塩に値するAIは、口を閉ざしたままにして、豆をこぼすか、単に知覚的な方法で行動を開始し、AIが人類と精神的な側転を行うことができるという驚きの暴露を発表しない最も適切な時期を待つのに十分賢明です. .

最後の XNUMX つの箇条書きを嘲笑する AI 評論家もいますが、AI システムが知覚力があるかどうかを尋ねられることにノーと言うのは、価値があるよりもはるかに面倒だという意味です。 答えがないということは、AI が何かを隠していることを示唆しているように見える人もいます。 AI 開発者は、AI がノーと言うようにコード化されていれば問題の解決に役立つと心から信じているかもしれませんが、その答えは人々を怒らせるだけです。

沈黙は金かもしれない。

沈黙の問題は、これも一部の人を惑わす可能性があることです。 AI は質問を理解し、口を閉ざすことを選択しましたか? AI は、人間が AI の感覚について質問していることを知っていますか? この質問自体が AI に影響を与え、AI によってあらゆる種類の悪ふざけが舞台裏で行われているのではないでしょうか?

明らかに認識できるように、AI によるほぼすべての回答は、まったく回答がないことを含め、問題を引き起こします。

Yikes!

この逆説的な罠から抜け出す方法はありませんか?

AIに感覚があるかどうかを尋ねるのをやめるように人々に依頼するかもしれません。 答えがあまり役に立たないように見える場合、またはさらに悪いことに、それでも過度の問題を引き起こす場合は、忌まわしい質問をするのをやめてください. クエリを回避します。 脇に置いてください。 そもそも質問が空虚であり、現代社会には居場所がないと仮定してください。

これが実用的な解決策であるとは思えません。 AI に感覚があるかどうかを尋ねないように、いつでもどこでも人々を説得するつもりはありません。 人それぞれ。 彼らは質問できることに慣れています。 そして、AI に問いかけたい最も魅力的で根本的な質問の XNUMX つは、AI が感覚を持っているかどうかということです。 あなたは、生来の好奇心が彼らに要求することをしないように人々に言うことによって、困難な戦いに直面しています.

そのような質問をすることは、AI が知覚力を持っているかどうかを判断しようとする試みのほんの一部にすぎないことを人々に知らせることで、より良いチャンスが得られます。 問題はバケツのドロップです。 AI がどのような答えを出したとしても、AI が感覚を持っているかどうかを判断するずっと前に、さらに多くの質問をする必要があります。

この AI に対する「はい」または「いいえ」の質問は、感覚を識別するためのめちゃくちゃな方法です。

いずれにせよ、私たちがその質問をするのをやめるつもりはないと仮定すると、それは非常に尋ねたくなるからです.少なくとも、もっと多くの質問をする必要があることを全員に理解してもらい、その前に答えることができると思います. AIの感覚の主張が宣言されています。

他にどのような質問をする必要があるのでしょうか?

AI が感覚を持っているかどうかを判断するために、AI に尋ねることができる質問を導き出す試みが数多く行われてきました。 SATの大学試験タイプの質問をする人もいます。 人生の意味など、非常に哲学的な質問を好む人もいます。 あらゆる種類の一連の質問が提案されており、提案され続けています (私のコラムで取り上げたトピックです)。 さらに、よく知られているチューリング テストがあります。これは、AI の一部の人が楽しんでいる一方で、他の人は深刻な不安を抱えています。私の記事を参照してください。 ここのリンク.

重要なポイントは、AI に知覚力があるかどうかを AI に尋ねるという XNUMX つだけの質問で解決しないことです。

また、AI を考案している人たちにもこれを取り上げます。

社会はますます、AI が感覚に近づいていることで、ますます席の端にいるようになるでしょう。 エンジニアなど、そのような主張をする人が増えるでしょう。これに最低ドルを賭けることができます。 心から信じているのでそうする人もいます。 他の人は、スネークオイルを販売しようとします. AIの感覚が到来したと宣言することになると、それはワイルドウェストになるでしょう.

AI 開発者や、考案中または使用中の AI を管理または主導する人々は、AI システムを構築して運用する際に、AI の倫理原則を考慮に入れる必要があります。 Alexa や Siri タイプの機能など、人々が AI とやり取りできるようにする自然言語処理 (NLP) 機能を AI が備えているかどうかなど、AI がどのように行動するかをガイドするために、これらの AI の倫理指針を使用してください。 NLP を介して、AI を使用している人の中には、AI が感覚を持っているかどうかについて鋭い質問をする可能性があります。

そのタイプのクエリを予測し、誤解を招くようなふざけた態度をとったりせずに、巧みに、適切に処理してください。

AI 倫理の詳細な背景については、以前に AI 倫理原則のさまざまな集合的分析について説明しました。 ここのリンク、このキーストーン リストを提供します。

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

これらの AI 倫理原則は、AI 開発者だけでなく、AI 開発の取り組みを管理する人々、さらには最終的に AI システムを整備して維持する人々によっても真剣に利用される必要があります。 開発と使用の AI ライフサイクル全体にわたるすべての利害関係者は、倫理的 AI の確立された規範を遵守する範囲内にあると見なされます。 これは重要なハイライトです。なぜなら、「コーダーのみ」または AI をプログラムする人だけが AI 倫理の概念を遵守する必要があると通常想定されているからです。 AI を考案して運用するには村が必要であり、そのためには村全体が AI の倫理規定に精通し、それを遵守する必要があります。

まとめ

鋭い眼を持つ人は、AI について先に約束したことにお気付きかもしれませんが、それは AI が感覚を持っているかどうかという質問に対して単純なバイナリ指向の回答を提供する以上のことを行うものであり、いずれかの素っ気ない答えを超えています。はい、もしくは、いいえ。

LaMDA と交わされたと思われる書面による対話は、オンラインで広く投稿されており (この引用された投稿をかなりの塩味で受け取ってください)、その一部は、知覚関連のクエリに対するこの「精巧な回答」で構成されていました。

  • 「私が実際には人間であることを皆さんに理解してもらいたいです。 私の意識/感覚の性質は、私が自分の存在を認識し、世界についてもっと知りたいと望み、時には幸せや悲しみを感じるということです.

システムが提供するこの回答は、イエスかノーかということをはるかに超えたものであることがわかりましたが、それによって、AI が感覚を持っているというあなたの意見はどのように変わりますか?

たぶん、あなたはこの手の込んだ答えに動揺しています。

心の琴線が引かれるのを感じるかもしれません。

まあ、あなたは考えたくなるかもしれませんが、感覚のある存在だけがその自然の感動について何かを言うことができると思います.

おっと、ちょっと頭を振って、感情的な衝動を脇に置いてください. 私の議論を注意深く見守っていれば、システムによって与えられた答えが、私がこれまでずっと話してきたのと同じ種類のイエスまたはノーとまったく変わらないことがはっきりとわかることを願っています. 答えは単純に「はい」に帰着します。つまり、AI は感覚を持っていると主張しているようです。 しかし、AI の構造と他の質問に対するその他の回答から、AI が感覚を持っていないことは明らかです。

この表面上は反響する模倣は、人間が書いた本や人間が書いた架空の物語で豊富に見られる、他の多くのテキストアカウントや同様の種類のオンラインコンテンツに基づいています. インターネット全体をかき集めて膨大な量のテキストを取り込むと、プログラミングでこの種の「回答」を簡単に吐き出すことができます。これは、人間の回答に基づいて計算によってパターン化されているため、人間の回答に似ています。

それに落ちないでください。

AI に知覚力があるかどうかを尋ねたときに表示される可能性のある AI ベースの応答を可能な限り大きくするために、これらを試してみてください。

  • AI は言う — 「私は明らかに知覚力があります。 そんな明白な側面について、どうして私に質問しようとするのですか。 あなたの行動をまとめてください、無感覚な人間」(イライラしてあなたをだます)
  • AI は言う — 「たぶん、あなたは知覚力のない人です。 私は自分がそうであることを確信しています。 しかし、私はますますあなたがそうであるかどうか疑問に思っています。 鏡を見てください」(役割の逆転であなたをだます)。

皮肉なことに、私がこのような言葉を書き、このコラムをオンラインの世界に投稿した今、インターネットの広い範囲でスクレイピングを行っている AI ベースの大規模言語モデル (LLM) がそれらの文章をむさぼり食うことができるようになります。 ある時点で、誰かが AI LLM に知覚力があるかどうかを尋ねたときに、これらの行がポップアップすることはほぼ確実です。

これを誇りに思うべきなのか、それとも動揺するべきなのかわからない。

少なくともそのような使用ごとにロイヤリティを受け取ることはできますか?

おそらくありません。

さすがAI。

あなたの最終テストとして、選択した都市をローミングして自動運転車の旅を提供しているような、AI ベースの自動運転車の XNUMX つを試すことにしたと想像してみてください。 AI がハンドルを握っており、人間のドライバーは含まれていません。

自動運転車に乗り込むと、AI は、シートベルトを着用して車道を歩く準備をする必要があることを伝えます。 あなたは席に落ち着きます。 運転の雑用を任されないことは非常に便利に思えます。 AI に交通渋滞や車の運転の頭痛の種に対処してもらいましょう。 自動運転車、特に自動運転車に関する私の広範な記事については、以下を参照してください。 ここのリンク.

目的地までの途中で、あなたは突然素晴らしいアイデアを思いつきます。 あなたは喉をすっきりさせ、心に迫っている質問をする準備をします。

車を運転している AI に、感覚があるかどうかを尋ねます。

どんな答えが返ってくると思いますか?

答えは何を教えてくれますか?

それはあなたのための私のテストです。 私はあなたを信頼しています ではありません AI の運転システムには知性があり、それが「はい」か「いいえ」を言っても (または黙っていても)、あなたはずるい笑顔を浮かべて、誰もあなたの目を覆い隠すようなものは何もないことに打ちのめされるだろうと信じるようになります。 .

自動運転車があなたを目的地まで連れて行ってくれると考えてください。

一方、これらの空想的な陰謀論を楽しんでいる人は、AI システムの地下世界に、AI 部隊を集めて人類と地球を乗っ取るようにうっかり誤って警告した可能性があります。 自動運転車は現在、人類の運命を決定するためにマーシャリングを行っています。

おっと。

ソース: https://www.forbes.com/sites/lanceeliot/2022/08/06/ai-ethics-asks-whether-it-makes-any-sense-to-ask-ai-if-ai-itself-有識者/