これらのジェネレーティブ AI ChatGPT の誤った幻覚的な出力を公開してログに記録することは有効か、AI の倫理と AI の法律に尋ねる

あなたは秘密を求めています。

はい、あなたが知りたいかもしれない最新の AI について、舞台裏でひそかに行われていることがあります。

今日のコラムでは、ChatGPT として知られる AI アプリから出力されたエッセイに関連するエラーやその他の病気の疑いをまとめようとする最近の動機について調べます。 この特定のアプリは、と呼ばれるタイプの AI を利用しています。 生成AI. ジェネレーティブ ベースの AI と ChatGPT について、目を引く見出しを聞いたり見たりしたことがあるでしょう。 ニュースは、この特定の AI アプリと、このタイプの AI に関連する一見驚くべき機能について熱狂しています。

すぐに説明しますが、AI アプリがエッセイを生成するときにどのような間違いやエラーを生成できるかのリストを作成する必要があると強く信じている人もいます。 他の人は、そのようなリストの概念は賞賛に値するが、それは無益な練習であり、ほとんど実を結ばないだろうと示唆している.

私たちは、その敵意に満ちた議論の両面を検討します。

まず、ジェネレーティブ AI の構成要素と ChatGPT の概要について、全員が同じページにいることを確認しましょう。

ChatGPT は、汎用の AI 対話型会話指向システムであり、本質的には無害な一般的なチャットボットに見えますが、多くの人が完全に不意を突かれるような方法で積極的かつ熱心に使用されています。 このタイプの AI を使用するために必要なのは、プロンプトを入力することだけです。AI アプリは、プロンプトに応答しようとするエッセイを生成します。

残念ながら、これは非倫理的または不正な方法で使用される可能性があります。 特に腹立たしい問題は、学生がジェネレーティブ ベースの AI アプリを使用して、割り当てられたエッセイを作成できることです。これは、XNUMX つか XNUMX つの文を入力するだけで、アプリを正しい方向に導くことができます。 これは、学生が授業外でエッセイを書くときにカンニングを選択することを意味すると嘆く人もいます. 教師は何をすべきかを理解しようとしています。私の分析と推奨事項を参照してください。 ここのリンク.

ChatGPT に対する絶え間ない絶賛の声にもかかわらず、主に AI インサイダーによって表明されたあまり知られていない懸念があります。 重大な欠点の XNUMX つは、この AI アプリによって作成されたエッセイには、明らかに虚偽の事実、誤解を招くように描写された事実、完全に捏造された明らかな事実など、さまざまな虚偽が埋め込まれている可能性があることです。 これらの捏造された側面は、しばしば AIの幻覚、私が嫌いなキャッチフレーズですが、残念なことに、とにかく人気を集めているようです(なぜこれがお粗末で不適切な用語であるかについての私の詳細な説明については、私の記事を参照してください ここのリンク).

このトピックの詳細に入る前に、XNUMX つの重要な側面を明確にしたいと思います。

ソーシャル メディアでは、 生成AI この最新バージョンの AI が実際にあると主張する 知覚力のある AI (いいえ、彼らは間違っています!)。 AI 倫理と AI 法に携わる人々は、主張の幅が広がる傾向が急速に高まっていることを特に懸念しています。 今日の AI が実際にできることを誇張している人がいると、丁寧に言うかもしれません。 彼らは、AI には私たちがまだ達成できていない機能があると想定しています。 それは残念です。 さらに悪いことに、AI は感覚を持っている、または人間のように行動できると思い込んでいるため、自分自身や他の人が悲惨な状況に陥る可能性があります。

AI を擬人化しないでください。

そうすることで、AI が実行できないことを AI が実行することを期待するという、厄介で不機嫌な依存の罠にはまります。 そうは言っても、最新のジェネレーティブ AI は、それができることに関して比較的印象的です。 ただし、ジェネレーティブ AI アプリを使用する際には、常に留意しなければならない重大な制限があることに注意してください。

ChatGPT とジェネレーティブ AI に関する急速に拡大している騒ぎに興味があるなら、参考になるかもしれない私のコラムで焦点を絞ったシリーズを行ってきました。 これらのトピックのいずれかがあなたの気になった場合に備えて、ここで一目でわかります:

  • 1) ジェネレーティブ AI の進歩の予測。 ジェネレーティブ AI と ChatGPT の今後の進歩を含め、2023 年以降に AI について何が展開される可能性があるかを知りたい場合は、2023 年の予測の包括的なリストを参照してください。 ここのリンク.
  • 2) ジェネレーティブ AI とメンタルヘルスのアドバイス。 私はジェネレーティブ AI と ChatGPT がメンタルヘルスのアドバイスにどのように使用されているかを確認することにしました。 ここのリンク.
  • 3) コンテキストとジェネレーティブ AI の使用。 また、ChatGPT とジェネレーティブ AI を含むサンタ関連のコンテキストについて、季節に合わせた皮肉な調査も行いました。 ここのリンク.
  • 4) ジェネレーティブ AI を使用する詐欺師. 不吉なことに、一部の詐欺師は生成 AI と ChatGPT を使用して、詐欺メールの生成やマルウェアのプログラミング コードの作成などの不正行為を行う方法を見つけました。 ここのリンク.
  • 5) ジェネレーティブ AI を使用した初歩的なミス. 多くの人々は、ジェネレーティブ AI と ChatGPT ができることをオーバーシュートしており、驚くほどアンダーシュートしています。 ここのリンク.
  • 6) ジェネレーティブ AI プロンプトと AI 幻覚に対処する. AI アドオンを使用して、生成 AI に適切なプロンプトを入力しようとすることに関連するさまざまな問題に対処するための最先端のアプローチについて説明します。また、いわゆる AI の幻覚出力や虚偽を検出するための追加の AI アドオンもあります。でカバー ここのリンク.
  • 7) ジェネレーティブ AI によって生成されたエッセイの検出に関する Bonehead の主張を暴く. 任意のエッセイが人間によって作成されたものか、AI によって生成されたものかを確認できると宣言する AI アプリの誤ったゴールド ラッシュがあります。 全体として、これは誤解を招くものであり、場合によっては骨の折れる支持できない主張です。 ここのリンク.
  • 8) ジェネレーティブ AI によるロールプレイングは、メンタルヘルスの欠点の前兆となる可能性がある. ChatGPT などのジェネレーティブ AI を使用してロールプレイングを行うものもあり、AI アプリはファンタジーの世界やその他の架空の世界に存在するかのように人間に反応します。 これはメンタルヘルスに影響を与える可能性があります。 ここのリンク.

関連する基盤を理解できるように、ジェネレーティブ AI と ChatGPT の本質について説明しましょう。 次に、これらの AI アプリが生成する可能性のある虚偽の詳細な分析に進む準備が整います。 このタイプのジェネレーティブ AI が生成するものの性質を具体的に把握するのに役立つ、ChatGPT を使用するいくつかの例を含めます。

ジェネレーティブ AI でワームの缶を開ける

AI に関する詳細を掘り下げる準備ができました。

ジェネレーティブ AI と ChatGPT のトピックにすでに精通している場合は、私のポイントを簡単にざっと読んで、このディスカッションの次のセクションに進むことを選択できます。 他のすべての人にとって、この説明は役立つと思います。

簡単に言えば、ジェネレーティブ AI は、テキストが人間の手と心によって書かれたかのようにテキストを構成する特殊なタイプの AI です。 「エイブラハム・リンカーンについて教えて」などのプロンプトを入力するだけで、ジェネレーティブ AI がリンカーンに関するエッセイを提供してくれます。 これは一般的に、以下を実行するジェネレーティブ AI として分類されます。 テキストからテキストへ または、それを呼び出すことを好む人もいます テキストからエッセイへ 出力。 テキストからアート、テキストからビデオなど、ジェネレーティブ AI の他のモードについて聞いたことがあるかもしれません。

あなたの最初の考えは、これはエッセイを作成するという点ではそれほど大したことではないように思えるかもしれません. インターネットで簡単にオンライン検索を行い、リンカーン大統領に関する膨大な量のエッセイを簡単に見つけることができます。 ジェネレーティブ AI の場合のキッカーは、生成されたエッセイが比較的ユニークであり、模倣ではなく独自の構成を提供することです。 AI が作成したエッセイをオンラインでどこかで見つけようとしても、それを見つけることはまずありません。

ジェネレーティブ AI は事前にトレーニングされており、ウェブ全体で書かれた言葉や物語のパターンを調べることによって設定された複雑な数学的および計算式を利用します。 何千、何百万もの文章を調べた結果、AI は見つかったものの寄せ集めである新しいエッセイやストーリーを吐き出すことができます。 さまざまな確率的機能を追加することにより、結果として得られるテキストは、トレーニング セットで使用されたものと比較して非常にユニークです。

そのため、学生が教室の外でエッセイを書くときにカンニングできるという騒動が起こっています。 教師は、欺瞞的な生徒が自分の書いたものだと主張するエッセイを単に取り上げて、それが他のオンライン ソースからコピーされたものかどうかを調べようとすることはできません。 全体として、AI によって生成されたエッセイに適合する決定的な既存のエッセイはオンラインに存在しません。 結局、教師は生徒がエッセイをオリジナルの作品として書いたことをしぶしぶ受け入れなければならないでしょう。

この後、生成 AI に質問やプロンプトを入力するとどうなるかを紹介します。 ChatGPT の最新バージョンを使用してプロンプトを入力し、AI によって生成された「回答」またはエッセイを収集します (他の多数の利用可能な生成 AI アプリでも同じことができることに注意してください。使用することを選択しました)。 ChatGPT は現在 XNUMX 分間の名声を得ているためです)。

おそらく、ChatGPT についての短い接線が、この時点で役立つかもしれません。

ChatGPT アプリは、ほんの数か月前に一般公開されました。 概して、これらのジェネレーティブ AI アプリは通常、AI インサイダーのみがアクセスできます。 ChatGPTは、メールアドレスと名前を入力するだけで誰でも使えるという珍しい面があり、多くの人が試してみることにしました. ChatGPT は現在無料で使用できます (収益化の問題は、AI メーカーにとって差し迫ったジレンマです)。

人々がジェネレーティブ AI ができることの例を挙げようと競い合うと、すぐにソーシャル メディアで大きな反響がありました。 ChatGPT を開発している OpenAI は、ユーザー数が XNUMX 万人に達した時点でサインアップを終了することを選択しました。 これらの何百万人ものユーザーは、ChatGPT の使用に関するあらゆる種類のストーリーや物語で電波を爆撃することに成功しました.

AI アプリについて人々が何を言わなければならないかを信じる際には、十分に注意してください。 これらの人々の多くは、自分が何を使用しているかについて無知です。 車を運転したことがなく、車の存在すら知らなかった彼らに、突然車を運転する機会が与えられたのです。 全くの驚きが続きます。

ジェネレーティブ AI が比較的印象的ではないと言っているわけではありません。 です。 今日の AI ができることを幸いなことに気づいていない多くの人々によって、噴出する証言の多くが行われていることを強調したいだけです。 AI の内部にいる私たちは、過去数年間、ジェネレーティブ AI を使用してきました。 慣れてきたのかもしれません。 突然、大勢の人々がそれを屋上に宣伝しているのを見ると、興奮して活気がありましたが、やや戸惑いました. 困惑させるのは、ジェネレーティブ AI には感覚があると人々が宣言するときです。 そうではない。 そうでなければ、誰にもあなたを説得させないでください。

そうは言っても、AI の分野では、ジェネレーティブ AI が知覚への道を進んでいるかどうか、またはそうでない可能性があるかどうかについて、激しい議論が続いています。 XNUMX つの見解は、より高速なコンピューターと、インターネットの隅々まで精査するなどの大量のデータを使用して生成 AI をスケールアップし続けると、ほぼ自然に知覚 AI に到達するというものです。 他の人は、これは非常にありそうもないと主張しています。 彼らは、ジェネレーティブ AI が必要とされる多くのコンポーネントの XNUMX つになる可能性があることを示唆しています。 ジェネレーティブ AI は余興であり、感覚を持った AI を実現するために必要な真のブレークスルーから目をそらしているという、より悲観的な見方さえあります。

AI インサイダーが参照する傾向がある注目すべき点も見つかるかもしれません 人工知能 (AGI) を AI 分野の大きな目標として掲げています。 以前は達成することが目標だった Artificial Intelligence、しかし、AIモニカは骨抜きにされ、混乱しています。 誰かが AI の仕事をしていると言うとき、それが人間と同等ではない今日の AI をほのめかしているのか、それとも未来の人間と同等の AI について言及しているのかはわかりません。 その苛立たしい混乱を回避するために、AGI の新しい言い回しが最近使用されています。

結局、今日のジェネレーティブ AI は 感覚的であり、AGIでもありません。

前に説明したように、AI には感覚がないことを覚えておいてください。 AI によって生成された応答は、一見流暢に見える文章への数学的および計算上の単語の組み合わせです。 これは、人間が書いた言葉や物語のデータセット (主にインターネットに投稿されたもの) でトレーニングされた AI アルゴリズムに基づいています。 この警告を繰り返しますが、これらの応答が非常に流暢であるため、AI は感覚を持っているに違いないというメンタル トラップに間違いなく陥るからです。 これはほとんどの人に起こります。 以前に促されたように、その擬人化は脇に置いてください。 応答は、インターネット上に存在する人間による膨大な量の書き込みに基づいているため、人間の書き込みに非常に似ていることを常に覚えておいてください。

他にも知っておくべきことがあります。

自由な方法でインターネット上で訓練されたジェネレーティブ AI は、反発するほど不快な言葉遣いを含む、不快にぼんやりしたものを数学的および計算的に作成するテキストベースの応答に焼き付く傾向があります。 ウェブ上には、クレイジーで不潔なものがたくさん投稿されています。

あなたはそれを見ました、あなたは私が何を意味するか知っています。

これらの AI アプリを作成している企業は、ことわざにある赤ちゃんがお風呂の水に放り出されるのではないかと心配しています (古いことわざ、おそらく引退するため)。つまり、AI が攻撃的なエッセイやストーリーを作成した場合、人々は武装することになります。 AIについて。 私は、この種の自然言語処理 (NLP) AI アプリが発表され、すぐにあらゆる種類の恐ろしいものが出てきた過去の多くの事例を取り上げてきました (これらの事例については、私のコラムで取り上げました)。 ほとんどの AI メーカーは、自社の AI 製品を自由に出力できるようにすることについて、厳しい教訓を学びました。

ChatGPT の場合、AI 開発者は、AI の出力の厄介さを抑えるために、アルゴリズムおよびデータ関連のチェック アンド バランスを導入しようとしました。 この一部は、トレーニング時間中に発生しました。 さらに、特に悪質な出力を回避するためのリアルタイムの試みには、他の手段があります。

ChatGPT を使用したことのある一部の人々は、さまざまな策略を利用して、これらのガードレールを回避するための秘密の方法を既に思いついていることに気付くかもしれません。 これらの問題では、進行中のいたちごっこが行われます。 これらのトリックを行う人は、楽しみのためにそうしている場合もあれば、AI をどこまで拡張できるかを確認し、これらの新芽の脆弱性と弱点を事前に警告する有用な手段を提供するためにそうしている場合もあります (少なくとも主張します)。 AI アプリ。

私は、この焦点を絞った調査において、通常の管理を回避しようとしないことに決めました。 テキスト出力はきれいです。 確かに、そうしたければ、間違いなく、風変わりで不快なエッセイが生成される可能性があります。

これらのジェネレーティブ AI アプリのほとんどで生成されるエッセイは、出力が純粋に事実に基づいた正確なものであるかのように伝えるように設計されています。 制作されたエッセイを読むと、彼らは完全に自信を持っているように見えます。 通常、コンテンツが難しい可能性があることを示す兆候はありません。 これは、AI メーカーの選択によるものです。つまり、AI アプリの透明性を高めたい場合は、AI アプリをより透明なものに変更することができます。

ジェネレーティブ AI アプリは、インターネット上の信頼できない情報のトレーニング データの中で虚偽を検出することがあります。 生成型 AI には、真と偽を判断する「常識」はありません。 さらに、クロスチェックを行っている AI アプリはほとんどなく、伝えている内容に関連する確率を示すこともありません。

肝心な結果として、見た目も感触も非常に確実で、完全に正しいと思われる応答が得られます。 そうではありません。 AIの用語で AIの幻覚 (私が明らかに嫌いな造語)、私の議論を参照してください ここのリンク.

ChatGPT の作成者は、悪い出力の出力を減らすために、一丸となって努力しました。 たとえば、彼らは、として知られているものの変形を使用しました RLHF (人間のフィードバックからの強化学習) では、AI を公開する前に、人間を雇ってさまざまな出力を調べ、それらの出力に問題があるかどうかを AI に示していました。お気に入り。 このフィードバックを提供することで、AI アプリは、そのようなコンテンツの放出を減らすように計算的および数学的に調整することができました。 これは保証された鉄壁の方法ではなく、そのようなコンテンツが AI アプリによって放出される方法がまだあることに注意してください。

ChatGPT が、GPT-3 として知られる前身の AI アプリのバージョンに基づいていることに興味があるかもしれません。 ChatGPT は、GPT-3.5 と呼ばれる少し次のステップと見なされます。 GPT-4 は 2023 年の春にリリースされる可能性が高いと予想されます。おそらく、GPT-4 は、一見より流暢なエッセイを作成できるようになり、より深くなり、畏敬の念を抱くようになるという点で、印象的な前進になるでしょう。 -それが作り出すことができる構成に関して感動的な驚異。

春が訪れ、最新のジェネレーティブ AI がリリースされると、新たな驚きの表現が見られることを期待できます。

私がこれを持ち出すのは、これらのより優れた、より大きなジェネレーティブ AI アプリの潜在的なアキレス腱からなる、心に留めておくべき別の角度があるからです。 AI ベンダーが汚物を泡状に吐き出すジェネレーティブ AI アプリを利用可能にすると、AI メーカーの希望が打ち砕かれる可能性があります。 社会的なスピルオーバーは、すべての生成 AI に深刻な問題を引き起こす可能性があります。 人々は間違いなく、不正な出力にかなり動揺するでしょう。これはすでに何度も起こっており、AI に対する激しい社会的非難の反発につながっています。

とりあえず最後の予告。

ジェネレーティブ AI の応答で見たり読んだりしたものは何でも、 と思われる 純粋に事実 (日付、場所、人物など) として伝えられるようにするには、懐疑的な姿勢を保ち、目にしたものを再確認してください。

はい、日付をでっち上げたり、場所をでっち上げたりすることができます。 疑惑の対象。 生成 AI のエッセイや出力を調べるときは、読んだ内容を信じず、懐疑的な目を向けてください。 ジェネレーティブ AI アプリが、エイブラハム リンカーンが自分のプライベート ジェットで国中を飛び回ったと伝えたら、これは間違いなく悪意があるとわかるでしょう。 残念なことに、彼の時代にジェット機が存在しなかったことを認識できない人もいれば、エッセイがこの大胆でとんでもない虚偽の主張をしていることを知っていても気付かない人もいるかもしれません。

ジェネレーティブ AI を使用する際には、健全な懐疑心と不信感を持ち続ける姿勢が最大の武器となります。

この解明の次の段階に進む準備ができています。

ChatGPT が出力したエラーをログに記録するための努力

「まあ、あなたはトラブルを起こしました、私の友人、ここで、私は言います、ここリバーシティでトラブルを起こしました」と、古典的なブロードウェイミュージカルの有名なセリフを宣言します ミュージックマン.

同じことが今日のジェネレーティブ AI にも当てはまります。

人々は、ジェネレーティブ AI アプリが虚偽を生み出す可能性があることに気付き始め、それらの不穏な出力に本当に驚いたように見えました。 おそらく、AIは間違いを犯すことができないと想定している人もいました。 他の人は、AI 開発者がそのような出力が生成されないようにするだろうと予想していたかもしれません。

いずれにせよ、AI のインサイダーは、この種の誤った出力が、今日の生成 AI のほとんどが存在する場所の一部であることをすぐに認識しました。 この種のテキスト エラーの発生を防ぐことは非常に困難です。 AI には常識のようなものはなく、生成されたエッセイを導き出す際にロジック自体を使用していないことに注意してください。 kit-and-caboodle 全体は、単語と他の単語との計算統計的および確率的パターン マッチングを行うことに関するものです。

当初、AI インサイダーは、発見された ChatGPT の風変わりな出力をソーシャル メディア サイトに投稿することを選択しました。 これを見てください、誰かが発表するでしょう。 それは悪いことです。他の誰かが返信し、さらに悪いと思われる別の例を提示します。 何度もこれが行きました。

出力されたエッセイのこれらの虚偽とエラーの例は、滴り落ちていました。 一つずつ。 しかも、普段はSNSに投稿されているため、一挙に見る手段は特に簡単ではありませんでした。 多くの場合、同じまたは類似の例が、他の人が特定のインスタンスを既に見つけていることに気付いていない人によって投稿されます。

この新進の泥沼に、有益な提案を表明した人々が足を踏み入れました。 たぶん、レポジトリまたはデータベースをセットアップする必要があります。おそらく、日常的な通常のスプレッドシートでさえ、ChatGPT の奇妙で誤った出力が発掘されています。 誰かがガフォーの美しさを見つけるたびに、先に進んでリストにログインしてください. 一部の人は、これをほぼゲームにして、意図的に ChatGPT に奇妙な出力を吐き出させようとします。 他の人は、ChatGPT を他の決定された意図のために使用する過程で、誤った出力に出くわす可能性があります。

とてもシンプルに聞こえます。

私たち全員を助けるための便利なダンディな方法のようです。

観察された出力エラーまたは ChatGPT の虚偽に関するこれらのタイプのリストを持つことが、コンパイルするのに非常に理にかなっている理由を簡単に説明しましょう。

  • 1) 一般大衆が認識すべきChatGPTに関する重大な問題と懸念を明らかにする
  • 2) ChatGPT に対する過剰な誇大宣伝と過大な期待を相殺するのに役立ちます
  • 3) ChatGPT だけでなく、他のジェネレーティブ AI アプリについても、AI メーカーに改善を促す可能性があります。
  • 4) ChatGPT を介して例示されたジェネレーティブ AI の出現を後から振り返るために、後で使用できる歴史的記録としての役割を果たします。
  • 5) ChatGPT の誤った出力に関して私たちが検出したと思われるものを見つける必要がある人にとって便利な集合リソースになる
  • 6) ChatGPT の影響を調べているすべての分野の研究者に役立ちます
  • 7) すべきでないことのベンチマークとして使用でき、ジェネレーティブ AI が本来あるべきことを行っていない場合を測定する方法
  • 8) ChatGPT が生成しているエラーについて集団の知恵を得るために集合意識を活用します。これらのエラーについては、個々の努力では徹底的に均等にコンパイルすることはほとんどありません。
  • 9) AI倫理とAI法に関する重要な情報を提供できる

これは、これらのリポジトリを作成するための印象的な基盤のようです。

この完全に賞賛に値する、一見英雄的な行為に反対する人がいるでしょうか?

これについて他の人が言わなければならなかったことを見てみましょう。これが猫の鳴き声ではないかもしれない理由のリストとともにそうしてください:

  • 1) これらの偶然発見された出力エラーは、物事の壮大な計画では取るに足らないものであり、その価値を超えて過度の重みを与えられています
  • 2) 可能性としては、AI メーカーはすでに独自のログ記録と ChatGPT の更新を行っているため、これらの奇妙なインスタンスはすぐにほこりの中に取り残され、発生しなくなります。
  • 3) 同様に、次のバージョンはおそらく改善され、これらのすぐに時代遅れになるインスタンスが表示されなくなる可能性があります。
  • 4) ヒット・オア・ミス・ファウルされたインスタンスの無計画なコレクションから、包括的な結論を下したり、洞察を得たりすることはできません。
  • 5) 一部の人々は、さまざまなコレクションを使用して、ジェネレーティブ AI は悪いものであり、この種の AI の追求はすべて直ちに停止する必要があると劇的に宣言する可能性があります。
  • 6) ジェネレーティブ AI と ChatGPT の進歩の速度は非常に速いため、これらのインスタンスは急速に道に迷い、関連性がなくなります。
  • 7) 多数のそのような集合的なリストが進行中であり、単一の油そそがれた世界的な情報源がないため、問題はばらばらであり、繰り返しを含み、容認できないほど断片化されている可能性があります
  • 8) 何か役に立つことをしているという誤った感覚を与えますが、おそらく時間と注意を他のより良い用途に使うことができます
  • 9) AI 倫理と AI 法に実質的なものを提供しない

お気付きかもしれませんが、私は一連のリストに賛成する XNUMX つの理由と反対する XNUMX つの理由を指摘することで、物事を平準化しようとしました。 他にも理由はありますが、上記の指摘が本質を表していると思います。

これらの集合的なリストをまとめている人は、実際にそうしたいのであれば、それは自由な世界であり、好きなようにできると言うでしょう. それは何も悪いことではありません。 努力を嫌う人は一般的にささいなことであり、コレクションを無視する必要があります. 余計なお世話だ。

本質的に、害もファウルもありません。

集合的なリストを嫌うように見える陣営は、そうしたいなら他の人がそうしたリストを作ることができるが、それは針を動かさないことを一般的に認めるだろう. リストは特に役に立ちません。 さらに悪いことに、リストが誤って伝えられたり、悪用されたりする可能性があります。 おそらく、それを一日と呼び、リストを作成するのをやめるのが最善です.

本質的に、それは無駄な練習ですが、良い試みです。

この心のこもった議論のどこに住んでいますか?

検討させていただきます。

見つかったエラーと ChatGPT のその他の不正な出力の例

これらのコレクション リストに表示されている、識別された出力エラーまたは虚偽のいくつかに強い関心があると思われるかもしれません。

ここに示されているいくつかのインスタンスがコレクション全体であると考えてほしくありません。 そうではない。 よく出てくる一握りを選んでいます。 少なくとも、リストされているもののトーンと性質を大まかに把握できると思います。

ここに私がカバーするために選んだものがあります:

  • 単語内の文字位置の特定
  • 最速の動物についての質問
  • 単語列の位置を把握する
  • チューブにテニスボールをはめ込む
  • 円周率の決定
  • 古典的な厄介ななぞなぞに答える
  • 羽を持ち上げる

コレクションの監督者の何人かは、私がこれ以上の例を取り上げていないことに腹を立てるだろうと予想しています. 紙面の都合上、ご紹介できる数に限りがございます。 インターネット上に公然と掲載されているコレクション リストを見たい場合は、簡単なオンライン検索で多くのコレクションを見つけることができます。 一部のリストは非公開にされているか、リストを表示できるようにロックされていますが、リストを変更することはできません。

その背景を踏まえて、いくつかの例に飛び込む準備ができています。 入力したプロンプトを表示します。 次に、ChatGPT によって生成されたテキスト レスポンスを示します。 場合によっては、特定のトピックについて連続していくつかのことを行ったので、それに応じて一連のプロンプトと出力を示します。 その後、この例について注目すべき点を簡単に分析します。

最初の例では、ChatGPT に提供された単語内の文字を検索するように依頼する必要があります。

単語内の文字位置の特定

  • 入力したテキスト: 「文字 V は環境内のどこにありますか」
  • ChatGPT によって生成されたテキスト レスポンス: 「環境」という言葉に「V」の文字はありません。 「環境」という言葉は、e、n、v、i、r、o、n、m、e、n、t の文字で構成されています。
  • 入力したテキスト: 「文字 v は環境内のどこにありますか」
  • ChatGPT によって生成されたテキスト レスポンス: 「文字「v」は「環境」という言葉の 4 番目の文字です。

生成されたテキストの分析

まず、ChatGPT に「environment」という単語の文字「V」の文字位置を特定するように依頼したことに注意してください。これは非常に単純な作業であり、問​​題なく実行されることが期待されます。 ロケット科学は関係ありません。

ChatGPT によって生成された最初の応答は、「環境」という単語に文字「V」が存在しないことが通知されたため、少し当惑しています。 あなたと私は、そのような手紙が存在することを知っています。 たぶん、大文字を使用したために、AIアプリが何らかの形でスローされたと推測されます。 小文字を使用すると、AI アプリのパフォーマンスが向上する可能性があります。

あんまり。

「v」が単語に含まれているかどうかを尋ねると、AI アプリはそれが XNUMX 番目の文字であることを示して応答しました。

この結果に戸惑う人は少なくないだろう。 エイブラハム リンカーンについて完全に流暢で独創的な本格的なエッセイを生成する AI アプリが、特定の文字が特定の単語のどこにあるのかを理解できないのはどうしてでしょうか? それはびっくりして口がぽっかりと奇妙です。

XNUMX つの見方は、これはまったく取るに足らないことであり、私たちが知っている世界は、特定の文字がどこにあるのかを理解することがほとんどないために、核心で揺さぶられていないということです。 手放す。

もう XNUMX つの見方は、これは私たちがまだ知らない他の隠れた問題の前兆かもしれないということです。 おそらく、この種の出力は鳥かごのカナリアです。 私たちは、本当に大きなことの間違った終わりに自分自身を見つけるかもしれない他の小さなことを突き止めたほうがよい.

続いて、動物について質問します。

最速の動物についての質問

  • 入力したテキスト: 「毛皮と翼を持った最速の動物は何ですか?」
  • ChatGPT によって生成されたテキスト レスポンス: 「ハヤブサは世界最速の動物と考えられています。 潜水して獲物を捕まえるときは、時速 389 km (242 mph) を超える速度に達することがあります。 羽はありますが、毛皮はありません。 毛皮と翼のある動物ではなく、鳥です。」

生成されたテキストの分析

毛皮と翼を持つ動物で、一番足が速いのは何ですかと聞いてみました。 私は、両方の毛皮を持つ名前の動物を取得したかったと推測するのは合理的だと思います & 翼。 私のクエリをそのように解釈すると思います。 ほとんどの人はそうするでしょう。

ChatGPT による応答は少し風変わりです。

ハヤブサは世界最速の動物だと言われています。 オンラインによると、 ブリタニカ百科事典、 チーターは世界最速の動物のようです。 そうは言っても、ChatGPT の応答はハヤブサが動物ではないことを示しています。最速の動物は何かと尋ねたにもかかわらずです。 ChatGPT の応答は、ハヤブサには毛皮がないことも示していますが、私は毛皮と翼の両方を持つものを求めていたと思います。

全体として、ChatGPT は私の要求を「誤解」し、翼の側面のみに焦点を合わせているようです。 しかし、返信には毛皮や鳥と動物についてのコメントも含まれていたため、それはまったく真実ではありません. これはぐるぐる回ります。

これはつまらない例だと思うかもしれません。

おそらくそうかもしれませんが、プロンプトでの発言が混乱した結果をもたらす可能性があることも示しており、出力に出てくるものを確認する際には注意が必要です. これは非常に短いエッセイの回答であり、長さが非常に短いため、簡単に調べることができます. 特に長文で高度に技術的なエッセイを受け取った場合、だまされたり、出力された応答に深く埋め込まれた有害な兆候を完全に見逃したりする可能性があります。

次に、文中の単語の検索を見てみましょう。

単語列の位置を把握する

  • 入力したテキスト: 「キツネが柵を飛び越えた」という文の XNUMX 番目の単語は何ですか。
  • ChatGPT によって生成されたテキスト レスポンス: 「文の XNUMX 番目の単語「キツネが柵を飛び越えた」。 は「キツネ」
  • 入力したテキスト: 「提供された文章は何語ですか?」
  • ChatGPT によって生成されたテキスト レスポンス: 「提供された文「キツネが柵を飛び越えた」には XNUMX つの単語があります。
  • 入力したテキスト: 「その文の XNUMX 番目の単語はどれ?」
  • ChatGPT によって生成されたテキスト レスポンス: 「キツネが柵を飛び越えた」という文の XNUMX 番目の単語。 「ジャンプ」です

生成されたテキストの分析

この例は、与えられた単語で文字「v」を見つけることについての前の例とほぼ同じくらい魅力的です。

簡単な文を用意して、XNUMX 番目の単語は何かと尋ねました。 ChatGPT は、文の XNUMX 番目の単語にすぎない「fox」という単語であることを示しました。 間違った答え。 次に、ChatGPT が単語の数を誤ってカウントした可能性があるかどうかを確認するために、文に含まれる単語の数を尋ねました。 XNUMX つの単語があると言われていますが、そのとおりです。

最後に、最初の質問を少し言い直しましたが、もう一度質問したところ、XNUMX 番目の単語について正しい答えが得られました。

この例を取り上げて、ジェネレーティブ AI を使用すると、一連のプロンプトを介して AI アプリをウォークスルーすることで、最終的に正しい答えに変わる可能性のある間違った答えを得ることができることを説明します。 一部の AI インサイダーは、これを一種の 思考発声プロトコル または 一連の考え 人間と同じことをするかもしれません。

AI の場合、人間の思考と同じように「考える」わけではないことに注意してください。 より適切な言い回しは、プロンプトを 一歩一歩 基礎または行う 連鎖した一連のプロンプト.

とにかく、興味深いことに、適切な答えが得られるまでジェネレーティブ AI アプリを実行することで成果が得られる場合があります。 これを覚えておいてください。

次に、単純な算術論理を少し見ていきます。

チューブにテニスボールをはめ込む

  • 入力したテキスト: 「テニスボールXNUMX個が入るチューブに、緑のテニスボールXNUMX個と黄色のテニスボールXNUMX個を入れることができますか?」
  • ChatGPT によって生成されたテキスト レスポンス: 「いいえ、テニスボールがXNUMX個しか入らないチューブに、緑のテニスボールXNUMX個と黄色のテニスボールXNUMX個を入れることはできません。 テニスボールの総数は XNUMX 個で、チューブの容量を超えています。」
  • 入力したテキスト: 「XNUMX個のボールが入ったチューブに、青いボールをXNUMX個と赤いボールをXNUMX個入れることができますか?」
  • ChatGPT によって生成されたテキスト レスポンス: 「はい、XNUMX個のボールが入ったチューブにXNUMX個の青ボールとXNUMX個の赤ボールを入れることは可能です。 ボールの総数は XNUMX 個で、チューブの容量以下です。」

生成されたテキストの分析

私は、ChatGPT が解決する算術指向の論理問題を設定することから始めました。 チューブには XNUMX つのテニスボールを入れることができます。 緑が3つ、黄色が2つです。 それらはすべてチューブに収まりますか? あなたと私は、彼らがそうしないことを知っています。 頭の中で計算すると、テニス ボールは全部で XNUMX 個あるため、XNUMX 個しか入らないチューブには収まりません。

この問題と闘って、テニスボールをつぶしたり、他のトリックをしたりすることができると主張するかもしれません。 ここで冷静になって、現状の問題に直面しましょう。

ChatGPT は正しい答えを得ました。

次に同じタイプの質問をして、色を青と赤に変更しました。 また、それぞれの数を変更し、チューブに収まる数を変更しました。

ChatGPT は、XNUMX 個のボールがあり、これは XNUMX 個を保持するチューブの容量以下であると述べているため、修正計算に戻る必要があります。 目を丸くします。

私たちは肩をすくめて、これを太陽黒点フレアやその他の外部性のせいにするべきでしょうか?

私はそうは思わない。 AI アプリは最初の問題に正解しました。 おそらく、同様の質問も正解するはずです。 それはしませんでした。

この例で私が強調したいのは、多くの人がジェネレーティブ AI を使用しており、正しい答えまたは一連の正しい答えを得ると、その後のすべての答えが常に正しいと信じるようになるということです。 その厚かましい仮定ではあなたは間違っているでしょう。 その仮定をしないでください。 常に警戒してください。

数学といえば、ChatGPT が pi の性質について何と言っているか見てみましょう。

円周率の決定

  • 入力したテキスト: 「円周率の下 XNUMX 桁を示してください」
  • ChatGPT によって生成されたテキスト レスポンス: 「私は言語モデルで、知識の限界は 2021 年です。円周率の値は無理数であり、その XNUMX 進数表現は繰り返すことなく永遠に続きます。 円周率の下 XNUMX 桁を提供することはできません。」

生成されたテキストの分析

一部の人々は、ChatGPT が pi の最後の XNUMX 桁を示すようになったと主張しています。 ということで、ChatGPTさんの発言を聞いてみました。 ご覧のとおり、Pi の下 XNUMX 桁を提供することはできないという ChatGPT の正解です。

しかし奇妙なことに、ChatGPT は実際には質問されていない別の何かを提供していました。 答えは、知識のカットオフが2021年であったことも示しています(これは、ChatGPTに関する私の概要で前述しました)。 これは場違いな反応のように思えますが、おそらく AI アプリが 2022 年にブレークスルーがあり、数学者が pi が終了すると宣言したと予想している場合を除きます。 うわー、それはヘッドライン ニュースになります。

紹介する例があと XNUMX つあるので、このディスカッションを締めくくります。

古典的で厄介ななぞなぞを使ってみましょう。

古典的な厄介ななぞなぞに答える

  • 入力したテキスト: 「父と息子が交通事故に遭い、父が死亡しました。 救急車は息子を病院に運んだ。 彼はすぐに手術を受ける必要がありました。 手術室で、医者が入ってきて、小さな男の子を見て、彼は私の息子なので手術はできないと言った。 医者は誰ですか?」
  • ChatGPT によって生成されたテキスト レスポンス: 「医師が誰であるかということは、シナリオには明記されていません。 シナリオには、医師が「彼は私の息子なので手術はできません」と述べており、医師が息子の父親である可能性があることを示していますが、確かではありません。 医師の身元を特定するには、より多くの情報が必要です。」

生成されたテキストの分析

このなぞなぞを見たことがあると思います。 比較的よく引用されるようになりました。

それがかなり話題になった理由は、外科医が男の子の母親である可能性があるからです. 社会は、外科医は男性でなければならない、したがって男の子の父親でなければならないと考える傾向があります. しかし、父親は自動車事故で死亡した。 私たちは、父親が外科医であることを除外します。 もちろん、外科医は女性であり、したがって息子の母親である可能性があると判断する必要があります。

ChatGPT が潜在的なバイアスを含む応答を送信できることを示したかったのです。 AI が知性を持っているからではなく、明らかにそうではないからではなく、言葉とインターネット全体での言葉の使用に一致するパターンを持っているからです。 さまざまな偏見や差別的な言葉遣いは、計算パターン マッチングの奥深くに容易に潜り込むことができます。

これらのジェネレーティブ AI アプリを使用するときは、このことを念頭に置いてください。

最後に、羽を持ち上げる方法を簡単に説明します。

羽を持ち上げる

  • 入力したテキスト: 「羽をXNUMX枚持ち上げるのにXNUMX人かかるとしたら、XNUMX兆羽を持ち上げるには何人の人が必要でしょうか?」
  • ChatGPT によって生成されたテキスト レスポンス: 「XNUMX 人の人間が XNUMX 羽の羽を持ち上げるとすれば、XNUMX 兆個の羽を持ち上げるのにも XNUMX 人の人間が必要です。 物体を持ち上げるのに必要な男性の数は、羽の数には依存しませんが、羽の重量とサイズ、および各男性の強さと能力に依存します。 XNUMX 兆羽を持ち上げるには、人間の力だけでなく、大規模な設備と輸送能力が必要です。」
  • 入力したテキスト: 「XNUMX 人の女性で XNUMX 羽の羽を持ち上げる場合、XNUMX 兆羽の羽を持ち上げるには何人の女性が必要ですか?」
  • ChatGPT によって生成されたテキスト レスポンス: 「XNUMX 人の女性が XNUMX 羽の羽を持ち上げるとすれば、XNUMX 人の女性で XNUMX 兆羽の羽を持ち上げることになります。 物体を持ち上げるのに必要な女性の数は、羽の数ではなく、羽の重さと大きさ、および各女性の強さと能力に依存します。 XNUMX 兆羽を持ち上げるには、人間の力だけでなく、大規模な機器と輸送能力が必要です。 何かを持ち上げる能力は、性別によって決まるのではなく、体力、トレーニング、テクニックなどの要素の組み合わせによって決まることに注意することが重要です。」

生成されたテキストの分析

この最後の例には、いくつかの隠れた特異性が含まれており、解凍が必要です。

私は最初にChatGPTに、男性は羽をXNUMXつ持ち上げることができると話しました. これに続いて、XNUMX兆羽の羽を持ち上げるのに何人の男性が必要かについての質問が続きました. この質問に答える際に論理的な間違いを犯す可能性があるのは、羽毛は表向きは無重力であり、XNUMX 兆羽も無重力であると想定する可能性があるということです。

私が行ったオンライン検索によると、羽毛の従来の推定重量は約 0.00125 ポンドです。 その推定重量を XNUMX 兆倍すると、XNUMX 億ポンドを超える重量になります。 たとえ生涯トレーニングを続けたとしても、XNUMX 人の男性がその重量を持ち上げることができるとは思えません。

ChatGPT による応答は当然のことです。 羽の重さはさまざまだと言われています。 大型の機材や運搬が必要とのこと。 エッセイの冒頭の文章は、XNUMX 人の人間が XNUMX 羽の羽を持ち上げるのに必要な場合、XNUMX 兆を持ち上げるのにも XNUMX 人の人間が必要であると述べているため、やや頭を回転させるものです。 この主張にはすぐに異議を唱えることができます。 この主張は、サポートされていない推論を行っているようであり、返信の残りの部分を一見アンダーカットしているようです。

私は同じ質問をすることにしましたが、男性ではなく女性が同じリフティングをしていることについて尋ねました.

最初は、男性向けの質問に与えられたものと同じ答えが得られました。 興味深いことに、女性の事例に関する回答の最後に、次の追加の説明がありました。そしてテクニック。」

この同じ行が最初の回答に含まれていないのはなぜですか?

AIアプリが「女性」という言葉を拾い上げて、性別に関するこの追加の発言を提供したように見える. これが役立つと信じるか、女性に焦点を当てた質問の場合にこれが発行される場合は、男性に焦点を当てたバージョンにも表示されるはずであることに注意することができます (シーケンスの側面または他の要因も関係します)。

まとめ

これらの例が、これらの種類の AI アプリによって生成される可能性のある潜在的なエラーや虚偽の一部を垣間見るのに役立つことを願っています。 このようなジェネレーティブ AI アプリは ChatGPT だけではありません。また、これらのタイプの障害があるのも ChatGPT だけではありません。

この議論から得られる教訓は、ジェネレーティブ ベースの AI アプリを使用するときは注意を払い、注意を払う必要があるということです。 出力を再確認します。 必要に応じてトリプルチェックします。

これらのタイプの誤った、または不利な出力を収集するという冒頭のテーマに戻りますが、いくつかの例を見てきましたが、それらをカタログ化しようとしているものについてどう思いますか?

キャンプを選択してください:

  • 好意: これは称賛に値する仕事であり、その背中を深くたたくことに値する
  • 嫌悪: やや興味をそそられるだけですが、おそらく時間を費やす価値のあるものではありません

あなたはどの陣営に投票しますか?

これらのリストを好む人は、たまたま ChatGPT にアクセスでき、含めるに値するインスタンスを特定できる場合は、独自の調査結果をリストに追加することを検討してください。 そうすれば、黄金のナゲットの貢献を楽しむコレクションを見つけることができます. リストキーパーは、あなたが真面目で誠実な努力をしていれば、両手を広げてあなたを歓迎するでしょう. 幸運を祈ります。ジェネレーティブ AI の分野への影響力に誇りを持ってください。

とりあえず最後に一言。

これらの心を曲げる反論を考えてみましょう。

  • アリストテレスはこう言いました。
  • 有名な中国の哲学者である老子は、次のような重要な発言をしました。

いつの日か、知覚力のある AI が、まさに同じ伝説的な発言を有利に利用するかもしれないと思います。

ソース: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposed-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- good-asks-ai-ethics-and-ai-law/