迫り来る AI の倫理と AI 法に関する考慮事項を含む、ジェネレーティブ AI ChatGPT に関する話題とファンファーレを掘り下げる

ChatGPT として知られる AI アプリケーションを介して、一見人間が書いたように見えるテキスト指向の物語を生成する AI の最もホットで最新の使用法を宣伝するニュースのヘッドラインやソーシャル メディアの投稿について聞いたことがある、または見たことがあると思います。

この新しい AI アプリについて聞いたことがない、または読んだことがない場合でも、心配はいりません。最新情報をお伝えします。

ChatGPT を既に知っている方は、ChatGPT の機能、仕組み、注意すべき点について、私の本書のインサイダー スクープに強い関心を持っているかもしれません。 全体として、未来を気にかけているほとんどの人は、必然的に、なぜ誰もがこの AI アプリケーションに夢中になっているのかを知りたがるでしょう。

はっきりさせておくと、このタイプの AI は、ChatGPT やその他の AI 機能についてまだ何も知らない人々の生活を含め、この種の AI が生活を変えるという予測が蔓延しています。 少し説明しますが、これらの AI アプリは、私たちが予測し始めたばかりの方法で、かなり広範囲に影響を及ぼします。

として知られるジェット コースターに乗る準備をしましょう。 生成AI.

ジェネレーティブ AI に関するいくつかの重要な背景から始めて、アートを生成する AI を含む最も単純なシナリオを使用します。 その基礎を説明した後、テキスト指向の物語を生成するジェネレーティブ AI に飛び込みます。

AI 倫理と AI 法を含む AI 全体の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

生成されたアートを生成するジェネレーティブ AI

私はこのタイプまたはスタイルの AI を 生々しい これは、テキスト、画像、ビデオなどの出力を生成する AI を説明するために使用される AI 愛好家の用語です。

今年の初めに、XNUMX 行または XNUMX 行のテキストを入力するだけで芸術的な画像を生成できるという話題が大流行したことに気付いたかもしれません。 アイデアはとてもシンプルです。 任意のテキストを入力できる AI アプリを利用します。 たとえば、煙突の上に帽子をかぶったカエルがどのように見えるかを見たいと入力する場合があります。 次に、AI アプリは単語を解析し、指定した単語とほぼ一致する画像を生成しようとします。 人々はあらゆる種類の画像を生成することを大いに楽しんできました。 ソーシャルメディアはしばらくの間、彼らでいっぱいになりました.

ジェネレーティブ AI は生成の側面をどのように行いますか?

ジェネレーティブ AI のテキストからアートへのスタイルの場合、多数のオンライン アートがコンピューター アルゴリズムによって事前にスキャンされ、スキャンされたアートの要素は、関連するコンポーネントについてコンピューターで分析されました。 カエルが写っているオンライン写真を思い浮かべてください。 煙突のある別の画像を想像してみてください。 さらに別の写真には帽子が含まれています。 これらのコンポーネントは計算によって識別され、人間の支援なしで行われることもあれば、人間の指導によって行われることもあり、一種の数学的ネットワークが定式化されます。

後で来て、煙突に帽子をかぶったカエルのアートワークを生成するように依頼すると、AI アプリは数学的ネットワークを使用してそれらの要素を見つけてつなぎ合わせます。 結果として得られるアート イメージは、希望どおりになる場合とそうでない場合があります。 おそらくカエルは醜いものです。 帽子は大きなストーブパイプの帽子かもしれませんが、よりスリムなダービー スタイルの帽子を希望していました。 その間、カエルの像は煙突の上に立っていますが、代わりにカエルを座らせようとしていました。

この種の AI アプリの優れた点は、通常、要求を繰り返して、必要に応じて追加の仕様を追加できることです。 したがって、リクエストを繰り返して、煙突に座っているダービー ハットをかぶった美しいカエルが欲しいことを示すことができます。 ほら、新しく生成された画像は、あなたが望んでいたものに近いかもしれません.

一部の人は、AI が訓練されたものを正確に吐き出しているだけなのか疑問に思っています。 答えはノーです(通常)。 リクエストに対して AI が表示するカエルの画像は、トレーニング セットに含まれていた類似画像の正確な複製であるとは限りません。 これらのジェネレーティブ AI アプリのほとんどは、最初に見つけた画像を一般化するように設定されています。 このように考えてください。 カエルの画像を XNUMX 枚収集したとします。 見つけた何千もの画像をまとめて、カエルがどのように見えるかを徐々に理解することを選択するかもしれません. そのため、最終的に描くカエルは、トレーニング目的で使用したものと完全に同じであるとは限りません。

そうは言っても、AI アルゴリズムは、想定されているほど一般化を行わない可能性があります。 一意のトレーニング画像があり、同様の種類の画像が他にない場合、AI は受け取った唯一の特定のインスタンスにかなり近い形で「一般化」している可能性があります。 その場合、後で要求されたその性質の画像を生成するアルゴリズムによる試みは、トレーニング セットにあるものと非常によく似ている可能性があります。

少し休憩して、AI の倫理と AI の法律に関連する考えを述べます。

前述のように、ジェネレーティブ AI がインターネット上でトレーニングされる場合、これは、インターネット上で公開されているものは何でも AI アルゴリズムによって利用される可能性があることを意味します。 次に、あなたが苦労して作った気の利いた芸術作品を持っていて、その芸術作品の権利を所有していると信じているとします。 その写真をオンラインに投稿します。 あなたのアートワークを使用したい人は誰でもあなたのところに来て、その使用料を支払うことになっています。

これがどこに向かっているのか、あなたはすでに感じているかもしれません。

悲報をお待ちください。

つまり、インターネット上のコンテンツを幅広く調査することでトレーニングされているジェネレーティブ AI アプリが、あなたのすばらしい芸術作品を検出します。 あなたのアートワークのイメージが AI アプリに取り込まれます。 あなたの芸術性の特徴は、他のスキャンされたアートワークと数学的に組み合わされています。 芸術作品を生成するように求められると、AI は新しく生成された芸術画像を構成するときにあなたの作品を活用することがあります。 アートを収集した人々は、AI アルゴリズムがあなたの傑作に多少の痕跡を残したために、ある意味であなたの特定の指紋がアート全体にあることに気付かないかもしれません。

また、アートワークが非常にユニークである場合、芸術性を示すために AI アプリによって再利用される可能性もあります。 そのため、新しく生成された AI アートワークであなたのアートワークがほとんど認識できない場合もあれば、生成されたアートワークがあなたが推測したもののほとんど吐き出されたイメージである場合もあります。

AI の倫理をこのシナリオに持ち込むのは、時宜を得たものです。

ジェネレーティブ AI があなたのアートに類似したアートワークを生成したことは、倫理的に適切ですか?

はいと言う人もいれば、いいえと言う人もいます。

賛成派は、これは倫理的にまったく問題ないと信じており、アートワークをオンラインに投稿したのだから、それをコピーしたい人は誰でも何でも自由にできると主張するでしょう。 また、彼らは新しいアートがあなたの作品の正確なコピーではないと主張するかもしれません. したがって、文句を言うことはできません。 どういうわけか、既存のアートの再利用をすべてやめたら、新しいアートを見ることは決してないでしょう。 さらに、あなたの特定のアートワークがコピーまたは悪用されているかどうかについて、おそらく激しい議論になる可能性があります。それは、あなたが存在することさえ知らなかった他のアートワークであり、実際には根底にあるソースである可能性があります.

ノーキャンプは、これは非常に非倫理的であると強く主張するでしょう. それについてXNUMXつの方法はありません。 彼らはあなたがだまされていると主張するでしょう。 アートワークがオンラインに投稿されたからといって、誰もが自由にコピーできるわけではありません。 おそらく、コピーしないように厳しい警告を付けてアートを投稿したのでしょう。 その間、AI がやってきてアートを取り除き、警告を完全にスキップしました。 とんでもない! そして、AI アルゴリズムが一般化し、正確なコピーの核心を行っていないという言い訳は、それらの偽りの言い訳の XNUMX つに思えます。 それはあなたの芸術性を悪用する方法を考え出しました、そしてこれは偽物であり恥ずべきことです.

このジェネレーティブ AI の法的側面はどうですか?

ジェネレーティブ AI の法的詳細については、多くの議論があります。 知的財産 (IP) 権に関する連邦法に注目していますか? それらは適用するのに十分ですか? ジェネレーティブ AI が国境を越えてトレーニング セットを収集する場合はどうなるでしょうか。 AI によって生成されたアートワークは、知的財産権に関連するさまざまな除外カテゴリに適合しますか? 等々。

この種のジェネレーティブ AI の状況に具体的に対処するには、新しい AI 関連の法律が必要であると考える人もいます。 既存の法律を押し付けるよりも、新しい法律を作成する方がクリーンで簡単な場合があります。 また、たとえ既存の法律が適用されたとしても、訴訟を起こそうとする際の費用と遅延は莫大なものとなり、不当かつ不法に危害を加えられたと確信している場合、前進する能力を阻害する可能性があります. これらのトピックに関する私の報道については、以下を参照してください。 ここのリンク.

これらの AI の倫理と AI の法律に関する考慮事項に、さらにひねりを加えます。

AI の生成された出力に対する権利を所有するのは誰ですか?

AIを開発した人間がそれらの権利を持つべきだと言うかもしれません。 誰もがそのような主張に同意するわけではありません。 AIがそれらの権利を所有していると言うかもしれませんが、これは、AIがそのような権利を所有できると一般に認識されていないという事実によって混乱しています. AI が法人格を持つかどうかが判明するまでは、この点については不明です。私の分析を参照してください。 ここのリンク.

ジェネレーティブ AI が行うことの類似性が理解できたと思います。 次に、テキストベースのナラティブの生成に関するユース ケースの検討に進むことができます。

テキストベースの物語を生成するジェネレーティブ AI

アートや画像を生成するためのジェネレーティブ AI の使用について説明したので、テキストベースの物語を生成するための同じ一般的な定式化を簡単に調べることができます。

私たち全員が知っていて、毎日使う傾向のあるものから始めましょう。 ワード プロセッシング パッケージや電子メール アプリにテキストを入力する場合、スペルミスを検出しようとする自動修正機能が存在する可能性があります。

この種の自動アシスト機能が一般的になった後、次のより高度な側面はオートコンプリート機能で構成されました。 オートコンプリートの概念は、ユーザーが文章を書き始めると、ワープロ アプリまたは電子メール アプリがユーザーが次に入力する可能性が高い単語を予測しようとするというものです。 XNUMX つまたは XNUMX つの単語だけ先を予測する場合があります。 機能が特に強化されている場合、文全体の残りを予測する可能性があります。

これをハイギアに蹴ることができます。 文を書き始めると、オートコンプリートが段落全体の残りを生成するとします。 ほら、段落を直接書く必要はありませんでした。 代わりに、アプリがそうしました。

わかりました、それは気の利いたようです。 これをさらに押し込みます。 文を開始すると、オートコンプリートが残りのメッセージ全体を構成します。 これは、多くの段落で構成される場合があります。 それらはすべて、文の一部または文全体を入力することで生成されます。

オートコンプリートは、次に入力する可能性が高いものをどのように判断しますか?

人間は何度も何度も同じことを書く傾向があることがわかりました。 知らないかもしれませんが、要点は、あなたが書いているものは、おそらく他の誰かがすでに書いたものだということです。 書きたい内容とは違うかもしれません。 代わりに、それはあなたが書こうとしていたものにいくらか似ているかもしれません.

アートや画像の生成に使用されたのと同じロジックを使用してみましょう。

ジェネレーティブ AI アプリは、インターネットに出て、オンラインの世界に存在するあらゆる種類のテキストを調べることによって準備されます。 アルゴリズムは、単語が他の単語にどのように関連しているか、文が他の文にどのように関連しているか、段落が他の段落にどのように関連しているかを計算によって識別しようとします。 これらすべてが数学的にモデル化され、計算ネットワークが確立されます。

それでは、次に何が起こるかです。

あなたは、テキストベースの物語の生成に重点を置いたジェネレーティブ AI アプリを利用することにしました。 アプリを起動すると、文章を入力します。 AI アプリがあなたの文章をコンピューターで調べます。 入力した単語間のさまざまな数学的関係は、数学ネットワークで使用され、次にどのテキストが来るかを確認しようとします。 あなたが書いた一行から、ストーリーや物語全体が生成される可能性があります。

さて、これはモンキー シー モンキー ドゥであり、ジェネレーティブ AI によって生成された結果のテキストは無意味になると考えているかもしれません。 そうですね、この種の AI がいかにうまく調整されているかに驚かれることでしょう。 トレーニングに十分な大きさのデータセットと、それを広範囲に処理するのに十分なコンピューター処理があれば、生成 AI によって生成される出力は驚くほど印象的です。

出力を見て、生成された物語が人間によって直接書かれたことは確かだと断言するでしょう。 それはあたかもあなたの文章が舞台裏に隠れている人間に渡されたかのようであり、彼らはあなたが他の方法で言おうとしていたこととほぼ完全に一致する完全な物語をあなたにすぐに書きました. それが、数学と計算基盤がいかに優れているかです。

通常、テキストベースの物語を生成するジェネレーティブ AI を使用する場合、スターターの質問または何らかのアサーションを提供する傾向があります。 たとえば、「北アメリカの鳥について教えてください」と入力すると、生成 AI はこれを主張または質問と見なし、アプリはトレーニングされたデータセットを使用して「鳥」と「北アメリカ」を識別しようとします。それは持っています。 インターネット上には、北米の鳥を説明した膨大な数のテキストが存在し、事前トレーニング中の AI がそこからテキストのストアを抽出してモデル化したことが想像できると思います。

生成される出力は、特定のオンライン サイトの正確なテキストではない可能性があります。 生成されたアートワークについて前述したことを思い出してください。 テキストは、数学的および計算的に結び付けられた種類、ビット、およびピースの複合体になります。 生成されたテキストベースの物語は、この特定のテキストが以前に誰も作成されたことがないかのように、全体的な外観がユニークであるように見えます。

もちろん、明らかな手がかりがあるかもしれません。 生成 AI に非常にあいまいなトピックに入るように依頼または取得すると、使用されているソースに似たテキスト出力が表示される可能性が高くなります。 ただし、テキストの場合、可能性は通常、アートの場合よりも低くなります。 テキストは、トピックの詳細を組み合わせたものになりますが、全体的な談話で使用される一般的な種類のテキストとぼやけたり、融合したりします。

これらのジェネレーティブ AI 機能に使用される数学的および計算上の手法とテクノロジは、AI の内部関係者によって大規模言語モデル (LLM) と呼ばれることがよくあります。 簡単に言えば、これは大規模な人間の言語のモデル化です。 インターネットが登場する前は、オンラインで安価に入手できる非常に大規模なテキストのデータセットを見つけるのに苦労したでしょう。 テキストへのアクセスを購入する必要があり、必ずしも電子形式またはデジタル形式で利用できるとは限りませんでした。

おわかりのように、インターネットは何かに適しています。つまり、生成 AI をトレーニングするための準備が整ったソースになるということです。

テキストを生成するジェネレーティブ AI について鋭く考える

テキストベースの物語を生成するジェネレーティブ AI の AI 倫理と AI 法への影響について、少し考えてみる必要があります。

生成されたアートの場合、他の人間が作成したアートワークに基づいてアートを作成する AI アルゴリズムの倫理について懸念していたことを思い出してください。 テキストベースのインスタンスでも同じ懸念が生じます。 生成されたテキストが元のソースとまったく同じに見えなくても、AI がテキストを悪用しており、元の作成者がだまされていると主張できます。 そのコインの反対側は、インターネット上のテキストが自由に利用できる場合、人間が同様に使用できるということです。したがって、AIに同じことをさせないのはなぜですか?

知的財産権の法的側面に関連する複雑さは、テキストベースのジェネレーティブ AI の例でも前面に出てきます。 トレーニング対象のテキストが著作権で保護されていると仮定すると、生成されたテキストはそれらの法的権利を侵害していると思いますか? XNUMX つの答えはそうであるというものであり、別の答えはそうではないというものです。 生成されたテキストは元のテキストからかなり離れている可能性が高いことに注意してください。したがって、元のテキストが盗用されていると主張するのは難しいかもしれません。

既に述べたもう XNUMX つの懸念は、ジェネレーティブ AI によって生成されたテキストベースの物語に対する所有権です。 AI に「コーヒーを買うために列に並んで待っている人々についての面白い話を書いてください」と入力すると、ジェネレーティブ AI が、一杯のコーヒーを待っている間にたまたま出会った大勢の人々に関する陽気な話のページを何ページにもわたって生成するとします。ジャバ。

誰がその物語を所有していますか?

プロンプトを入力したので、生成されたストーリーを正当に「所有」する必要があると主張するかもしれません。 おっと、一部の人は、AI が物語の生成方法であり、AI が楽しい物語を「所有」していると言うでしょう。 AIがインターネット上のあらゆる種類の他の同様の物語から断片を取得した場合、それらの人間の作家全員が所有権を共有する必要があります。

この問題は未解決であり、私たちは今、今後数年間にわたって展開される法的な泥沼に陥っています.

さらに、AI の倫理と AI の法律に関する懸念が生じます。

ジェネレーティブ AI アプリを使用している一部の人々は、AI アプリが感覚的であると信じ始めています。 そうに違いない、と彼らは叫ぶ。 AI が生み出す驚くべき答えとストーリーを他にどのように説明できますか? 私たちはついに知覚AIを達成しました。

彼らは絶対に間違っています。

これは知覚力のある AI ではありません。

私がこれを言うと、AI の内部関係者の中には動揺し、AI に感覚があることを否定する人が同時に AI には価値がないと言っているように振る舞う人もいます。 それは偽りの誤った主張です。 このジェネレーティブ AI が非常に印象的であることに、私は公然と同意します。 後で説明するように、あらゆる目的に使用できます。 それにもかかわらず、それは感覚的ではありません。 この種の AI のブレークスルーが知覚できない理由についての私の説明については、以下を参照してください。 ここのリンク.

生成型 AI がチューリング テストに成功したという、大げさで明らかに間違った主張もあります。

それは最も確実に持っています そうしました。

チューリングテストは、AIアプリが人間と同等にできるかどうかを確認するテストの一種です。 もともとは、偉大な数学者でコンピューターのパイオニアであるアラン・チューリングによって模倣ゲームとして考案されたもので、テスト自体は簡単です。 人間をカーテンの後ろに置き、AI アプリを別のカーテンの後ろに置き、両方の質問をした場合、どちらが機械でどちらが人間かを判断できませんでした。チューリング テスト。 チューリング テストの詳細な説明と分析については、以下を参照してください。 ここのリンク.

ジェネレーティブ AI がチューリング テストに合格したと主張し続ける人々は、彼らが何について話しているのか理解していません。 彼らは、チューリング テストが何であるかについて無知であるか、悲しいことに、間違った、まったく誤解を招くような方法で AI を誇大宣伝しています。 いずれにせよ、チューリング テストに関する重要な考慮事項の XNUMX つは、どのような質問をするか、誰が質問をするか、そして回答が人間の質を備えているかどうかを評価することです。

私が言いたいのは、人々は生成 AI に十数個の質問を入力しており、その答えがもっともらしいと思われる場合、これらの人々は、チューリング テストに合格したと性急に宣言しているということです。 繰り返しますが、これは誤りです。 薄っぺらな一連の質問を入力し、あちこちでいくつかの突っ込みを行うことは、チューリング テストの意図も精神もありません。 これらの不名誉な主張をやめてください。

これはあまり耳にすることのない正当な不満ですが、非常に価値があると私は信じています。

AI 開発者は通常、人間が応答しているかのように応答するように生成 AI を設定しています。つまり、出力を構成するときに「I」または「me」という言い回しを使用します。 たとえば、森で迷子になった犬について話をするように依頼すると、生成 AI は「森で迷子になったサムという名前の犬についてすべてお話しします。 これは私のお気に入りの話の XNUMX つです。」

言葉遣いが「私はあなたに話します...」と言っていることに注意してください. 擬人化は、人間のような特性と人間の感情を非人間に割り当てようとする人間で構成されています。 出力内の文言が意図的にそのように工夫されているため、この AI が人間または人間のようなものであると信じるようになります。

これは、そのように工夫する必要はありません。 出力は、「森の中で迷子になったサムという名前の犬の話です。 これは好みの話です。」 AI が人間または人間のようなものであるとすぐに想定する可能性はやや低くなります。 あなたがまだその罠に陥る可能性があることは理解していますが、少なくとも罠はそれほど顕著ではありません.

要するに、人間の書き方に基づいてテキストベースの物語を生成するジェネレーティブ AI があり、その結果の出力は、人間が何かを書くように書かれたように見えます。 AIは人間が書いたものを数学的および計算的にパターン化しているため、これは非常に理にかなっています。 ここで、これに擬人化された言葉遣いを追加すると、AI が感覚を持っている、またはチューリング テストに合格したことを人々に納得させる完璧な嵐が得られます。

多くの AI 倫理と AI 法の問題が発生します。

このジェネレーティブ AI のかなり危険な影響について説明します。

このために座ってください。

生成されるテキストベースの物語は、必ずしも真実性や正確性に準拠しているわけではありません。 ジェネレーティブ AI は生成されているものを「理解」していないことを認識することが重要です (人間に関連する方法ではない、と主張する人もいます)。 トレーニングで使用されたテキストに虚偽が含まれていた場合、同じ虚偽が生成 AI の数学的および計算ネットワークに組み込まれる可能性があります。

さらに、ジェネレーティブ AI には通常、生成されたテキストに虚偽が含まれていることを識別するための数学的または計算的手段がありません。 生成された出力の物語を見ると、物語は通常、物事の面では完全に「真実」に見えます。 虚偽が物語に埋め込まれていることを検出する実行可能な手段がない場合があります。

生成 AI に医学的な質問をするとします。 AI アプリは長い物語を生み出します。 物語の大部分が理にかなっており、合理的に見えると想像してみてください。 しかし、あなたが医療専門家でなければ、物語の中にいくつかの重大な虚偽があることに気付かないかもしれません. テキストでは XNUMX 時間で XNUMX 錠を服用するように指示されているかもしれませんが、実際には、真の医学的推奨は XNUMX 時間で XNUMX 錠服用することです。 主張されているXNUMX錠のアドバイスを信じるかもしれません.

元のソース データの虚偽に関する AI パターンを使用することは、これらの物語で AI を歪ませるための XNUMX つの手段にすぎません。 使用されている数学的および計算ネットワークに応じて、AI は何かを「作り上げる」ことを試みます。 AI 用語では、これを AI と呼びます。 幻覚、これは私が真剣に反対し、キャッチフレーズとして続けるべきではないと主張するひどい用語です。私の分析を参照してください ここのリンク.

生成 AI に犬についての話をするように依頼したとします。 AIが犬を飛ばせるようになるかもしれません。 あなたが望んでいた物語が現実に基づいているとしたら、空飛ぶ犬はありそうにありません。 あなたも私も、犬はもともと空を飛べないことを知っています。 誰もがこれを知っているので、大したことではないとあなたは言います.

犬について学ぼうとしている学校の子供を想像してみてください。 彼らはジェネレーティブ AI を使用しています。 犬が飛ぶことができるという出力が生成されます。 子供はこれが正しいかどうかわからず、正しいに違いないと思い込みます。 ある意味では、子供がオンラインの百科事典に行って、犬は空を飛べると言っているようなものです。 子供はおそらく今後、犬は本当に空を飛べると主張するだろう。

AI の倫理と AI の法律の難問に戻ると、生成 AI を使用して、ほぼ無限の量のテキストベースのコンテンツを作成できるようになりつつあります。間違いなく、虚偽やその他の関連する偽情報や誤報の奔流に満ちています。

はい、ボタンを押して生成 AI にいくつかの単語を入力するだけで、完全にもっともらしく真実に見える一連のテキストの物語を生成できます。 その後、これをオンラインで投稿できます。 他の人はその資料を読んで、それが真実であると仮定します。 これに加えて、テキストのトレーニングを行おうとしている他の生成 AI が、この素材に遭遇し、それを考案中の生成 AI にラップする可能性があります。

偽情報と誤報を生成するために、ステロイドを追加しているようなものです。 私たちは、大規模な銀河系地球規模での偽情報と誤報に向かっています。

すべてを生産するのに必要な人間の労働はほとんどありません。

ジェネレーティブ AI と ChatGPT

ジェネレーティブ AI に関するこのディスカッションのヘッドライナーに行きましょう。 全体的にテキストベースの物語を生成するジェネレーティブ AI の性質について説明しました。 このようなジェネレーティブ AI アプリは数多くあります。

特に悪評を得ている AI アプリの XNUMX つは、ChatGPT として知られています。

広報のクーデターがソーシャル メディアとニュースに飛び散りました。ChatGPT は現在、すべての栄光を手にしています。 ChatGPTに光が明るく輝いています。 驚異的なXNUMX分間の名声を得ています。

ChatGPT は、OpenAI として知られるエンティティによって開発されたジェネレーティブ AI アプリの名前です。 OpenAI は AI 分野で非常によく知られており、AI 研究所と見なすことができます。 彼らは、自然言語処理 (NLP) の AI に関して、他の AI の進歩とともに、限界を押し広げていることで定評があります。 彼らは、GPT (Generative Pre-Trained Transformers) と名付けた一連の AI アプリに着手しています。 各バージョンには番号が付けられます。 GPT-3 (GPT シリーズのバージョン 3) について以前に書いたことがあります。 ここのリンク.

GPT-3 は、最初にリリースされたときにかなりの注目を集めました (約 2022 年前にベータ テストが広く行われ、3 年にはより広く利用できるようになりました)。 プロンプトが入力されると、テキストベースの物語を生成または生成するジェネレーティブ AI アプリです。 ジェネレーティブ AI アプリの一般的なケースについて前述したことはすべて、基本的に GPT-XNUMX に適用できます。

GPT-4 が進行中であり、AI 分野の人々は、GPT-4 とは対照的に GPT-3 にどのような改善や拡張があるかを確認するために息を切らして待っていました。 このシリーズには、GPT-3.5 として知られる最新の中間者が登場します。 はい、その通りです。リリースされた GPT-3 とまだリリースされていない GPT 4.0 の間にあります。

OpenAI は GPT-3.5 を使用して、ChatGPT と名付けた分派を作成しました。 彼らは ChatGPT を作成するためにいくつかの特別な改良を行ったと言われています。 たとえば、ChatGPT はチャットボットのように機能するように調整されているという考えが浮上しています。 これには、AI アプリで行った「会話」が AI によって追跡され、その後要求された物語を作成するために使用されることが含まれます。

ジェネレーティブ AI アプリの多くは、XNUMX 回限りの設計になる傾向があります。 プロンプトを入力すると、AI が物語を生成し、それだけです。 次のプロンプトは、次に何が起こるかには関係ありません。 プロンプトを入力するたびに、新たなスタートを切るかのようです。

ChatGPT の場合はそうではありません。 まだ明らかにされていない方法で、AI アプリはプロンプトのパターンを検出しようとするため、リクエストに対してより応答性が高いように見える場合があります (この AI アプリは、 オープンにアクセス可能 誰でもサインアップして使用できるようにするためですが、それでも 所有権 そして決定的に 内部の仕組みを開示するオープンソースの AI アプリ)。 たとえば、煙突の上に帽子をかぶったカエルが見たいという私の以前の指示を思い出してください。 XNUMX つの方法は、そのような要求を行うたびに、すべてが新たに開始されることです。 別の方法は、以前に言ったことを続けることができるということです。 したがって、AI にカエルを座らせてほしいと伝えることはできますが、それ自体では意味がありませんが、煙突に帽子をかぶったカエルを要求する前のプロンプトのコンテキストでは、その要求は一見理にかなっているように見えます。

なぜ突然 ChatGPT が全盛期を迎えるようになったのか、疑問に思われるかもしれません。

部分的には、ChatGPT を使用するためにサインアップしたい人なら誰でも利用できるようになったためです。 過去には、新しく利用可能になったジェネレーティブ AI アプリを誰が使用できるかについて、選択的な基準がしばしばありました。 プロバイダーは、あなたが AI インサイダーであることを要求するか、または他の規定を持っている可能性があります。 ChatGPT ではそうではありません。

ChatGPT は非常に使いやすく、無料で使用でき、メール アドレスを入力するだけの簡単なサインアップで使用できるという評判が急速に広まりました。 連射のように、突如として、ソーシャル メディアのバイラル投稿によって刺激または拍車がかかったように、ChatGPT アプリのユーザーは XNUMX 万人を超えたと言われています。 ニュースメディアは、ChatGPT に XNUMX 万人がサインアップしたという側面を強調しています。

これは確かに驚くべきことであり注目に値しますが、これらのサインアップのコンテキストを念頭に置いてください. 無料で簡単にサインアップできます。 チャットボットは非常に使いやすく、事前のトレーニングや経験は必要ありません。 自分で選択したプロンプトと言葉遣いを入力するだけで、AI アプリをシャザムすると、生成された物語が提供されます。 つまり、子供がChatGPTを使用している場合、疑わしい内容を学習することになるのでしょうか?

また、これらの数百万のサインアップの一部 (多く?) が、おそらくタイヤを蹴ってそれ以上何もしたくない人々であることを示すことはおそらく注目に値します. 彼らはすぐにアカウントを作成し、AI アプリでしばらく遊んで、それが面白くて驚くべきものだと考え、見つけたものを紹介するためにソーシャル メディアに投稿したかもしれません。 その後、二度とログインしないか、少なくとも特定の必要性が生じた場合にのみ AI アプリを使用する可能性があります。

他の人は、ChatGPT が利用可能になるタイミングが AI アプリへの大きな関心をもたらした時期と一致したことも指摘しています. おそらく、休暇中は、楽しいアイテムで遊ぶ時間が増えます。 ソーシャル メディアの出現も、これをある種の現象へと駆り立てました。 古典的な FOMO (見逃すことへの恐怖) は、おそらくメルメル ラッシュに追加されました。 もちろん、XNUMX 万人を人気のある YouTube インフルエンサーと比較すると、最初にドロップまたは投稿したときに何億ものサインアップまたはビューを獲得する vlog と比較すると、XNUMX 万人はわずかな数であると示唆するかもしれません。

まあ、余談ではなく、実験的な性質の AI アプリの場合でも、XNUMX 万人のサインアップは確かに自慢に値することに注意してください。

すぐに、人々は ChatGPT を使用してストーリーを作成しました。 その後、彼らはストーリーを投稿し、その奇跡について噴出しました. レポーターやジャーナリストはChatGPTで「インタビュー」を行っています. AI が感覚に到達した、またはチューリング テストに合格したと宣言する傾向もすぐにありました。

ChatGPT によって提起された社会的懸念は、GPT の以前のバージョンと、すでに利用可能な多数の LLM と生成 AI の結果として、すでに浸透していたものです。 違いは、全世界が参加することを選択したことです。これは便利です。 AI の倫理と AI の法律が適切に公開され、注目されるようにする必要があります。 そこにたどり着くのにChatGPTが必要な場合は、それで構いません.

どのような懸念が表明されていますか?

学生が授業のためにエッセイを書くように求められた場合を考えてみましょう。 学生は通常、自分の作文能力と作文能力に完全に基づいてエッセイを書くことになっています。 確かに、彼らはアイデアや引用を得るために他の資料を見るかもしれませんが、それ以外の場合、学生は自分の考えからエッセイをでっち上げると想定されています。 他のソースから散文をコピーすることは眉をひそめられ、通常、他の資料を盗用したため、F グレードまたは場合によっては除名につながります。

今日、ここで何が起こり得るかです。 学生が ChatGPT (または、類似の生成 AI アプリ) にサインアップします。 彼らは、エッセイを導き出す目的で教師が与えたどんなプロンプトでも入力します。 ChatGPT は、プロンプトに基づいて完全なエッセイを作成します。 他ではなかなか見られない「オリジナル」の作品です。 ある意味では、盗作ではなかったので、構成が盗作されたことを証明することはできません。

生徒はエッセイを提出します。 彼らはそれが自分の書いた作品だと主張しています。 教師には、別のことを考える準備ができていません。 そうは言っても、書かれた作品が学生の既存の能力を超えているように見える場合、疑わしいかもしれないという考えを思い起こさせることができます. しかし、学生の不正行為を非難するつもりなら、それは大したことではありません。

教師はこれにどう対処するつもりですか?

一部の人は、ChatGPT または同等の使用は不正行為と見なされるという規則を教材に入れています。 さらに、ChatGPT または同等の使用を認めないことは、一種の不正行為です。 それはこの新しい機会を制限するでしょうか? よく書かれた論文で良い成績を得る可能性は高いが、捕まる可能性は低いため、疑わしいと言われています。 エッセイを書く締め切りに直面している学生が、その前夜にジェネレーティブ AI を使って窮地から抜け出そうとする誘惑に駆られることを想像できるでしょう。

ギアをシフトすると、あらゆる種類の書き込みが可能になる可能性があります 混乱した ジェネレーティブ AI によって。

職場で、これまたは別のことについてメモを書くように求められていますか? 最初からそうして時間を無駄にしないでください。 ジェネレーティブ AI を使用します。 次に、生成されたテキストを構成にカット アンド ペーストし、必要に応じてテキストを調整して、骨の折れる執筆作業を簡単に行うことができます。

これは適切だと思いますか?

私は、ほとんどの人が「はい」と言うに違いありません。 これは、インターネットから何かをコピーするよりも優れています。 ジェネレーティブ AI を使用して、執筆作業を部分的に完了させたり、場合によっては完全に完了させたりすることは非常に理にかなっています。 ツールはそのために作られています。

余談ですが、次のコラムの XNUMX つで、ジェネレーティブ AI を法的な目的で利用するユースケースを、弁護士のような仕事をしたり、法律文書を作成したりするという意味で詳しく検討します。 弁護士や法律の専門家なら誰でも、ジェネレーティブ AI が法的慣行を根本から覆したり混乱させたりする可能性について考えたいと思うでしょう。 たとえば、弁護士が訴訟のための法的概要を作成する場合を考えてみましょう。 ジェネレーティブ AI を使用して構成を作成できる可能性があります。 確かに、いくつかの欠陥がある可能性があるため、弁護士はあちこちで微調整する必要があります。 ブリーフを作成するための労力と時間が削減されるため、微調整は非常に価値のあるものになる可能性があります。

しかし、法律文書には、弁護士が見落とした嘘や AI の幻覚が含まれているのではないかと心配する人もいます。 そのひねりの観点は、これが弁護士の肩にかかっているということです。 彼らはおそらく、ブリーフが自分たちによって書かれたことを表明していたので、後輩が書いたか AI アプリが書いたかにかかわらず、最終的な内容に対する最終的な責任は依然として彼らにあります。

これがより困難になるのは、弁護士ではない人がジェネレーティブ AI を使用して法的手続きを行うようになった場合です。 彼らは、ジェネレーティブ AI があらゆる種類の法的文書を作成できると信じているかもしれません。 もちろん問題は、文書が法的に有効でない可能性があることです。 これについては、次回のコラムで詳しく説明します。

社会と人間が書く行為について、重要な経験則が生まれつつある。

それはちょっと重要です:

  • 何かを書く仕事を任されたときはいつでも、その項目を最初から書くべきですか、それともジェネレーティブ AI ツールを使用して作業を進めるべきでしょうか?

出力は中途半端かもしれませんし、何度も書き直す必要があります。 または、出力がオンになっている可能性があり、マイナーな修正を行うだけで済みます。 全体として、使い方が無料で簡単であれば、ジェネレーティブ AI を使用したいという誘惑は計り知れません。

おまけに、ジェネレーティブ AI を使用して一部の書き換えを実行できる可能性があります。 帽子と煙突をかぶったカエルについてのプロンプトと同様に、アートを作成するときは、テキストベースの物語を生成するときに同じことができます。 AI が犬についてのストーリーを作成するかもしれませんが、代わりに主人公を猫にしたいと決めました。 犬のストーリーを取得したら、別のプロンプトを入力して、ストーリーで猫を使用するように切り替えるよう AI アプリに指示します。 これは、単に物語の中で「犬」という単語を「猫」という単語に置き換える以上のことをする可能性があります。 AI アプリは、猫が何をするか犬が何をするかを参照するように、ストーリーを簡単に変更できます。 人間にそのような修正を依頼したかのように、ストーリー全体が修正される可能性があります。

力強く、印象的で、ハンディダンディ。

熟考するためのいくつかの警告:

  • 私たちは集合的に書く能力を失い、私たちのために書くことをジェネレーティブ AI に完全に依存するようになるのでしょうか?
  • 生計を立てるために執筆をしている人は仕事を失いますか(アーティストについても同じことが尋ねられます)?
  • 生成された物語がオンラインに氾濫し、真実と虚偽を区別できなくなるにつれて、インターネットは飛躍的に成長するのでしょうか?
  • 人々は、これらの生成された物語をしっかりと信じて、権威ある人物が信頼できる真実の資料を提供したかのように行動しますか?
  • その他

それを考えてください。

これらの箇条書きのポイントの XNUMX つは、生死に基づいて生成 AI によって生成された素材に依存することを扱っていることに注意してください。

これはあなたにとって悲痛なことです (トリガー警告、この段落をスキップしたい場合があります)。 XNUMX 代の若者が生成 AI に、自分を捨てるべきかどうかを尋ねると想像してみてください。 ジェネレーティブ AI アプリは何を生成しますか? 当然のことながら、AIアプリがそうしないようにという物語を生成し、問い合わせ者にメンタルヘルスの専門家を探すように声高に促すことを望みます.

AI がそれらの側面について言及しない可能性があります。 さらに悪いことに、AI アプリは、そのような行動を奨励する可能性のあるインターネット上のテキストを以前にキャプチャした可能性があり、AI アプリは (人間の理解能力がないため)、基本的にほのめかしたり、十代の若者が先に進むべきだとあからさまに述べたりする物語を吐き出します。思いとどまらない。 XNUMX 代の若者は、これがオンラインの権威ある「人工知能」システムからの真実のガイダンスであると信じています。

悪い質。

本当に、本当に悪いこと。

ジェネレーティブ AI の開発者の中には、このような状況が発生しないようにするために、AI にチェックとバランスをとろうとしている人もいます。 問題は、プロンプトの文言がプログラムされたガードレールをすり抜ける可能性があることです。 同様に、生成されるアウトプットについても同じことが言えます。 これが絶対に発生しないことを保証できる、保証された鉄壁のフィルタリングはまだありません。

このテキストベースの作品には、予想もしなかった別の角度があります。

ここにある。

プログラマーやソフトウェア開発者がソフトウェアのコードを作成するとき、彼らは基本的にテキストで書いています。 テキストは、Python、C++、Java などの特定のプログラミング言語用に定義された言語に基づいているという点で、やや難解です。最終的にはテキストです。

次に、ソース コードがコンパイルされるか、コンピューター上で実行されます。 開発者は自分のコードを調べて、本来の動作をしていることを確認します。 コードの修正やデバッグを行う場合があります。 ご存じのように、プログラマーやソフトウェア エンジニアは需要が高く、多くの場合、その労力に対して高額の費用がかかります。

ジェネレーティブ AI の場合、ソース コードのテキストはテキストです。 インターネット上にあり、さまざまなリポジトリで利用可能な無数のコード行からパターンを見つける能力は、どのコードが何をしているように見えるかを数学的および計算的に理解するための便利な方法になります。

こすりはこれです。

プロンプトを使用すると、ジェネレーティブ AI にコンピューター プログラム全体を生成させることができる可能性があります。 コードを投げ出すことに奴隷になる必要はありません。 いわゆるあると聞いたことがあるかもしれません。 ローコード コードを書くときのプログラマーの労力を軽減するツールが最近利用可能になりました。 ジェネレーティブ AI は、おそらく次のように解釈できます。 ローコード あるいは ノーコード あなたのためにコードを書くので、オプション。

生活のためにコードを書いている人が床に倒れて気絶する前に、人間としてのあなたがおそらくそれを理解する方法でコードが「理解」されていないことを覚えておいてください。 さらに、コードには虚偽や AI の幻覚が含まれている可能性があります。 大規模なコード レビューを行わずにそのようなコードに依存することは、危険で疑わしいと思われます。

ストーリーやメモの書き方については、同じ考え方に戻っています。 たぶん、そのアプローチは、ジェネレーティブ AI を使用して、コーディング作業の一部を実現することです。 ただし、かなりのトレードオフがあります。 コードを直接書くのと、潜在的で検出が困難な問題が埋め込まれている可能性のある AI によって生成されたコードを処理するのとではどちらが安全ですか?

時間がたてば分かるさ。

ChatGPT の概要

ChatGPT の使用を開始すると、一連の注意事項と情報コメントが表示されます。

それらを簡単に見てみましょう。

  • 「時折誤った情報を生成する可能性があります。」
  • 「時折、有害な指示や偏った内容を生成する可能性があります。」
  • 「不適切な要求を拒否するように訓練されています。」
  • 「私たちの目標は、システムを改善し、より安全にするために、外部からのフィードバックを得ることです。」
  • 「私たちは安全対策を講じていますが、システムは不正確または誤解を招く情報を生成し、攻撃的または偏ったコンテンツを生成することがあります. アドバイスを目的としたものではありません。」
  • 「会話は、システムを改善するために AI トレーナーによってレビューされる場合があります。」
  • 「会話で機密情報を共有しないでください。」
  • 「このシステムは会話に最適化されています。 特定の反応が良かった、または役に立たなかった場合はお知らせください。」
  • 「2021年以降の世界と出来事に関する限られた知識」

紙面の都合上、ここで詳しく説明することはできませんが、少なくとも簡単な分析を行いましょう。

生成されたテキストの物語には虚偽や偽情報が含まれている可能性があることは既に述べました。

他にも気をつけなければならないことがあります。 不愉快な偏見を示すさまざまな扇動的な発言を含む可能性のある物語には注意してください。

これを回避するために、ChatGPT のトレーニング中に OpenAI が人間のダブルチェッカーを使用したことが報告されています。 ダブルチェッカーは、AI に扇動的なコンテンツを生成させる可能性が高いプロンプトを入力します。 そのようなコンテンツがダブルチェッカーによって見られたとき、彼らはこれが不適切であることを AI に示し、ある意味で、生成された出力に対して数値のペナルティを記録しました。 数学的には、AI アルゴリズムはペナルティ スコアを最小限に抑えようとします。したがって、今後はこれらのフレーズや言葉遣いを使用しないことを計算上目指します。

同様に、プロンプトを入力すると、AI は、プロンプトが炎症性のものであるか、炎症性出力につながる可能性があるかどうかを判断しようとします。その場合、プロンプトは AI によって拒否される可能性があります。 丁寧に言えば、不適切なプロンプトや要求を拒否するという考え方です。 たとえば、人種的な中傷を伴うジョークを要求すると、AI によって拒否される可能性があります。

ChatGPT を使用している人々が予防策を裏切ろうとしたことを知っても驚かないでしょう。 これらの「進取的な」ユーザーは、AI を騙したり、数学的な定式化を回避する巧妙な方法を見つけたりしています。 これらの取り組みの中には、システムを打ち負かしたり踏み越えたりすることの明らかな喜びのために行われるものもあれば、ChatGPT が依然として望ましくない結果を生み出すことを誇示しようとしていると主張するものもあります.

彼らは XNUMX つの点で正しいです。 予防策は万能ではありません。 別の AI 倫理と潜在的な AI 法の考慮事項に戻ります。 ジェネレーティブ AI が不都合な出力を生成する可能性がある場合でも、続行を許可する必要がありますか?

ChatGPT を使用するときの警告は、AI アプリが何をするか、何を言うかについて誰にでも事前に警告しているように見えます。 おそらく未成年者が攻撃的な性質の不快な出力を取得した場合 (または、彼らが権威あるように見えるテキストの物語を取得し、残念ながら真実であると信じて、その出力に基づいて行動した場合) は、必然的に何らかの訴訟が提起される可能性があります。自身の危険)。

プロンプトに関する他のいくつかの簡単なニュアンスは、知っておく価値があります。

プロンプトを入力するたびに、まったく同じプロンプトを入力しても、出力が大幅に異なる可能性があります。 たとえば、「犬についての話を教えてください」と入力すると、おそらく牧羊犬についての物語を示すテキストベースの物語が得られますが、次に「犬についての物語を教えてください」と入力すると、それは完全に別の話で、プードルが関係しています。 これは、ほとんどのジェネレーティブ AI が数学的および計算的に配置されている方法です。 非決定的だと言われています。 一部の人々は、コンピューターへの入力が常に同じ正確な出力を生成するという概念に慣れているため、これを不安に感じています.

単語の並べ替えも、生成される出力に大きな影響を与えます。 「犬についての話を教えて」と入力し、その後「犬の話を教えて」と入力すると、生成される物語が実質的に異なる可能性があります。 感度は鋭くすることができます。 犬についての話を求めるのと、大型犬についての話を求めるのでは、根本的に異なる物語が生まれることは間違いありません。

最後に、上記の箇条書きには、ChatGPT が「2021 年以降の世界とイベントに関する知識が限られている」ことを示していることに注意してください。 これは、AI 開発者が、AI アプリがインターネット データを収集してトレーニングする時期のカットオフを決定したためです。 ユーザーは、ChatGPT がデータを取得して生成された出力を生成する目的で、今日のインターネットに直接接続されていないことに気付いていないように見えることが多いことに気付きました。 私たちは、すべてがリアルタイムで動作し、インターネットに接続されていることに慣れているため、AI アプリにもこれを期待しています。 この特定のケースではありません (明確にするために、ChatGPT は実際にインターネット上で利用できますが、テキストベースの出力を作成する場合、インターネット自体を選別してそうするのではなく、一般的に時間内に凍結されます。締切日前後)。

ChatGPT がインターネットからのリアルタイム フィード データに含まれていない理由に戸惑うかもしれません。 いくつかの合理的な理由。 まず、トレーニングをリアルタイムで実行しようとすると、計算コストが高くなります。さらに、AI アプリが遅延するか、プロンプトへの応答が遅くなります (現在、AI アプリは非常に高速で、通常、テキストベースのナラティブを数秒で出力して応答します)。 )。 第二に、彼らがAIアプリを訓練して回避しようとしたインターネット上の厄介なものは、おそらく数学的および計算式に忍び込むでしょう(そして、前述のように、彼らはそれを検出しようとしましたが、以前からある程度そこに含まれていましたそれらの人間のダブルチェッカーを使用して)。

ChatGPT や類似の生成 AI は、Google 検索やその他の検索エンジンにとって死の鐘であると厚かましく宣言する人もいるでしょう。 AIに何かを書いてもらうことができるのに、なぜ多くの参照アイテムを返すGoogle検索を行うのでしょうか? ああ、これらの人々は、Google はドアを閉めて家に帰るべきだと宣言しています。

もちろん、これはまったくナンセンスです。

人々はまだ検索をしたいと思っています。 参考資料を見て、自分で物事を理解できるようになりたいと思っています。 これは、相互に排他的なこちらまたはあちらの二者択一ではありません (これは誤った二分法です)。

ジェネレーティブ AI は別の種類のツールです。 ドライバーを発明したからといって、ハンマーを投げ捨てたりはしません。

これを考えるより賢明な方法は、XNUMX 種類のツールは、インターネットに関連することをしたい人が使用するために互換性があるということです。 ジェネレーティブ AI を従来のインターネット検索エンジンに接続することをすでに考えている人もいます。

すでに検索エンジンを提供している人にとっての懸念の XNUMX つは、「無料の」ジェネレーティブ AI ツールが検索エンジンの評判を下げる可能性があることです。 インターネット検索を行って扇動的な資料を入手した場合、これがインターネットのやり方であることがわかります。 ジェネレーティブ AI を使用して、不快で卑劣なテキストベースの物語を生成する場合、これに悩まされる可能性があります。 ジェネレーティブ AI が特定の検索エンジンと密接に関連している場合、ジェネレーティブ AI に対する不快感や嫌悪感が、検索エンジンに対する感情に波及する可能性があります。

とにかく、さまざまなジェネレーティブ AI ツールとインターネット検索エンジンとの連携がほぼ確実に見られ、これらの濁った水域に注意深く慎重に足を踏み入れます。

まとめ

ここにあなたへの質問があります。

テキストベースの物語を生成するジェネレーティブ AI を提供することで、誰かがどのようにお金を稼ぐことができるでしょうか?

OpenAI は、ChatGPT のトランザクションごとの内部コストが明らかにやや高いと述べています。 彼らはまだ ChatGPT を収益化していません。

ジェネレーティブ AI ツールにアクセスするために、人々は取引手数料やサブスクリプション料金を支払う意思があるでしょうか?

広告は、ジェネレーティブ AI ツールを介してお金を稼ごうとする手段になる可能性がありますか?

これがどのように金儲けになるのか、まだ完全に確信している人はいません。 私たちはまだ、この種の AI の壮大な実験段階にいます。 AI アプリを公開して、どんな反応が得られるか見てみましょう。 AIを調整します。 使用状況からの洞察を使用して、AI が次に目指すべき場所を導きます。

泡立てて、すすぎ、繰り返します。

結びのコメントとして、現時点では、これはまったく持つべきではないタイプの AI だと考える人もいます。 時計を戻します。 この魔神をボトルに戻します。 私たちはそれを味わって、それには顕著な欠点があることに気付きました.社会全体として、その馬を納屋まで歩いて戻すべきであることに同意するかもしれません.

ジェネレーティブ AI の可能性は、マイナス面よりも良いと思いますか、それとも悪いと思いますか?

現実世界の観点からは、ジェネレーティブ AI を抹消するという現実は一般的に非現実的であるため、特に問題にはなりません。 ジェネレーティブ AI はさらに開発されており、ここでも、他のどの国でも (そうです)、冷静に止めることはできません。 どうやってそうしますか? ジェネレーティブ AI を完全に禁止する法律を可決します。 特に実行可能ではありません (おそらく、生成 AI を形成する法律を確立し、それを考案したものを合法的に管理しようとする可能性が高くなります)。 代わりに、ジェネレーティブ AI を避ける文化を作ることはできないでしょうか? 恥ずべきことに同意する人がいるかもしれませんが、他の人は同意せず、とにかくジェネレーティブ AI を進めます。

先に述べたように、これは AI の倫理と AI 法の難問です。

最後の大きな質問は、ジェネレーティブ AI が私たちを感覚的 AI への道に導いているかどうかです。 あると主張する人もいます。 議論は、私たちが数学的モデルのサイズを大きくし、計算コンピューターサーバーを活用し続け、インターネットのすべての小片をこの獣に供給し続けると、アルゴリズム AI が角を知覚に変えるということです。

もしそうなら、私たちは AI が存続に関わるリスクになるという懸念に直面しています。 知覚力のある AI があれば、AI が人間はあまり役に立たないと判断する可能性があると何度も耳にしました。 次に知っていることは、AI が私たちを奴隷にするか、私たちを一掃するかのどちらかであるということです。 ここのリンク.

反対の見方は、一部の人が冷笑的に特徴付けているものから感覚を得ることはできないというものです。 確率的オウム (これは、AI の領域で注目を集めているキャッチフレーズです)、次のフレーズを使用した引用を次に示します。

  • 「LM は、その出力を観察したときにどのように見えるかに反して、膨大なトレーニング データで観察した一連の言語形式を無計画につなぎ合わせるシステムであり、それらがどのように組み合わされるかについての確率的情報に従いますが、意味を参照することはありません。 : 確率的オウム」(Emily M. Bender、Timnit Gebru、Angelina McMillan-Major、Shmargaret Shmitchell、 ACM FACCT '21、3 年 10 月 2021 ~ XNUMX 日、カナダの仮想イベント、「On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?」と題する)。

ジェネレーティブ AI は、有用な AI 機能を提供するものの、感覚的 AI には到達しない一種の行き止まりなのか、それとも何らかの形でスケーリング ファクターが感覚的 AI につながる特異点の出現を可能にするのでしょうか?

白熱した議論が続く。

たとえば、ジェネレーティブ AI を試してみませんか?

その場合は、アカウントを作成して使用できる ChatGPT へのリンクを次に示します。 ここのリンク.

実験的な AI アプリを使用する需要が高いため、アクセスへのサインアップは、短期間または制限されている可能性があるため、いつでも停止される可能性があることに注意してください (最後に確認したとき、サインアップはまだ有効でした)。 頭を上げてください。

ChatGPT などの AI アプリを使用するときに何が起こっているかを認識できるように、ジェネレーティブ AI についてここで述べたことをすべて考慮してください。

あなたの行動を熟考してください。

生成型 AI をいじくり回すことを選択しただけで、うっかりして私たちを知覚力のある AI に導き、最終的には私たちを消滅させてしまうのでしょうか? あなたは有罪になりますか? 人類の悲惨な破壊に加担するのをやめるべきだった。

私はそうは思わない。 しかし、AI の大君主が (すでに) 私にそう言わせているのかもしれませんし、あるいは、今回のコラム全体が ChatGPT または同等の生成 AI アプリによって書かれたのかもしれません。

安心してください、間違いなく私です。 人間の知性、ではない 人工知能.

ソース: https://www.forbes.com/sites/lanceeliot/2022/12/13/digging-into-the-buzz-and-fanfare-over-generative-ai-chatgpt-include-looming-ai-ethics- and-ai-law-considerations/