ジェネレーティブ AI ChatGPT は、API ポータルがすぐに開かれるとどこにでもあり、AI の倫理と AI の法律を混乱させる

クラーケンを放つ!

あなたは間違いなく、俳優のリーアム・ニーソンが特に発したあの有名なキャッチフレーズに精通しています。 タイタンの衝突 彼が伝説の海の怪物を解放するように命じたとき、巨大な大混乱と並外れた破壊をもたらすことを目指しています. この線は際限なく繰り返され、あらゆる種類のミームが生まれました。 さまざまなパロディにもかかわらず、ほとんどの人は、その発言が何か影のような危険な出現が解き放たれようとしていることを予言していると少なくとも本能的に感じています.

おそらく、最近の人工知能 (AI) にも同じ感情が当てはまります。

詳しく説明させてください。

最近の発表によると、組織 OpenAI によって作成された ChatGPT と呼ばれる、今や非常に有名な AI アプリが、他のプログラムからアクセスできるようになる予定であることが示されました。 これは大きなニュースです。 通常のメディアはほとんど取り上げていませんが、私はこれを言います. つかの間の言及を除けば、この今後のアクセスの完全な影響は、非常に重要なものになるでしょう.

今日のコラムでは、その理由について説明します。 それに応じて準備することができます。

これはクラーケンを解き放つようなものであり、あらゆる種類の悪いことが起こるだろうと固く信じている人もいます。 他の人は、ChatGPT の優れた機能を活用することで、他の多くのアプリを後押しできる重要なリソースを利用できるようにすることだと考えています。 それは最悪の時か最良の時かのどちらかです。 ここでは、議論の両面を検討します。どちらの陣営に着地するかは、ご自身で決めることができます。

これらすべてに、多数の AI 倫理と AI 法の考慮事項が含まれます。

AI アプリの開発と運用に倫理的な AI の原則を浸透させるための継続的な取り組みがあることに注意してください。 関心を持っていたかつての AI 倫理学者の増加する部隊は、AI を考案して採用する取り組みが、実行の観点を考慮に入れることを確実にしようとしています。 AI For Good と回避 悪い人のためのAI. 同様に、AI の取り組みが人権などで暴走するのを防ぐための潜在的な解決策として、新しい AI 法が提案されています。 AI 倫理と AI 法に関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

ChatGPT や他の同様の AI アプリには、対応する準備ができていないという醜い下腹部があるのではないかという懸念が高まっています。 たとえば、学校の生徒は、ChatGPT を使用して割り当てられたエッセイを書くときにカンニングをする可能性があると聞いたことがあるかもしれません. AIがすべての書き込みを行います。 その間、学生はまるで自分の頭から書いたかのように、エッセイを一見自由に変えることができます。 私たちがおそらくAIに人類のためにしてほしいことではありません。

いくつかの重要な要素は、これが何であるかについての準備を整えるのに役立つかもしれません.

ChatGPT は、一般に ChatGPT と呼ばれる AI の一種です。 生成AI. これらのトレンドの生成ベースの AI アプリを使用すると、簡単なプロンプトを入力して、アプリに出力を生成させることができます。 ChatGPT の場合、出力はテキストです。 したがって、テキスト プロンプトを入力すると、ChatGPT アプリがテキストを生成します。 私はこれを、テキストからエッセイへの出力を生成するために磨かれたジェネレーティブ AI の特定のサブタイプとして説明する傾向があります (テキストから画像、テキストからビデオなどの他のサブタイプがあります)。

ChatGPT の AI メーカーは、まもなく API (アプリケーション プログラミング インターフェイス) が AI アプリで利用できるようになることを示しています。 簡単に言えば、API は、他のプログラムが先に進み、特定のアプリケーションへのポータルを利用できるようにするプログラムを使用できるようにする手段です。 これは、この地球上のほぼすべてのプログラムが ChatGPT の使用を潜在的に活用できることを意味します (ChatGPT の AI メーカーによるライセンスおよび承認があれば、ここで少し詳しく説明します)。

結論として、ChatGPT の使用と使用は、屋根を突き破る可能性があるということです。

今日、非常に多くのサインアップが行われているのに対し、 個人 基礎 AI メーカーによって XNUMX 万ユーザーに制限されている ChatGPT を使用できます。

これらの既存の何百万人ものサインアップは、ChatGPT を XNUMX 回限りの戯言で使用し、スリルがなくなった後は使用していない部分で構成されていることに注意してください。 多くの人は、ソーシャル メディアのバイラル反応として AI アプリに惹かれたと思われます。 要するに、他の誰もがそれを使いたいなら、彼らも使いたいと思った. 生成ベースの AI を使った最初の実験で、彼らは FOMO (見逃すことへの恐怖) を回避できたことに満足していました。

明確にするために言っておきますが、私は人々が ChatGPT を使用していないことを示唆しているわけではありません。 彼らです。 サインアップしたユーザーは、AI アプリが過負荷になっていることにますます気付いています。 多くの人がアプリを使用しています。 システムがビジーであることを示す巧妙に構成された悲しい兆候が時々表示されるので、後でやり直してください。 巷では、ChatGPT の既存のインフラストラクチャは、AI アプリを使用する熱心なファンに対処するのに苦労しているということです。

そして、XNUMX 万人の潜在的なユーザーを持つことはくしゃみをするものではありませんが、API が利用可能になると、その数はすぐに数倍になる可能性があります。 現在ジェネレーティブ AI とは何の関係もない他のプログラムの開発者は、ジェネレーティブ AI の時流を利用したいと考えるようになるでしょう。 彼らは自分たちのプログラムを ChatGPT に接続したいと思うでしょう。 彼らの心からの希望は、これが彼らの既存のプログラムを人気の成層圏に後押しすることです.

このように考えてください。 今日、何百万人ものユーザーにリーチするプログラムを作成しているあらゆる種類のソフトウェア会社、多くの場合、何千万人から何億人ものユーザーにリーチするソフトウェア会社が、それぞれのプログラムを ChatGPT と組み合わせることを選択すると仮定します。 これは、ChatGPT を使用しているユーザーの数が急増する可能性があることを示唆しています。

クラーケンが放たれる。

なぜさまざまなソフトウェア会社が ChatGPT とペアを組む必要があるのでしょうか?

率直な答えは、ChatGPT を押し上げている驚くべき追い風を利用する可能性があるということです。 理にかなった理由でそうする人もいます。 他の人は、XNUMX分間の名声のように見えるようにするためだけにそうします.

私は、ChatGPT とのペアリングを XNUMX つの主要な意図から成るものとして層別化したいと考えています。

  • ChatGPT との正規のペアリング
  • ChatGPTとの偽装ペアリング

最初のケースでは、ChatGPT とペアを組むための正当な根拠があるという考えがあります。 特定のプログラムの作成者は、プログラムと ChatGPT を組み合わせることで生じる具体的かつ機能的なメリットを明確に説明できます。 私たちは皆、合理的な心の中で、ペアリングが天国で行われた一致であることを見ることができます.

もう XNUMX つのケースは、私が偽物と呼んでいるもので構成されており、ChatGPT とのペアリングを機敏に、または不安定にしようとする人もいます。 ビジネスケースは、特に実質的なもので構成されていません。 ペアリングは、ChatGPT の尻尾に乗ろうとする必死の試みです。 妥当な検査を行えば、ペアリングの価値が限界に達していることがわかります。 さて、これが正しいペアリングなのか不適切なペアリングなのかは、微妙なところにある。 ChatGPT との特定のペアリングは、そのペアリングがブーストの使用以外に何も達成せず、他の機能的な付加価値がない場合でも、おそらくペアリングはまだ取り組む価値があると主張することができます.

ちょっとしたマイナス面は、ペアリングを誤って描写し、実際には起こっていないのに注目に値する何かが起こっていると人々に信じ込ませることです. 確かに、これを試す人もいると予想できます。 AI Ethics の担当者は、木工品から出てくるスネーク オイルの使用について強く懸念しています。 これが手に負えなくなった場合、起草と制定に拍車がかかる新​​しいAI関連の法律が見られる可能性もあります.

本物のペアリングを構成するものと偽物のペアリングを構成するものを詳しく調べてみましょう.

まず、ジェネレーティブ AI の構成要素と ChatGPT とは何かについて、全員が同じページにいることを確認する必要があります。 その基本的な側面をカバーしたら、ChatGPT への API が物事を根本的に変える方法について説得力のある評価を行うことができます。

ジェネレーティブ AI と ChatGPT にすでに精通している場合は、おそらく次のセクションをざっと読み、その次のセクションに進むことができます。 このセクションをよく読んで最新情報を把握することで、他のすべての人がこれらの問題に関する重要な詳細を学ぶことができると思います。

Generative AI と ChatGPT についての簡単な入門書

ChatGPT は、汎用の AI 対話型会話指向システムであり、本質的には無害な一般的なチャットボットに見えますが、後で詳しく説明するように、多くの人が完全に不意を突くような方法で積極的かつ熱心に使用されています。 この AI アプリは、よく呼ばれる AI 領域の技術とテクノロジーを活用しています。 生成AI. AI はテキストなどの出力を生成しますが、これは ChatGPT が行うことです。 写真やアートワークなどの画像を生成するジェネレーティブ ベースの AI アプリもあれば、オーディオ ファイルやビデオを生成するものもあります。

ChatGPT が行っていることなので、このディスカッションではテキストベースの生成 AI アプリに焦点を当てます。

ジェネレーティブ AI アプリは非常に使いやすいです。

プロンプトを入力するだけで、AI アプリがプロンプトに応答しようとするエッセイを生成します。 構成されたテキストは、エッセイが人間の手と心によって書かれたかのように見えます。 「エイブラハム リンカーンについて教えてください」というプロンプトを入力すると、生成 AI がリンカーンに関するエッセイを提供します。 これは一般的に、以下を実行するジェネレーティブ AI として分類されます。 テキストからテキストへ または、それを呼び出すことを好む人もいます テキストからエッセイへ 出力。 前述のように、テキストからアート、テキストからビデオなど、ジェネレーティブ AI の他のモードがあります。

あなたの最初の考えは、この生成能力は、エッセイを作成するという点ではそれほど大したことではないように思えるかもしれません. インターネットで簡単にオンライン検索を行い、リンカーン大統領に関する膨大な量のエッセイを簡単に見つけることができます。 ジェネレーティブ AI の場合のキッカーは、生成されたエッセイが比較的ユニークであり、模倣ではなく独自の構成を提供することです。 AI が作成したエッセイをオンラインでどこかで見つけようとしても、それを見つけることはまずありません。

ジェネレーティブ AI は事前にトレーニングされており、ウェブ全体で書かれた言葉や物語のパターンを調べることによって設定された複雑な数学的および計算式を利用します。 何千、何百万もの文章を調べた結果、AI は見つかったものの寄せ集めである新しいエッセイやストーリーを吐き出すことができます。 さまざまな確率的機能を追加することにより、結果として得られるテキストは、トレーニング セットで使用されたものと比較して非常にユニークです。

そのため、学生が教室の外でエッセイを書くときにカンニングできるという騒動が起こっています。 教師は、欺瞞的な生徒が自分の書いたものだと主張するエッセイを単に取り上げて、それが他のオンライン ソースからコピーされたものかどうかを調べようとすることはできません。 全体として、AI によって生成されたエッセイに適合する決定的な既存のエッセイはオンラインに存在しません。 結局、教師は生徒がエッセイをオリジナルの作品として書いたことをしぶしぶ受け入れなければならないでしょう。

ジェネレーティブ AI に関する追加の懸念事項があります。

重大な欠点の XNUMX つは、ジェネレーティブ ベースの AI アプリによって作成されたエッセイには、明らかに事実と異なる事実、誤解を招くように描写された事実、完全に捏造された明らかな事実など、さまざまな虚偽が埋め込まれている可能性があることです。 これらの捏造された側面は、しばしば AIの幻覚、私が嫌いなキャッチフレーズですが、残念なことに、とにかく人気が高まっているようです(なぜこれがお粗末で不適切な用語であるかについての私の詳細な説明については、次の記事を参照してください ここのリンク).

このトピックの詳細に入る前に、XNUMX つの重要な側面を明確にしたいと思います。

ソーシャル メディアでは、 生成AI この最新バージョンの AI が実際にあると主張する 知覚力のある AI (いいえ、彼らは間違っています!)。 AI 倫理と AI 法に携わる人々は、主張の幅が広がる傾向が急速に高まっていることを特に懸念しています。 今日の AI が実際にできることを誇張している人がいると、丁寧に言うかもしれません。 彼らは、AI には私たちがまだ達成できていない機能があると想定しています。 それは残念です。 さらに悪いことに、AI は感覚を持っている、または人間のように行動できると思い込んでいるため、自分自身や他の人が悲惨な状況に陥る可能性があります。

AI を擬人化しないでください。

そうすることで、AI が実行できないことを AI が実行することを期待するという、厄介で不機嫌な依存の罠にはまります。 そうは言っても、最新のジェネレーティブ AI は、それができることに関して比較的印象的です。 ただし、ジェネレーティブ AI アプリを使用する際には、常に留意しなければならない重大な制限があることに注意してください。

ChatGPT とジェネレーティブ AI に関する急速に拡大している騒ぎに興味があるなら、参考になるかもしれない私のコラムで焦点を絞ったシリーズを行ってきました。 これらのトピックのいずれかがあなたの気になった場合に備えて、ここで一目でわかります:

  • 1) ジェネレーティブ AI の進歩の予測。 ジェネレーティブ AI と ChatGPT の今後の進歩を含め、2023 年以降に AI について何が展開される可能性があるかを知りたい場合は、2023 年の予測の包括的なリストを参照してください。 ここのリンク.
  • 2) ジェネレーティブ AI とメンタルヘルスのアドバイス。 私はジェネレーティブ AI と ChatGPT がメンタルヘルスのアドバイスにどのように使用されているかを確認することにしました。 ここのリンク.
  • 3) ジェネレーティブ AI と ChatGPT の基礎。 この記事では、ジェネレーティブ AI がどのように機能するかの重要な要素を探り、特に話題やファンファーレの分析など、ChatGPT アプリについて掘り下げます。 ここのリンク.
  • 4) ジェネレーティブ AI と ChatGPT をめぐる教師と生徒の間の緊張. 学生がジェネレーティブ AI と ChatGPT を不正に使用する方法を次に示します。 さらに、教師がこの津波に対処する方法を次に示します。 見る ここのリンク.
  • 5) コンテキストとジェネレーティブ AI の使用。 また、ChatGPT とジェネレーティブ AI を含むサンタ関連のコンテキストについて、季節に合わせた皮肉な調査も行いました。 ここのリンク.
  • 6) ジェネレーティブ AI を使用する詐欺師. 不吉なことに、一部の詐欺師は生成 AI と ChatGPT を使用して、詐欺メールの生成やマルウェアのプログラミング コードの作成などの不正行為を行う方法を見つけました。 ここのリンク.
  • 7) ジェネレーティブ AI を使用した初歩的なミス. 多くの人々は、ジェネレーティブ AI と ChatGPT ができることをオーバーシュートしており、驚くほどアンダーシュートしています。 ここのリンク.
  • 8) ジェネレーティブ AI プロンプトと AI 幻覚に対処する. AI アドオンを使用して、生成 AI に適切なプロンプトを入力しようとすることに関連するさまざまな問題に対処するための最先端のアプローチについて説明します。また、いわゆる AI の幻覚出力や虚偽を検出するための追加の AI アドオンもあります。でカバー ここのリンク.
  • 9) ジェネレーティブ AI によって生成されたエッセイの検出に関する Bonehead の主張を暴く. 任意のエッセイが人間によって作成されたものか、AI によって生成されたものかを確認できると宣言する AI アプリの誤ったゴールド ラッシュがあります。 全体として、これは誤解を招くものであり、場合によっては骨の折れる支持できない主張です。 ここのリンク.
  • 10) ジェネレーティブ AI によるロールプレイングは、メンタルヘルスの欠点の前兆となる可能性がある. ChatGPT などのジェネレーティブ AI を使用してロールプレイングを行うものもあり、AI アプリはファンタジーの世界やその他の架空の世界に存在するかのように人間に反応します。 これはメンタルヘルスに影響を与える可能性があります。 ここのリンク.
  • 11) 出力されたエラーと虚偽の範囲を明らかにする。 ChatGPT によって生成されたエラーと虚偽の性質を紹介するために、さまざまな収集リストがまとめられています。 これが不可欠であると信じている人もいれば、この演習は無駄だと言う人もいます。 ここのリンク.
  • 12) ジェネレーティブ AI ChatGPT を禁止している学校は、船に乗り遅れています。 ニューヨーク市 (NYC) 教育省などのさまざまな学校が、ネットワークおよび関連デバイスでの ChatGPT の使用を禁止することを宣言したことをご存知かもしれません。 これは役立つ予防策のように思えるかもしれませんが、針を動かすことはなく、悲しいことに完全にボートを逃します。 ここのリンク.

ChatGPT が、GPT-3 として知られる前身の AI アプリのバージョンに基づいていることに興味があるかもしれません。 ChatGPT は、GPT-3.5 と呼ばれる少し次のステップと見なされます。 GPT-4 は 2023 年の春にリリースされる可能性が高いと予想されます。おそらく、GPT-4 は、一見より流暢なエッセイを作成できるようになり、より深くなり、畏敬の念を抱くようになるという点で、印象的な前進になるでしょう。 -それが作り出すことができる構成に関して感動的な驚異。

春が訪れ、最新のジェネレーティブ AI がリリースされると、新たな驚きの表現が見られることを期待できます。

私がこれを持ち出すのは、これらのより優れた、より大きなジェネレーティブ AI アプリの潜在的なアキレス腱からなる、心に留めておくべき別の角度があるからです。 AI ベンダーが汚物を泡状に吐き出すジェネレーティブ AI アプリを利用可能にすると、AI メーカーの希望が打ち砕かれる可能性があります。 社会的なスピルオーバーは、すべての生成 AI に深刻な問題を引き起こす可能性があります。 人々は間違いなく、不正な出力にかなり動揺するでしょう。これはすでに何度も起こっており、AI に対する激しい社会的非難の反発につながっています。

とりあえず最後の予告。

ジェネレーティブ AI の応答で見たり読んだりしたものは何でも、 と思われる 純粋に事実 (日付、場所、人物など) として伝えられるようにするには、懐疑的な姿勢を保ち、目にしたものを再確認してください。

はい、日付をでっち上げたり、場所をでっち上げたりすることができます。 疑惑の対象。 生成 AI のエッセイや出力を調べるときは、読んだ内容を信じず、懐疑的な目を向けてください。 ジェネレーティブ AI アプリが、エイブラハム リンカーンが自分のプライベート ジェットで国中を飛び回ったと伝えたら、これは間違いなく悪意があるとわかるでしょう。 残念なことに、彼の時代にジェット機が存在しなかったことを認識していない人もいれば、エッセイがこの厚かましくとんでもない虚偽の主張をしていることを知っていても気付かない人もいるかもしれません。

ジェネレーティブ AI を使用する際には、健全な懐疑心と不信感を持ち続ける姿勢が最大の武器となります。

この解明の次の段階に進む準備ができています。

ビーストを解き放つ

基礎が確立されたので、ChatGPT API の側面によるビジネス指向および社会的影響に飛び込むことができます。

最近、Microsoft の Azure クラウド プラットフォームでの ChatGPT の利用可能性について、OpenAI と共同で Microsoft によって発表されました (「Azure OpenAI サービスの一般提供により、エンタープライズの利点が追加された大規模で高度な AI モデルへのアクセスが拡大されます」というタイトルのオンライン投稿によると、 16 年 2023 月 XNUMX 日):

  • 「大規模な言語モデルは、人々がイノベーションを起こし、AI を適用して大きな問題を解決し、何が可能かを想像するための不可欠なプラットフォームになりつつあります。 本日、AI の民主化に対する Microsoft の継続的な取り組みと、OpenAI との継続的なパートナーシップの一環として、Azure OpenAI サービスの一般提供を発表できることを嬉しく思います。 Azure OpenAI サービスの一般提供が開始されたことで、GPT-3.5、Codex、DALL•E 2 など、信頼できるエンタープライズ レベルの機能と AI に最適化されたインフラストラクチャに支えられた、世界で最も高度な AI モデルへのアクセスをより多くの企業が申請できるようになりました。 Microsoft Azure の、最先端のアプリケーションを作成します。 顧客は、Azure OpenAI サービスを介して、Azure AI インフラストラクチャでトレーニングおよび推論を実行する GPT-3.5 の微調整バージョンである ChatGPT にもすぐにアクセスできるようになります。」

その発言でお気付きかもしれませんが、OpenAI によって考案された他のさまざまな AI アプリも利用できるようになります。 実際、これらの AI アプリの一部は、最近の上記の声明でさらに言及されているように、かなり前からアクセス可能になっています。企業は、セキュリティ、信頼性、コンプライアンス、データ プライバシー、組み込みの責任ある AI 機能など、Azure クラウドとコンピューティング インフラストラクチャに顧客が期待するようになったことを約束します」 (同上)。

先ほど、AI 倫理と AI 法の両方がバランスをとろうとしていると述べました。 AI For Good 可能性を秘めた願望 悪い人のためのAI それは時々発生する可能性があります。 AI の領域では、 責任あるAI 信頼できる AI または人間中心の AI と呼ばれることもあります。 ここのリンク. すべての AI メーカーは、AI を考案し、 AI For Good そして、あからさまに削減または軽減しようとします 悪い人のためのAI それが現れるかもしれません。

これは難しい注文です。

いずれにせよ、前述の声明は、責任ある AI の考慮事項に対処していました。

  • 「業界のリーダーとして、AI のイノベーションは責任を持って行う必要があることを認識しています。 これは、ジェネレーティブ モデルのような強力な新しいテクノロジではさらに重要になります。 大規模なモデルに対して反復的なアプローチを採用し、パートナーの OpenAI およびお客様と緊密に連携して、ユース ケースを慎重に評価し、学習し、潜在的なリスクに対処しています。 さらに、責任ある AI の原則に沿った Azure OpenAI サービス用の独自のガードレールを実装しました。 制限付きアクセス フレームワークの一環として、開発者は、サービスへのアクセスを許可される前に、意図するユース ケースまたはアプリケーションを説明して、アクセスを申請する必要があります。 虐待的、憎悪的、不快なコンテンツをキャッチするように独自に設計されたコンテンツ フィルターは、サービスに提供される入力と生成されたコンテンツを常に監視します。 ポリシー違反が確認された場合、さらなる悪用を防ぐために開発者にただちに行動を起こすよう依頼する場合があります」(同上)。

その責任ある AI の視点の核心は、プログラム API ベースで ChatGPT へのアクセスに正式な要求を要求することで、好ましくない送信を除外できる可能性があるということです。 ChatGPT にアクセスできる他の企業とそのプログラムを選択する際に適切なデューデリジェンスがあれば、リリースされたクラーケンの完全な怒りを防ぐ可能性があります。

たぶんそうかもしれません。

一部の専門家は、ChatGPT API の使用を許可することで金儲けができる可能性があるため、野獣を合理的かつ安全に封じ込めたいという釣り合いの取れた概念に負担がかかると、手を絞っています。 精査は本当に事前に十分に慎重になりますか? 代わりに、リクエストの量が手に負えなくなるにつれて、緩いグーシーな不安定な承認プロセスが発生することがわかりますか? 猫が袋から出されて初めて、遅ればせながら完全な精査が実際に行われるのではないかと恐れている人もいますが、それまでに損傷はすでに行われています.

まあ、少なくとも、審査プロセスが含まれていることを正当に評価することができます. 生成型 AI アプリの中には、一貫した審査プロセスが欠けているものや、大雑把な性質のものがあります。 さらに、多少のライセンス制限に従うことになっていますが、ジェネレーティブ AI のオープンソース バージョンがあり、それを望むほぼすべての人が使用できます (これを強制しようとするのは、思ったより難しいことです)。

Azure OpenAI サービスへのアクセス制限に関する既存のルールを簡単に見て、他のソフトウェア メーカーが ChatGPT に接続する可能性があるために何をする必要があるかを見てみましょう。 オンラインで投稿された Microsoft ポリシー (最新の投稿は 14 年 2022 月 XNUMX 日として示されています) に従って:

  • 「責任ある AI に対する Microsoft の取り組みの一環として、個人と社会の権利を保護し、人間とコンピューターの透明な対話を促進することを目的として、Azure OpenAI サービスを設計およびリリースしています。 このため、現在、コンテンツ フィルターを変更する機能や不正使用の監視を変更する機能へのアクセスを制限するなど、Azure OpenAI のアクセスと使用を制限しています。 Azure OpenAI には登録が必要であり、現在、Microsoft アカウント チームと協力している管理対象の顧客とパートナーのみが利用できます。 Azure OpenAI の使用を希望するお客様は、実験のための初期アクセスと、実験から運用への移行の承認の両方のために、登録フォームを送信する必要があります。」
  • 「実験のために、顧客は、登録時に提出された意図された用途にのみサービスを使用することを証明し、人間による監視、入力と出力に対する強力な技術的制限、フィードバックチャネル、および徹底的なテストを組み込むことを約束します. 本番環境では、顧客はリスクを軽減するためにこれらがどのように実装されているかを説明します。 サービスのオンボーディング後にコンテンツ フィルターの変更と不正使用の監視の変更を希望するお客様は、追加のシナリオ制限の対象となるため、ここで登録する必要があります。」
  • 「Azure OpenAI サービスへのアクセスは、資格基準と審査プロセスに基づく Microsoft の独自の裁量の対象となり、顧客は、Azure OpenAI サービスの Azure 利用規約を確認して同意したことを認める必要があります。 Microsoft は、お客様にこの情報の再確認を求める場合があります。 Azure OpenAI サービスは、Microsoft 製品条件の Azure OpenAI セクションを含む、Microsoft Azure サービスへのサブスクリプションを管理する条件に基づいて、お客様に提供されます。 これらの条件には、Azure OpenAI サービスの使用を管理する重要な条件と義務が含まれているため、慎重に確認してください。」

それはマイクロソフト側の問題です。

OpenAI には、その API に関連付けられた使用ポリシーもあります。

  • 「私たちは、誰もが私たちの API を安全かつ責任を持って使用できるようにしたいと考えています。 そのために、ユースケースとコンテンツ ポリシーを作成しました。 それらに従うことで、私たちのテクノロジーが確実に有効に使用されるようにすることができます。 製品がこれらのポリシーに従っていないことが判明した場合は、必要な変更を行うようお願いします。 従わない場合は、アカウントの停止を含むさらなる措置を講じる可能性があります。」
  • 「以下のユースケースを対象とする製品の構築を禁止します。」
  • 「—違法または有害な産業」
  • 「—個人データの悪用」
  • 「――不正の助長」
  • 「—ユーザーを欺いたり操作したりする」
  • 「――政治に影響を与えようとしている」
  • 「刑事司法、法執行、法律、政府および公務員、医療、治療、ウェルネス、コーチング、金融、ニュースなどの一連のユースケースは、潜在的な害のリスクが高くなります。 これらのユースケースでは、次のことを行う必要があります。」
  • 「1) お客様のユースケースでモデルの正確性を徹底的にテストし、制限についてユーザーに透明性を持たせてください。」
  • 「2) チームがドメインの専門知識を持ち、関連する法律を理解し、遵守していることを確認する」
  • 「また、あなたまたはあなたのアプリケーションのエンドユーザーが次の種類のコンテンツを生成することも許可していません:」
  • "- 嫌い"
  • 「――ハラスメント」
  • 「――暴力」
  • "- 自傷"
  • 「――性的な」
  • "- 政治的"
  • "- スパム"
  • "- 欺くこと"
  • 「— マルウェア」

ChatGPT への接続要求が殺到した場合、これらの理想が守られるかどうかが大きな問題になります。 おそらく、圧倒的なリクエストの津波が来るでしょう。 XNUMX つ XNUMX つを調べて慎重に吟味する人間の労力は、コストがかかり、管理が困難になる可能性があります。 アクセスに対する膨大な需要に直面して、うっかりして、適切に制限したいという欲求が骨抜きにされるでしょうか?

よく知られているように、最善の計画でも、豊富な勢力との最初の接触で崩壊することがあります。

また、定められたルールの解釈の仕方にもかなりの余裕があります。 偽情報や誤った情報の増加について一般的に見てきたように、小麦と籾殻を区別しようとすることは非常に困難な場合があります. 生成されたコンテンツが憎悪、政治的、欺瞞的などではないという規定を順守または違反しているかどうかを判断するにはどうすればよいでしょうか?

迫り来る困難は、ChatGPT API が ChatGPT とプログラムをペアリングしているソフトウェア メーカーに利用可能になり、結果の出力が明示された教訓に明確に違反している場合、馬はすでに納屋から出ているのでしょうか? 関係者全員に影響を与える可能性がある風評被害の可能性が高いと示唆する人もいます。 その特定の攻撃者に対して API を解除するだけでこれを克服できるかどうかは不明です。 ある意味では、ダメージが長引いてバレルを台無しにする可能性があります。 来た人全員にたっぷり責められます。

API ペアリングの階層化

ChatGPT との組み合わせは、次の XNUMX つの主要な目的に便利にグループ化できることを前述しました。

  • ChatGPT との正規のペアリング
  • ChatGPTとの偽装ペアリング

最初に、本物または正真正銘のペアリングを調べてみましょう。

背景として、これが発生する方法はいくぶん単純です。 ChatGPT アプリを使用すると、他のプログラムがアプリを呼び出すことができます。 通常、これは、ChatGPT にプロンプ​​トをテキスト形式で渡す Widget と呼ばれるプログラムで構成され、ChatGPT が処理を行った後、エッセイまたはテキストがプログラム Widget に返されます。 これは、人が同じことをしているようなものですが、人がそうする代わりに、プログラムにそれらのアクションを実行させます。

たとえば、誰かが Web で検索を行うプログラムを考案したとします。 プログラムは、何を検索したいかをユーザーに尋ねます。 次に、プログラムは、さまざまな検索ヒットまたは検索結果のリストをユーザーに提供し、ユーザーのクエリに基づいて関連する Web サイトをうまく紹介します。

この Web 検索プログラムを作成している会社が、そのアプリを改良したいと考えているとします。

ChatGPT API へのアクセスを要求します。 彼らがすべての適切な事務処理を行い、最終的に承認されると仮定します。 次に、Web 検索を行うプログラムを変更して、API を介した ChatGPT アプリへの呼び出しを含める必要があります。 彼らがそれらのモッズを作ることを選んだと仮定してください。

次に、それがどのように機能するかを示します。 ユーザーがコア プログラムに Web 検索のクエリを入力すると、このプログラムは従来の Web 検索を実行するだけでなく、API を介してクエリを ChatGPT に渡します。 次に、ChatGPT がテキストを処理し、結果のエッセイをコア プログラムに返します。 Web 検索コア プログラムは、Web 検索結果と ChatGPT から出力された追加のエッセイという XNUMX つの側面をユーザーに提示します。

このコア プログラムを使用している人は、ChatGPT がバックエンドで使用されていたことを必ずしも認識していません。 これはコア プログラムの範囲内で発生する可能性があり、ユーザーは ChatGPT が関与していたことにまったく気づきません。 一方、ChatGPT が使用されていることをユーザーに通知するようにコア プログラムを工夫することもできます。 これは通常、コア プログラムの作成者が他のアプリ (この場合は ChatGPT) が使用されていたことを明らかにしたいかどうかにかかっています。 一部の取り決めでは、呼び出されるプログラムの作成者は、API を呼び出すプログラムは、他のプログラムが使用されていることをユーザーに知らせる必要があると主張します。 それはすべて、好みとライセンスの詳細に依存します。

本物のペアリングの場合、通常のアプローチは次のとおりです。

  • 1) ChatGPTへのストレートパススルー
  • 2) ChatGPTを拡張するアドオン
  • 3)ChatGPTと一致する関連アプリ
  • 4) ChatGPT との完全に統合された没入感

手短に言えば、最初にリストされたアプローチでは、ChatGPT の単なるフロントエンドであるプログラムを考案する可能性があるという考えです。そのため、私のプログラムはテキストを ChatGPT に渡し、ChatGPT からテキストを取得するだけです。 私は、ChatGPT を使用したい人や、それ以外の方法で使用するためにサインアップしていない人のために、私のプログラムを利用できるようにします。 これは XNUMX つのアプローチです。

次に、ChatGPT のアドオンとして機能するプログラムを考案するかもしれません。 たとえば、ChatGPT がエッセイを生成する場合、虚偽が含まれている可能性があります。 ChatGPT の出力を調べて、虚偽を選別しようとするプログラムを作成したとします。 人々が私のプログラムにテキスト プロンプトを入力し、プロンプトを ChatGPT に送信するように、プログラムを利用できるようにします。 ChatGPT は私のプログラムに戻ってくるエッセイを作成します。 私のプログラムはエッセイを表示する前に、エッセイを事前に選別し、虚偽にフラグを立てたり削除したりしようとします。 私のプログラムがスクリーニングを行った後、結果のエッセイが表示されます。

XNUMX 番目のアプローチは、ある意味で ChatGPT と一致する関連アプリを用意することです。 人々が創造的な文章を書くのを支援するプログラムを開発するとします。 私のプログラムでは、クリエイティブな文章を書く方法について、缶詰のヒントや提案を提供しています。 プログラムは、ユーザーにそうするように促したり、促したりするだけです。 一方で、私ができるようにしたいのは、クリエイティブな文章がどのようなものかをユーザーに示すことです。 ということでChatGPTでAPIを構築。 次に、私のプログラムはユーザーからのプロンプトを受け取り、ChatGPT を呼び出して、創造的な文章を示すエッセイの吹き出しを提供します。 これは反復的に実行でき、その過程で ChatGPT を複数回呼び出すことができます。

リストされている XNUMX 番目のアプローチの場合、ChatGPT は他のプログラムまたはプログラムのセットに完全に統合されています。 たとえば、ワープロ アプリとスプレッドシート アプリがある場合、ChatGPT をそれらのアプリに統合したいと思うかもしれません。 それらは、いわば互いに連携して機能します。 今後のコラムで、Microsoft が ChatGPT をオフィスの生産性スイートに組み込むことを選択できる可能性が浮かんでいることを掲載する予定です。今後の分析に注目してください。

これらは、本物のペアリングが行われる可能性のある重要な方法です.

次に、いくつかの偽物の組み合わせについて考えてみましょう。

注意が必要な全体的な偽物の組み合わせを次に示します。

  • ChatGPTとのギミックペアリング – ChatGPT をわずかに利用し、主に見せかけや付加価値のない宣伝を目的として行われる
  • ChatGPTペアリングに関する魅力的な約束 – ソフトウェア ベンダーは、ChatGPT とのペアリングの真っ最中であり、輝かしいスポットライトを浴びようとしていると主張しているが、現実にはそうするつもりはなく、古典的なヘッド フェイクを行い、虚偽の誓約を行っている
  • ChatGPT のようなものであると宣言する模造品 – 一部のソフトウェア ベンダーは、ChatGPT とペアにするのではなく、別のものを使用します。
  • その他 – 多くの追加の拡張された巧妙なスキームが考えられます

間違いなく、このすべてについて多くの悪ふざけが行われるでしょう。 これは、Kraken のリリースの一部となります。

まとめ

この問題にレンチやその他の障害物を投げつけさせてください。

費用はどうですか?

現在、ChatGPT を使用するためにサインアップした人は、無料で使用しています。 私は以前、ある時点で完全な収益化が必要になると述べました. これには、トランザクションごとの手数料の請求や、サブスクリプションの支払いが必要になる場合があります。 もう XNUMX つの可能性は、広告が生地を持ち込むために使用される可能性があることです。これにより、ChatGPT を使用するたびに広告が表示されます。 等。

API を介して ChatGPT とのペアリングを確立することを選択した人は、関連する潜在的なコストについて真剣に検討する必要があります. ChatGPT アプリの実行に Microsoft Azure クラウドを使用すると、コストが発生する可能性があります。 ChatGPT API を使用して AI アプリを呼び出すには、OpenAI からのコストが発生します。 ソフトウェア ベンダーも、既存のプログラムを API を使用するように変更したり、ChatGPT とのペアリングを中心にプログラムを新たに開発したりするなど、独自の内部コストを負担します。 初期費用と継続的な維持費の両方を想定してください。

要点は、このコストの階層化により、ChatGPT API の活用に向かうゴールド ラッシュがある程度緩和されるということです。 ソフトウェア ベンダーは、ROI (投資収益率) を慎重に計算する必要があります。 ChatGPT を使用してプログラムを拡張することで得られるものは何でも、コストを相殺するのに十分な追加資金をもたらすでしょうか?

誰もが必ずしもそれほどコスト意識が高いわけではありません。 十分な資金があり、ChatGPT を使用することでプログラムが最も知名度の高い、または認知度の高いアプリの領域に進むと信じている場合は、現在のコストに見合うだけの価値があると判断するかもしれません。 ChatGPT のおかげで、アプリの名前を確立できます。 将来、プログラムが人気を博したり、別の方法で収益を上げたりすると、以前の利益の不足を補うか、大物になるために必要なコストとしてそれを帳消しにします。

ベンチャー キャピタル (VC) 企業に支援された小規模なスタートアップは、ChatGPT API とペアになるためにシード投資の一部を喜んでフォークするかもしれません。 名声はすぐに生まれるかもしれません。 運命はずっと先のことかもしれませんが、それは後で対処する必要があります. 彼らが言うように、得が良いときに脚光を浴びてください。

非営利団体や社会的企業も、これに挑戦することを決定する可能性があると考えられます。 非営利企業が、利他的または社会的に有益な目標をサポートするように見える ChatGPT API を呼び出す有益な使用法を特定したとします。 おそらく彼らは、オンラインの資金調達キャンペーンを通じて、このための資金を調達しています。 おそらく彼らはベンダーと契約を結び、わずかな金額を支払うか、無料で使用できるようにしようとします。

時間がたてば分かるさ。

最後にお伝えするポイントは、リスク要因です。

過度に悲観的な見方をするつもりはありませんが、ChatGPT からの出力には虚偽が含まれている可能性があり、その他の潜在的な欠点があることを前に述べました。 問題は、アプリを作成しているソフトウェア ベンダーが ChatGPT API の使用に巻き込まれた場合、予測されるべきである、酸っぱい出力と不機嫌な出力が発生するリスクを冒すことです。 頭を砂の中に入れないでください。

これらの出力が、それらを利用することを選択したアプリを汚染する可能性があるという問題が発生します. その意味で、最初は ChatGPT の栄光に乗っているあなたのアプリも、ChatGPT を介して提供される出力に依存している場合、レンガの壁に突き刺さる可能性があります. おそらく、出力がユーザーに提示され、これが恐ろしい騒動を引き起こします。 彼らはあなたとあなたのアプリに対する不安を取り除きます.

次に、ChatGPT に指を向けようとします。 それはあなたを難問から抜け出させますか? 一度悪臭がすると、それは広く浸透し、ほとんどの人は免れません. そういう意味では、ChatGPT の利用が広がることで、不正な出力に対する認識がより一般的になる可能性があります。 したがって、奇妙なことに、または皮肉なことに、API による ChatGPT の使用の拡大は、自らの足を撃つ可能性があります。

悲しい顔で発言を終わらせたくないので、ハッピーな顔にシフトしてみましょう。

理想的な制限と制約のすべてが慎重かつ慎重に遵守され、厳密に遵守されている場合、API を介して ChatGPT を利用することは良いことです。 これにより、他のジェネレーティブ AI アプリの実行がさらに促進される可能性が非常に高くなります。 上げ潮はすべてのボートを上昇させる可能性があります。

それは明るいようです。

ゼウスがクラーケンを支配していたと言われていることをご存知かもしれません。 古代ギリシャの劇作家ソポクレスは、ゼウスについて次のように述べています。

おそらく、ジェネレーティブ AI が必然的にどのように着陸するかについても同じことが言われるでしょう。少なくともそうであることを望みましょう.

ソース: https://www.forbes.com/sites/lanceeliot/2023/01/22/generative-ai-chatgpt-is-going-to-be-everywhere-once-the-api-portal-gets-soon- open-stupefying-ai-ethics-and-ai-law/