ジェネレーティブ AI ChatGPT は、あなたのプライベート データや機密データを不穏なほどむさぼり食う可能性があり、AI の倫理と AI の法律について警告します

データが表示されるようになりましたが、表示されなくなりました。

その間、あなたの貴重なデータはいわば集団の一部になっています。

最新の人工知能 (AI) を熱心に真剣に利用している皆さんにとっては、非常に驚​​くかもしれない側面に言及しています。 あなたが AI アプリに入力するデータは、あなただけに完全にプライベートなものではない可能性があります。 あなたのデータは、おそらくAIサービスの改善を目指してAIメーカーによって利用されるか、またはさまざまな目的でAIメーカーおよび/または提携パートナーによって使用される可能性があります.

あなたは今、事前に警告されています。

このデータの引き渡しは、最も無害な方法で、潜在的に数千または数百万の人々によって行われています。 どうして? ジェネレーティブ AI として知られる AI の一種があり、最近大きな見出しを飾り、大衆の注目を集めています。 既存のジェネレーティブ AI アプリの中で最も注目すべきは、会社 OpenAI によって考案された ChatGPT と呼ばれるものです。

ChatGPT の登録ユーザーは約 XNUMX 万人と言われています。 これらのユーザーの多くは、この最もホットで最新のジェネレーティブ AI アプリを試すことに喜びを感じているようです。 プロセスは非常に簡単です。 プロンプトとしてテキストを入力すると、ほら、ChatGPT アプリは通常エッセイ形式のテキスト出力を生成します。 これを text-to-text と呼ぶ人もいますが、私は text-to-essay と呼ぶほうが好きです。

初心者ユーザーは、最初は楽しく気楽な何かを入力する可能性があります。 ジョージ ワシントンの生涯と時代について教えてください。 その後、ChatGPT は伝説的な初代社長についてのエッセイを作成しました。 エッセイは完全に流暢であり、それが AI アプリによって作成されたものであることを認識するのは難しいでしょう。 エキサイティングなことが起こります。

おそらく、しばらく遊んだ後、一部の初心者ユーザーは満足し、ChatGPT をいじるのをやめることを選択する可能性があります。 彼らは今、FOMO (見逃すことへの恐怖) を克服しました。ほぼ誰もが話題にしている AI アプリを試した後です。 行為は完了しました。

しかし、ジェネレーティブ AI を使用する他のより本格的な方法について考え始める人もいます。

たぶん、ChatGPT を使って、上司から強要されたメモを書きましょう。 あなたがする必要があるのは、あなたが念頭に置いている箇条書きでプロンプトを提供することだけです。次にあなたが知っているのは、ChatGPTによってメモ全体が生成されたことで、上司はあなたを誇りに思うでしょう. ChatGPT から出力されたエッセイをコピーし、ワープロ パッケージの会社の公式テンプレートに貼り付けて、上品な覚書を上司にメールで送信します。 あなたは百万ドルの価値があります。 そして、あなたは頭を使って、あなたのために大変な仕事をするための便利なツールを見つけました. 背中をたたいてください。

それがすべてではありません。

はい、他にもあります。

ジェネレーティブ AI は、他の多くのライティング関連のタスクを実行できることに注意してください。

たとえば、大切なクライアントのためにある種の物語を書いていて、その資料が世に出る前にレビューをしたいと心から思っているとします。

簡単です。

ナラティブのテキストを ChatGPT プロンプトに貼り付け、作成したテキストを分析するように ChatGPT に指示します。 結果として出力されるエッセイは、あなたの言い回しを深く掘り下げ、嬉しい驚きに、あなたが言ったことの意味を調べようとするでしょう (スペルチェッカーや文法アナライザーとしての行動をはるかに超えています)。 AI アプリは、物語の論理の誤りを検出したり、自分の文章にあるとは知らなかった矛盾を発見したりすることがあります。 それは、あたかもあなたが下書きに注目し、有益な提案や指摘された懸念事項を提供するために狡猾な人間の編集者を雇ったかのようです (まあ、私は AI アプリを擬人化しようとしているわけではないことを断固として述べたいと思います。特に、人間の編集者はAIアプリは単なるコンピュータープログラムですが、人間です)。

ジェネレーティブ AI アプリを使用して貴重な文章を精査していただきありがとうございます。 重要なクライアントにドキュメントを送信した後ではなく、AI がこれらの不穏な文書の問題を見つけてくれることを望んでいるに違いありません。 非常に重要な描写を考案するためにあなたを雇った誰かのために、あなたが物語を構成したと想像してみてください。 AI アプリのレビューを行う前に、元のバージョンをクライアントに渡していた場合、非常に恥ずかしい思いをする可能性があります。 クライアントは、依頼された仕事を遂行するあなたのスキルについて深刻な疑問を抱くことはほぼ確実です。

アンティを上げましょう。

法律文書の作成を検討してください。 それは明らかに特に深刻な問題です。 言葉とその構成方法は、活発な法廷弁護または悲惨な法的な災難をもたらす可能性があります。

進行中の調査とコンサルティングでは、法律分野での AI の使用に強い関心を持っている多くの弁護士と定期的にやり取りしています。 さまざまな LegalTech プログラムが AI 機能に接続されています。 弁護士はジェネレーティブ AI を使用して、契約書の草案を作成したり、その他の法的文書を作成したりできます。 さらに、弁護士が最初の下書きを作成した場合、ChatGPT などのジェネレーティブ AI アプリにテキストを渡して、どのような穴やギャップが検出されるかを確認できます。 弁護士と法律分野が AI の利用をどのように選択しているかについて詳しくは、次の Web サイトでの私のディスカッションをご覧ください。 ここのリンク.

これをこする準備はできています。

弁護士が下書きの契約書を受け取り、そのテキストを ChatGPT のプロンプトにコピーします。 AI アプリが弁護士のレビューを作成します。 ChatGPT によっていくつかの落とし穴が見つかったことが判明しました。 弁護士は契約を修正します。 また、ChatGPT に、作成されたテキストの言い直しややり直しを提案するよう依頼することもあります。 次に、ジェネレーティブ AI アプリによって、新しいより優れたバージョンのコントラクトが生成されます。 弁護士は、出力されたテキストを取得し、ワープロ ファイルに書き込みます。 委任状はクライアントに送られます。 任務完了。

何が起こったのか推測できますか?

舞台裏やボンネットの下では、契約はクジラの口に魚のように飲み込まれた可能性があります. この AI を使用する弁護士は気付いていないかもしれませんが、ChatGPT にプロンプ​​トとして配置された契約書のテキストが、AI アプリによって飲み込まれる可能性があります。 これは現在、AI アプリのパターン マッチングやその他の複雑な計算の餌食になっています。 これは、さまざまな方法で使用できます。 ドラフトに機密データが含まれている場合、それも ChatGPT の範囲内にある可能性があります。 AI アプリに提供されるプロンプトは、表面上は何らかの形で集団の一部になっています。

さらに、出力されたエッセイもコレクティブの一部と見なされます。 ChatGPT にドラフトを修正して新しいバージョンの契約書を提示するように依頼した場合、これは出力されたエッセイと解釈されます。 ChatGPT の出力は、AI アプリによって保持または変換できる一種のコンテンツでもあります。

うーん、あなたは無邪気に個人情報や機密情報を漏らしてしまったかもしれません。 良くない。 さらに、あなたは自分がそうしたことにさえ気付かないでしょう。 フラグは立てられませんでした。 ホーンは鳴りませんでした。 現実に衝撃を与えるために点滅するライトはありませんでした。

弁護士ではない人がそのような間違いを犯す可能性があると予想するかもしれませんが、精通した弁護士が同じ初心者の間違いを犯すことはほとんど想像できません. それにもかかわらず、現在、これと同じ潜在的な失敗をしている法律専門家がいる可能性があります. 彼らは、弁護士と依頼者の特権の注目に値する要素に違反し、場合によっては米国弁護士会 (ABA) の職業行動規範 (MRPC) に違反する危険があります。 特に、「弁護士は、クライアントがインフォームド・コンセントを与えるか、代理を実行するために開示が黙示的に許可されているか、または開示がパラグラフ (b) によって許可されている場合を除き、クライアントの代理に関連する情報を明らかにしてはならない」(から引用サブセクション b に関連する例外には、ジェネレーティブ AI アプリを安全でない方法で使用することは含まれていないようです)。

一部の弁護士は、自分は技術の魔術師ではなく、生成 AI アプリに機密情報を入力することがある種の違反である可能性があることを知る準備ができていなかったと主張して、違反を許そうとするかもしれません。 ABA は、弁護士の義務には、法律の観点から AI とテクノロジーの最新情報を把握することが含まれることを明確にしています。関連する技術に関連する利益とリスクを考慮し、継続的な研究と教育に従事し、弁護士が対象とするすべての継続的な法的教育要件を順守する必要があります」(MRPC による)。

クライアントの機密情報の維持 (規則 1.6)、データなどのクライアントの財産の保護 (規則 1.15)、クライアントとの適切なコミュニケーション (規則 1.4)、クライアントのインフォームド コンセントの取得 (規則 1.6)、クライアントに代わって有能な代理人を確保する (規則 1.1)。 また、ABA によって可決された、あまり知られていないが非常に注目に値する AI に焦点を当てた決議もあります。 (1) AI によって行われる自動化された決定のバイアス、説明可能性、および透明性。 (2) AI の倫理的かつ有益な使用。 (3) AI と AI を提供するベンダーの管理と監督。」

私の法的な友人や同僚への賢明な言葉.

問題の核心は、ジェネレーティブ AI を使用すると、ほぼ誰でも渋滞に巻き込まれる可能性があるということです。 非弁護士は、法的洞察力がないと推定されるため、そうすることができます。 弁護士もそうすることができます。おそらく、AI に魅了されているか、深呼吸をせずに、ジェネレーティブ AI を使用した場合にどのような法的影響が生じる可能性があるかを熟考しています。

私たちは皆、同じ船に乗っている可能性があります。

また、ChatGPT がブロック上の唯一のジェネレーティブ AI アプリではないことも理解する必要があります。 使用できるジェネレーティブ AI アプリは他にもあります。 それらも同じ布から切り取られている可能性があります。つまり、プロンプトとして入力する入力と、生成された出力エッセイとして受け取る出力は、集合体の一部と見なされ、AI 作成者が使用できます。

今日のコラムでは、入力するデータとジェネレーティブ AI から受信するデータが、プライバシーと機密性に関してどのように危険にさらされる可能性があるかを明らかにします。 AI メーカーはライセンス要件を公開しています。実際のデータに似た AI アプリを積極的に使用し始める前に、これらの重要な規定をよく読んでおくのが賢明です。 ChatGPT AI アプリのライセンスの例を紹介します。

これらすべてに、多数の AI 倫理と AI 法の考慮事項が含まれます。

AI アプリの開発と運用に倫理的な AI の原則を浸透させるための継続的な取り組みがあることに注意してください。 関心を持っていたかつての AI 倫理学者の増加する部隊は、AI を考案して採用する取り組みが、実行の観点を考慮に入れることを確実にしようとしています。 AI For Good と回避 悪い人のためのAI. 同様に、AI の取り組みが人権などで暴走するのを防ぐための潜在的な解決策として、新しい AI 法が提案されています。 AI 倫理と AI 法に関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

AI メーカーが、ユーザーにとって非公開または機密と思われるデータまたは情報をどのように処理できるか、または処理すべきかについて、重要な AI の倫理的ニュアンスと条項が関連付けられています。 多くの既存の法律が、テクノロジー エンティティによるデータの処理方法の核心に影響を与えていることもご存じでしょう。 新たに提案された AI 法も、同じ領域に交差する可能性があります。 たとえば、私の報道を参照してください AI権利章典 および AI に関して進行中のその他の法的な論争については、 ここのリンク.

この議論から得た重要なポイントは次のとおりです。

  • ジェネレーティブ AI を使用する場合は、どのデータまたは情報をプロンプトに入力するかについて、非常に非常に注意してください。同様に、出力も吸収される可能性があるため、出力されるエッセイの種類を非常に慎重に予測してください。

これは、ジェネレーティブ AI を使用すべきではないことを意味しますか?

いいえ、それは私が言っていることではありません。

ジェネレーティブ AI を心ゆくまで使用してください。 要点は、使用方法に注意する必要があるということです。 使用に関連するライセンス条項の種類を確認します。 それらの規定に従って生活できるかどうかを判断してください。 AI 作成者に、特定の種類の追加の保護または許可を呼び出したいことを通知する手段がある場合は、必ずそうしてください。

また、一部の人々を怒らせると私が認識しているもうXNUMXつの側面についても言及します. ここに行きます。 ライセンスの規定が何であれ、それらの要件が完全に順守されていない可能性があることも想定する必要があります。 物事はうまくいかないことがあります。 亀裂の間で物が滑り落ちる可能性があります。 最終的には、AI メーカーが規定に準拠していないという理由で訴訟を起こす可能性もありますが、それは馬が納屋から出た後のことです。

潜在的に非常に安全な方法は、クラウドかインハウスかを問わず、独自のシステムに独自のインスタンスをセットアップすることです (そして、適切なサイバーセキュリティの予防措置を順守していると仮定します。ソフトウェアベンダーのクラウドを使用するよりも、独自のクラウドでオフにします)。 ただし、生成 AI の大規模アプリのほとんどが現在これを許可していないことは、少ししつこい問題です。 それらはすべて、私たちのクラウドのみのベースでほとんど機能しています。 インスタンス全体をあなただけのために切り開くオプションを利用できるものはほとんどありません. 私は、このオプションが徐々に現れると予測しましたが、最初はかなり費用がかかり、やや複雑になるでしょう。私の予測を参照してください ここのリンク.

それ以外の場合、特に頭が良く、特に抜け目のない人々は、どのようにしてデータまたは情報の機密性侵食の泥沼に陥るのでしょうか?

これらのジェネレーティブ AI アプリの魅力は、使い始めると非常に魅力的です。 一歩一歩、あなたは自分自身が魅了され、生成 AI の水域にどんどん足を踏み入れることを選択していることに気づきます。 次に気付くのは、プライベートで機密に保たれるはずの独自のコンテンツを、ジェネレーティブ AI アプリに簡単に渡していることです。

衝動を抑えて、段階的に不愉快な罠に陥らないようにしてください。

ビジネス リーダーやトップ レベルのエグゼクティブに対しては、同じ警告があなたとあなたの会社全体の人々に送られます。 シニア エグゼクティブも、ジェネレーティブ AI の使用に対する熱意と驚きに夢中になっています。 彼らは本当に混乱し、最上位の秘密情報を AI アプリに入力する可能性があります。

これに加えて、ジェネレーティブ AI で遊んでいる従業員も大勢いるかもしれません。 他の点では注意深いスタッフの多くは、会社の個人情報や機密情報をこれらの AI アプリに無意識のうちに喜んで入力しています。 最近の報道によると、Amazon は明らかに、一部の従業員がさまざまな機密情報を ChatGPT に入力していることを発見しました。 魅力的な AI アプリを使用する際には慎重になるように、法的な警告が内部に送信されたと言われています。

全体として、従業員が機密データを ChatGPT やその他の生成 AI に無意識に入力する現象が増加していることには、少し皮肉があります。 詳しく説明させてください。 今日の現代の企業は通常、綿密に作成して実装した厳格なサイバーセキュリティ ポリシーを持っています。 数多くの技術的保護が存在します。 希望は、重要なものの偶発的なリリースを防ぐことです. Web サイトにアクセスするときは注意が必要であり、承認されていないアプリを使用するときは注意が必要です。

それに伴い、ChatGPT などのジェネレーティブ AI アプリも登場しています。 AI アプリに関するニュースは屋根を通り抜け、幅広い注目を集めています。 熱狂が起こります。 これらすべてのサイバーセキュリティ保護を備えているこれらの企業の人々は、ジェネレーティブ AI アプリに飛び乗ることを選択します。 最初はぼんやりと遊んでいます。 次に、会社データの入力を開始します。 ワム、彼らは今、公開されるべきではない情報を公開した可能性があります.

サイバーセキュリティ保護と何をしてはいけないかについての継続的なトレーニングに対する何百万ドルもの支出を魔法のように回避する、光沢のある新しいおもちゃ. しかし、ジェネレーティブ AI を使用して「イン」クラウドの一部になることはエキサイティングです。 どうやらそれが重要です。

非常に用心深いという私の傾向は、あなたにも理解していただけると思います。

次に、ジェネレーティブ AI がプロンプトと出力されたエッセイのテキストを技術的にどのように処理するかを詳しく見てみましょう。 また、例として ChatGPT を使用して、いくつかのライセンス条項についても説明します。 これらのライセンス要素の全範囲をカバーするつもりはないことを理解しておいてください. どの生成 AI アプリを使用する場合でも、必ず弁護士に相談してください。 また、ライセンスは AI メーカーごとに異なります。さらに、特定の AI メーカーはライセンスを変更することを選択できるため、ライセンスの最新バージョンが規定しているものに注意してください。

この頭の痛いトピックについて、エキサイティングな開梱を行う必要があります。

まず、ジェネレーティブ AI の構成要素と ChatGPT とは何かについて、全員が同じページにいることを確認する必要があります。 その基本的な側面をカバーしたら、このタイプの AI に関連付けられたミラー メタファーの説得力のある評価を実行できます。

ジェネレーティブ AI と ChatGPT にすでに精通している場合は、おそらく次のセクションをざっと読み、その次のセクションに進むことができます。 このセクションをよく読んで最新情報を把握することで、他のすべての人がこれらの問題に関する重要な詳細を学ぶことができると思います。

Generative AI と ChatGPT についての簡単な入門書

ChatGPT は、汎用の AI 対話型会話指向システムであり、本質的には無害な一般的なチャットボットに見えますが、後で詳しく説明するように、多くの人が完全に不意を突くような方法で積極的かつ熱心に使用されています。 この AI アプリは、よく呼ばれる AI 領域の技術とテクノロジーを活用しています。 生成AI. AI はテキストなどの出力を生成しますが、これは ChatGPT が行うことです。 写真やアートワークなどの画像を生成するジェネレーティブ ベースの AI アプリもあれば、オーディオ ファイルやビデオを生成するものもあります。

ChatGPT が行っていることなので、このディスカッションではテキストベースの生成 AI アプリに焦点を当てます。

ジェネレーティブ AI アプリは非常に使いやすいです。

プロンプトを入力するだけで、AI アプリがプロンプトに応答しようとするエッセイを生成します。 構成されたテキストは、エッセイが人間の手と心によって書かれたかのように見えます。 「エイブラハム リンカーンについて教えてください」というプロンプトを入力すると、生成 AI がリンカーンに関するエッセイを提供します。 これは一般的に、以下を実行するジェネレーティブ AI として分類されます。 テキストからテキストへ または、それを呼び出すことを好む人もいます テキストからエッセイへ 出力。 前述のように、テキストからアート、テキストからビデオなど、ジェネレーティブ AI の他のモードがあります。

あなたの最初の考えは、この生成能力は、エッセイを作成するという点ではそれほど大したことではないように思えるかもしれません. インターネットで簡単にオンライン検索を行い、リンカーン大統領に関する膨大な量のエッセイを簡単に見つけることができます。 ジェネレーティブ AI の場合のキッカーは、生成されたエッセイが比較的ユニークであり、模倣ではなく独自の構成を提供することです。 AI が作成したエッセイをオンラインでどこかで見つけようとしても、それを見つけることはまずありません。

ジェネレーティブ AI は事前にトレーニングされており、ウェブ全体で書かれた言葉や物語のパターンを調べることによって設定された複雑な数学的および計算式を利用します。 何千、何百万もの文章を調べた結果、AI は見つかったものの寄せ集めである新しいエッセイやストーリーを吐き出すことができます。 さまざまな確率的機能を追加することにより、結果として得られるテキストは、トレーニング セットで使用されたものと比較して非常にユニークです。

そのため、学生が教室の外でエッセイを書くときにカンニングできるという騒動が起こっています。 教師は、欺瞞的な生徒が自分の書いたものだと主張するエッセイを単に取り上げて、それが他のオンライン ソースからコピーされたものかどうかを調べようとすることはできません。 全体として、AI によって生成されたエッセイに適合する決定的な既存のエッセイはオンラインに存在しません。 結局、教師は生徒がエッセイをオリジナルの作品として書いたことをしぶしぶ受け入れなければならないでしょう。

ジェネレーティブ AI に関する追加の懸念事項があります。

重大な欠点の XNUMX つは、ジェネレーティブ ベースの AI アプリによって作成されたエッセイには、明らかに事実と異なる事実、誤解を招くように描写された事実、完全に捏造された明らかな事実など、さまざまな虚偽が埋め込まれている可能性があることです。 これらの捏造された側面は、しばしば AIの幻覚、私が嫌いなキャッチフレーズですが、残念なことに、とにかく人気が高まっているようです(なぜこれがお粗末で不適切な用語であるかについての私の詳細な説明については、次の記事を参照してください ここのリンク).

このトピックの詳細に入る前に、XNUMX つの重要な側面を明確にしたいと思います。

ソーシャル メディアでは、 生成AI この最新バージョンの AI が実際にあると主張する 知覚力のある AI (いいえ、彼らは間違っています!)。 AI 倫理と AI 法に携わる人々は、主張の幅が広がる傾向が急速に高まっていることを特に懸念しています。 今日の AI が実際にできることを誇張している人がいると、丁寧に言うかもしれません。 彼らは、AI には私たちがまだ達成できていない機能があると想定しています。 それは残念です。 さらに悪いことに、AI は感覚を持っている、または人間のように行動できると思い込んでいるため、自分自身や他の人が悲惨な状況に陥る可能性があります。

AI を擬人化しないでください。

そうすることで、AI が実行できないことを AI が実行することを期待するという、厄介で不機嫌な依存の罠にはまります。 そうは言っても、最新のジェネレーティブ AI は、それができることに関して比較的印象的です。 ただし、ジェネレーティブ AI アプリを使用する際には、常に留意しなければならない重大な制限があることに注意してください。

ChatGPT とジェネレーティブ AI に関する急速に拡大している騒ぎに興味があるなら、参考になるかもしれない私のコラムで焦点を絞ったシリーズを行ってきました。 これらのトピックのいずれかがあなたの気になった場合に備えて、ここで一目でわかります:

  • 1) ジェネレーティブ AI の進歩の予測。 ジェネレーティブ AI と ChatGPT の今後の進歩を含め、2023 年以降に AI について何が展開される可能性があるかを知りたい場合は、2023 年の予測の包括的なリストを参照してください。 ここのリンク.
  • 2) ジェネレーティブ AI とメンタルヘルスのアドバイス。 私はジェネレーティブ AI と ChatGPT がメンタルヘルスのアドバイスにどのように使用されているかを確認することにしました。 ここのリンク.
  • 3) ジェネレーティブ AI と ChatGPT の基礎。 この記事では、ジェネレーティブ AI がどのように機能するかの重要な要素を探り、特に話題やファンファーレの分析など、ChatGPT アプリについて掘り下げます。 ここのリンク.
  • 4) ジェネレーティブ AI と ChatGPT をめぐる教師と生徒の間の緊張。 学生がジェネレーティブ AI と ChatGPT を不正に使用する方法を次に示します。 さらに、教師がこの津波に対抗する方法はいくつかあります。 見る ここのリンク.
  • 5) コンテキストとジェネレーティブ AI の使用。 また、ChatGPT とジェネレーティブ AI を含むサンタ関連のコンテキストについて、季節に合わせた皮肉な調査も行いました。 ここのリンク.
  • 6) ジェネレーティブ AI を使用する詐欺師. 不吉なことに、一部の詐欺師は生成 AI と ChatGPT を使用して、詐欺メールの生成やマルウェアのプログラミング コードの作成などの不正行為を行う方法を見つけました。 ここのリンク.
  • 7) ジェネレーティブ AI を使用した初歩的なミス. 多くの人々は、ジェネレーティブ AI と ChatGPT ができることをオーバーシュートしており、驚くほどアンダーシュートしています。 ここのリンク.
  • 8) ジェネレーティブ AI プロンプトと AI 幻覚に対処する. AI アドオンを使用して、生成 AI に適切なプロンプトを入力しようとすることに関連するさまざまな問題に対処するための最先端のアプローチについて説明します。また、いわゆる AI の幻覚出力や虚偽を検出するための追加の AI アドオンもあります。でカバー ここのリンク.
  • 9) ジェネレーティブ AI によって生成されたエッセイの検出に関する Bonehead の主張を暴く. 任意のエッセイが人間によって作成されたものか、AI によって生成されたものかを確認できると宣言する AI アプリの誤ったゴールド ラッシュがあります。 全体として、これは誤解を招くものであり、場合によっては骨の折れる支持できない主張です。 ここのリンク.
  • 10) ジェネレーティブ AI によるロールプレイングは、メンタルヘルスの欠点の前兆となる可能性がある. ChatGPT などのジェネレーティブ AI を使用してロールプレイングを行うものもあり、AI アプリはファンタジーの世界やその他の架空の世界に存在するかのように人間に反応します。 これはメンタルヘルスに影響を与える可能性があります。 ここのリンク.
  • 11) 出力されたエラーと虚偽の範囲を明らかにする。 ChatGPT によって生成されたエラーと虚偽の性質を紹介するために、さまざまな収集リストがまとめられています。 これが不可欠であると信じている人もいれば、この演習は無駄だと言う人もいます。 ここのリンク.
  • 12) ジェネレーティブ AI ChatGPT を禁止している学校は、船に乗り遅れています。 ニューヨーク市 (NYC) 教育省などのさまざまな学校が、ネットワークおよび関連デバイスでの ChatGPT の使用を禁止することを宣言したことをご存知かもしれません。 これは役立つ予防策のように思えるかもしれませんが、針を動かすことはなく、悲しいことに完全にボートを逃します。 ここのリンク.
  • 13) ジェネレーティブ AI ChatGPT は、今後の API によりあらゆる場所に導入される予定です。 ChatGPT の使用に関して重要なひねりがあります。つまり、この特定の AI アプリへの API ポータルを使用することで、他のソフトウェア プログラムが ChatGPT を呼び出して利用できるようになります。 これにより、ジェネレーティブ AI の使用が劇的に拡大し、注目すべき結果がもたらされます。 ここのリンク.
  • 14) ChatGPT がフィズルまたはメルトダウンする可能性がある方法。 ChatGPT がこれまでに受けた絶大な賞賛を下回るという点で、いくつかの潜在的な厄介な問題が ChatGPT の前に横たわっています。 この分析では、ChatGPT が勢いを失い、犬小屋に陥る原因となる可能性のある XNUMX つの問題を詳細に調べます。 ここのリンク.

ChatGPT が、GPT-3 として知られる前身の AI アプリのバージョンに基づいていることに興味があるかもしれません。 ChatGPT は、GPT-3.5 と呼ばれる少し次のステップと見なされます。 GPT-4 は 2023 年の春にリリースされる可能性が高いと予想されます。おそらく、GPT-4 は、一見より流暢なエッセイを作成できるようになり、より深くなり、畏敬の念を抱くようになるという点で、印象的な前進になるでしょう。 -それが作り出すことができる構成に関して感動的な驚異。

春が訪れ、最新のジェネレーティブ AI がリリースされると、新たな驚きの表現が見られることを期待できます。

私がこれを持ち出すのは、これらのより優れた、より大きなジェネレーティブ AI アプリの潜在的なアキレス腱からなる、心に留めておくべき別の角度があるからです。 AI ベンダーが汚物を泡状に吐き出すジェネレーティブ AI アプリを利用可能にすると、AI メーカーの希望が打ち砕かれる可能性があります。 社会的なスピルオーバーは、すべての生成 AI に深刻な問題を引き起こす可能性があります。 人々は間違いなく、不正な出力にかなり動揺するでしょう。これはすでに何度も起こっており、AI に対する激しい社会的非難の反発につながっています。

とりあえず最後の予告。

ジェネレーティブ AI の応答で見たり読んだりしたものは何でも、 と思われる 純粋に事実 (日付、場所、人物など) として伝えられるようにするには、懐疑的な姿勢を保ち、目にしたものを再確認してください。

はい、日付をでっち上げたり、場所をでっち上げたりすることができます。 疑惑の対象。 生成 AI のエッセイや出力を調べるときは、読んだ内容を信じず、懐疑的な目を向けてください。 ジェネレーティブ AI アプリが、エイブラハム リンカーンが自分のプライベート ジェットで国中を飛び回ったと伝えたら、これは間違いなく悪意があるとわかるでしょう。 残念なことに、彼の時代にジェット機が存在しなかったことを認識していない人もいれば、エッセイがこの厚かましくとんでもない虚偽の主張をしていることを知っていても気付かない人もいるかもしれません。

ジェネレーティブ AI を使用する際には、健全な懐疑心と不信感を持ち続ける姿勢が最大の武器となります。

この解明の次の段階に進む準備ができています。

そのテキストで悪魔がどうなるかを知る

基礎が確立されたので、ジェネレーティブ AI を使用する際のデータと情報の考慮事項に飛び込みましょう。

まず、ChatGPT のプロンプトにテキストを入力するとどうなるかを簡単に考えてみましょう。 このプログラムはプロプライエタリと見なされているため、ChatGPT 内で何が起こっているのかはわかりません。 これにより、AI アプリの透明性が損なわれていると指摘する人もいます。 OpenAI と呼ばれる企業の AI は、実際には一般公開されておらず、オープン ソースとしては利用できないという、やや皮肉な発言があります。

トークン化について説明しましょう。

プレーン テキストをプロンプトに入力して Return キーを押すと、おそらくすぐに変換が行われます。 テキストは、トークンで構成される形式に変換されます。 トークンは単語のサブパーツです。 たとえば、「ハンバーガー」という単語は通常、「ハム」、「バー」、「ゲル」の 75 つのトークンに分割されます。 目安として、トークンは約 XNUMX 文字を表す傾向があるか、従来の英単語の約 XNUMX% と見なされます。

その後、各トークンは数値として再定式化されます。 さまざまな内部テーブルが、どのトークンがどの特定の番号に割り当てられるかを指定します。 これを理解すると、入力したテキストは完全に一連の数字になっています。 これらの数値は、プロンプトを計算的に分析するために使用されます。 さらに、前述のパターン マッチング ネットワークも、トークン化された値に基づいています。 最終的に、出力されたエッセイを作成または生成するときに、これらの数値トークンが最初に使用され、次に表示される前に、トークンが文字と単語のセットに変換されます。

少し考えてみてください。

これが処理の仕組みだと人々に話すと、彼らはしばしば唖然とします。 彼らは、ChatGPT などの生成 AI アプリは完全に統合的な単語を使用する必要があると想定していました。 論理的には、言葉は、書かれた物語や構成の関係を統計的に識別するためのキーストーンとして機能すると想定しています。 処理は実際にはトークンを使用する傾向があることがわかりました。 おそらく、これは、計算プロセスが人間の言語を模倣するという非常に説得力のある仕事をしているように見える方法に対する驚きに追加されます.

広まっているように見える XNUMX つの一般的な誤解のために、そのプロセスを説明しました。 一部の人々は、プロンプト テキストが数値トークンに変換されているため、AI アプリの内部に最初に入力したテキストが何らかの形で存在しなくても安全であると信じているようです。 したがって、プロンプトに機密情報を入力したとしても、すべてがトークン化されているように見えるため、心配する必要はありません.

その考えは誤りです。 先ほど指摘したように、数値トークンは文字や単語のテキスト形式に簡単に戻すことができます。 トークン化された変換済みプロンプトでも同じことができます。 トークン化されたことについて魔法のように保護するものは何もありません。 とはいえ、トークンに変換した後に、トークンを落としたり、移動させたり、ごちゃ混ぜにしたり、切り刻んだりする追加のプロセスがある場合、その場合、元の一部が変更される可能性があります。プロンプトはもはや無傷ではありません (元のコピーが他の方法で保持または内部のどこかに保存されていないと仮定します)。

次に、ChatGPT のさまざまな通知とライセンス条項を見ていきます。

ChatGPT にログオンすると、一連の注意事項と情報コメントが表示されます。

どうぞ:

  • 「時折誤った情報を生成する可能性があります。」
  • 「時折、有害な指示や偏った内容を生成する可能性があります。」
  • 「不適切な要求を拒否するように訓練されています。」
  • 「私たちの目標は、システムを改善し、より安全にするために、外部からのフィードバックを得ることです。」
  • 「私たちは安全対策を講じていますが、システムは不正確または誤解を招く情報を生成し、攻撃的または偏ったコンテンツを生成することがあります. アドバイスを目的としたものではありません。」
  • 「会話は、システムを改善するために AI トレーナーによってレビューされる場合があります。」
  • 「会話で機密情報を共有しないでください。」
  • 「このシステムは会話に最適化されています。 特定の反応が良かった、または役に立たなかった場合はお知らせください。」
  • 「2021年以降の世界と出来事に関する限られた知識」

これらの警告のうち XNUMX つは、この議論に特に関連しています。 XNUMX 番目の箇条書きと XNUMX 番目の箇条書きを見てください。

これらXNUMXつを解凍しましょう:

「会話は、システムを改善するために AI トレーナーによってレビューされる場合があります。」

この XNUMX 番目の箇条書きは、ChatGPT を使用する際のテキスト会話が、システムを改善するために行われている「AI トレーナー」を介して ChatGPT によってレビューされる可能性があることを説明しています。 これは、ChatGPT で行う「会話」の一部である、入力されたテキスト プロンプトとそれに対応する出力されたエッセイのすべてについて、チャット GPT の人々が完全に見ることができることをお知らせするものです。 提供された理論的根拠は、これは AI アプリを改善するために行われているというものであり、AI トレーナーによって行われている一種の作業タスクであるとも言われています。 多分そうかもしれませんが、最終的には、彼らはあなたのテキストを見ることができるということをあなたに知らせたということです. ピリオド、ピリオド。

彼らがあなたのテキストに対して何か他のことをした場合、おそらく、彼らが単にシステム改善の目的でテキストをレビューするという提案された範囲をはるかに超えて引き寄せられたかどうかについて、法的助言を求めるでしょう (彼らがそうしたことを発見できたと仮定すると、どのそれ自体はおそらくありそうにないようです)。 とにかく、彼らをこれに固定しようとする法的な論争と、免責事項の境界に何らかの形で違反したために逮捕されないようにする彼らの試みを想像することができます.

「会話で機密情報を共有しないでください。」

XNUMX 番目の箇条書きは、会話で機密情報を共有してはならないことを示しています。 それは比較的簡単に思えます。 機密情報の定義が何で構成されているかについて、あなたは疑問を抱くかもしれません。 また、箇条書きには、機密情報を共有してはならない理由が示されていません。 いつか機密データを愚かに入力した理由を必死に説明しなければならない場合は、警告が非具体的であったため、重要性を理解していなかったという眉をひそめた主張を試みるかもしれません. 息を止めてください。

全体として、私がChatGPTを使用しているのを見たほとんどの人は、箇条書きのポイントを読まない傾向があるか、箇条書きの注意事項をざっと読んで、あたかもすべての時間。 警告を厳密に心に留めている人はほとんどないようです。 これは、注意事項をより明確にしなかったベンダーの責任ですか? それとも、ユーザーには責任があり、注意して読み、理解し、警告に基づいて慎重に行動する必要があると想定する必要がありますか?

AI アプリは繰り返し警告するべきだと主張する人さえいます。 プロンプトを入力するたびに、ソフトウェアは警告をポップアップ表示し、リターンを押すかどうかを尋ねます. 何度も何度も。 これは有益な予防措置のように思えるかもしれませんが、確かにユーザーを苛立たせます。 厄介なトレードオフが関係しています。

さて、これらはすべてのユーザーがすぐに確認できるように提示された明らかな注意事項です。

より好奇心旺盛なユーザーは、オンラインにも掲載されている詳細なライセンス条件のいくつかを追求することを選択できます. 多くの人がそうしているとは思えません。 私の推測では、ログイン時に箇条書きを真剣に検討する人はほとんどおらず、ライセンスの詳細を確認する人はさらに少ないと思います。 繰り返しになりますが、私たちは最近、そのようなことにいくらか麻痺しています。 私はその振る舞いを言い訳しているわけではなく、なぜそれが起こるのかを指摘しているだけです。

掲載されたライセンス条項からいくつかの抜粋を検討します。

まず、ChatGPT の使用に関連する「コンテンツ」と見なされるものの定義を次に示します。

  • 「あなたのコンテンツ。 お客様は、サービスに入力を提供し (「入力」)、入力に基づいてサービスによって生成および返された出力を受け取ることができます (「出力」)。 インプットとアウトプットはまとめて「コンテンツ」です。 当事者間で、適用法で許可される範囲で、お客様はすべてのインプットを所有し、お客様が本規約を遵守することを条件として、OpenAI はここに、アウトプットに対するすべての権利、権原、利益をお客様に譲渡します。 OpenAI は、サービスを提供および維持し、適用法を遵守し、当社のポリシーを施行するために、必要に応じてコンテンツを使用する場合があります。 あなたは、適用法または本規約に違反しないことを保証することを含め、コンテンツに対して責任を負います。」

その定義を注意深く調べると、OpenAI は、適用される法律の遵守やポリシーの施行など、サービスを維持するために必要と判断した場合に、コンテンツを使用できると宣言していることに気付くでしょう。 これは彼らにとって便利なキャッチオールです。 私のコラムの次の XNUMX つで、別の、しかし関連するトピック、具体的には、入力されたテキスト プロンプトと出力されたエッセイに関して知的財産 (IP) の権利について説明します (これは、内容はそのトピックに関係しています)。

セクション c とラベル付けされた用語のさらなる部分で、彼らはこの側面に言及しています。 OpenAI がサービスを提供および維持するのを支援するために、お客様は、コンテンツを使用してサービスを開発および改善することに同意し、指示するものとします。」 これは、ChatGPT にログインしたときに表示される前述の XNUMX 行の警告に似ています。

これにリンクされている別のドキュメントは、これらの重要な問題に関するいくつかの追加の側面を提供します。

  • 「この継続的な改善の一環として、API を介して OpenAI モデルを使用する場合、提供されたデータを使用してモデルを改善することがあります。 これにより、モデルがより正確になり、特定の問題をより適切に解決できるようになるだけでなく、一般的な機能と安全性も向上します。 私たちは、データのプライバシーとセキュリティがお客様にとって重要であることを理解しています。 当社は、適切な技術的およびプロセス管理を使用してデータを保護するよう細心の注意を払っています。 モデルのパフォーマンスを向上させるために使用する予定のデータから、個人を特定できる情報を削除します。 また、モデルのパフォーマンスを改善するための取り組みのために、お客様ごとに少量のデータ サンプリングのみを使用しています。 たとえば、あるタスクについて、顧客ごとにサンプリングする API リクエストの最大数は、200 か月ごとに 6 に制限されています」(「モデルのパフォーマンスを向上させるためにデータを使用する方法」というタイトルのドキュメントからの抜粋)。

規定は、規定が適用されることを示していることに注意してください。 APIの使用 OpenAIモデルに接続して使用する手段として。 これが ChatGPT を直接使用しているエンド ユーザーに等しく当てはまるかどうかについては、やや曖昧です。

さまざまなFAQのリストを含むさらに別のドキュメントでは、一連の質問と回答を提供しています。そのうちのXNUMXつは、この議論に特に関連していると思われます。

  • (5) 誰が私の会話を見ることができますか? 安全で責任ある AI へのコミットメントの一環として、会話を見直してシステムを改善し、コンテンツがポリシーと安全要件に準拠していることを確認します。」
  • 「(8) 特定のプロンプトを削除できますか? いいえ、履歴から特定のプロンプトを削除することはできません。 会話で機密情報を共有しないでください。」

プライバシーポリシーをカバーする追加のドキュメントがあります. 「私たちは、単独で、または私たちが所有する他の情報と組み合わせて、あなたを特定するために使用できる情報(「個人情報」)を収集し、ログデータ、使用データ、通信情報を使用する可能性があることを説明します。デバイス情報、Cookie、分析、およびその他の収集可能な情報。 細かい活字を必ず読んでください。

これで、データがどのように使用されるかの根底にあるいくつかの考慮事項を概説できたと思います。 冒頭で述べたように、すべてのライセンス条項を骨の折れる手順で踏破するつもりはありません。

願わくば、これでこれらの問題についての考え方が理解でき、頭の片隅に留まるようになることを願っています。

まとめ

以前も言いましたが、もう一度言いますが、これらのジェネレーティブ AI アプリに機密データや個人データを入力しないでください。

この賢明なアドバイスについて、いくつかの便利なヒントやオプションを検討してください。

  • ジェネレーティブ AI を使用する前に考える
  • 事前に物を取り除く
  • 入力をマスクまたは偽造する
  • 独自のインスタンスをセットアップする
  • その他

次に、それらのそれぞれが何で構成されているかを示します。 独自のインスタンスのセットアップについては、ここで以前に説明しました。 私のリストで「その他」を使用しているのは、機密データが含まれないように対処する他の方法がある可能性があるためです。これについては、今後のコラム投稿で詳しく説明します。

これらを調べてみましょう:

  • ジェネレーティブ AI を使用する前に考える. XNUMX つのアプローチには、ジェネレーティブ AI の使用を完全に避けることが含まれます。 または、そうする前に少なくともよく考えてください。 最も安全な方法は、これらの AI アプリを使用しないことだと思います。 しかし、これも非常に深刻で、ほとんどやり過ぎのようです。
  • 事前に物を取り除く. もう XNUMX つのアプローチは、プロンプトとして入力した内容から機密情報または個人情報を削除することです。 そういう意味では、入らなければボーグに溶け込む可能性はない。 マイナス面としては、機密部分を削除すると、ジェネレーティブ AI に実行させようとしていることが何らかの形で減少または減額される可能性があることです。
  • 入力をマスクまたは偽造する. 情報を変更することで、提案されたテキストを変更して、機密または非公開に見えるものを別の方法で表現することができます. たとえば、Widget Company と John Smith に言及する契約の代わりに、Specious Company と Jane Capone を参照するようにテキストを変更します。 ここでの問題は、すべての機密およびプライベートな側面が完全に変更または偽造されるように、十分に徹底的な仕事を行うかどうかです。 曇りのいくつかを見逃して、そこにあるべきではないものを残すのは簡単です.

これは、このトピックについてあなたの知識をさらに浸透させる可能性のある興味深い追加のひねりです。 入力プロンプトに機密情報が含まれていないことを完全に確認できる場合、出力されたエッセイにも機密情報が含まれていることを心配する必要がないことを意味しますか?

これは公理的に正しいように思われます。 秘密の入力も秘密の出力もありません。

これがあなたの心を曲げるひねりです。

ジェネレーティブ AI は、多くの場合、提供されているテキスト プロンプトからコンピューターを使用して再トレーニングするように設定されています。 同様に、ジェネレーティブ AI は、出力されたエッセイから計算的に再トレーニングするように考案されることがよくあります。 この再トレーニングはすべて、ジェネレーティブ AI の機能を向上させることを目的としています。

私は別のコラムの XNUMX つで、私が行った次の実験について説明しました。 弁護士は、法的な問題に取り組むための新しい手段を見つけようとしていました。 法律文献を徹底的に調べた後、すでに表面化したすべての角度が見つかったようです。 ジェネレーティブ AI を使用して、これまで特定されていなかったように見える斬新な法的アプローチを AI アプリで作成しました。 この法的姿勢に着手した人はまだ誰もいないと信じられていました。 いわば合法的な金塊。 これは、戦略的に価値のある競争力のある法的大当たりであり、適切なタイミングで活用され、悪用される可能性があります。

その出力されたエッセイは、この特定の人のために AI によって生成され、特別で一見ユニークなものが含まれているなど、機密情報の形式を構成しますか?

あはは、これは、ジェネレーティブ AI に関連する所有権と知的財産権に関する、関連し絡み合った別のトピックにつながります。 これがどうなるか、お楽しみに。

とりあえず最後に一言。

ソポクレスは次の知恵を与えました。 時間はすべてのものを見聞きし、すべてを開示するからです。」 言葉遣いを現代化して、生成型 AI と、AI を考案して維持する人々もすべてを理解する傾向があると主張できると思います。

これは、覚えておく価値のある控えめなトークンのアドバイスです。

ソース: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai-倫理と愛の法/