ジェネレーティブ AI ChatGPT を使用する人々は、この AI ルーキー ミスを本能的に犯しています。これは、AI の倫理と AI 法の厄介なレシピです。

習慣の力。

きっと経験したことがあると思います。

に関する基本的な概念 習慣の力 何度も何度も何かをしたことに、やや無知な依存に基づいて物事を行うことがあるということです。 習慣はあなたの精神力を乗っ取り、おそらく物事を新たに見たり実行したりする能力を無効にします.

一方では、習慣の力が非常に役立つ可能性があると主張することができます. 目前の特定の問題についてあからさまに考えようとすることで精神プロセスを消費する代わりに、精神的な労力をあまりかけずにタスクを完了することができるようです. 通常、これをあなたの 記憶の筋肉 あたかも、あなたの心をコンディショニングすることは、考慮された公理的反応を実行するためのあなたの肉体に似ているかのように.

習慣の力に頼ることの重大な欠点は、より良い方法で物事を行う機会を逃したり、新たな機会を利用できなかったりすることです。 あなたは自分のやり方に固執しており、自分にとって役立つ可能性のある実行可能な代替手段を利用したり活用したりしません。 それは古典的な泥棒です (おそらく、この古くからの言い回しは、泥の中に固く揺るぎなく突き刺さった棒としてより完全に表現されるべきです)。

今日のコラムでは、その方法を示します。 習慣の力 人工知能 (AI) の使用に関しては、多くの人が失敗する原因となっています。

特定のコンテキストには、今日では AI と呼ばれる AI の使用が含まれます。 生成AI また、ChatGPT と呼ばれる、広く普及し、大いに宣伝されている AI アプリを使用して、習慣の側面の力を紹介します。 実際の入力と出力を提供して ChatGPT を紹介し、料理レシピを考案するという一見無害な作業をカバーするので、探索を楽しんでいただけると思います。 タスク自体は比較的平凡な雑用です。 とはいえ、人々がAI初心者のやり方として造語され、根深い習慣の力によって支配されているような不注意な行動をどのように行っているかについて、非常に有用な洞察を得ることができます.

この議論の終わりまでに、あなたは同じ AI 初心者の過ちを犯すことはありません。

より大きなスケールでは、これらすべてが AI の倫理と AI の法律に関連する重要な意味を持っています。 最新の AI 倫理と AI 法に関する私の広範かつ継続的な報道に興味があるかもしれません。 ここのリンク & ここのリンク、ほんの数例を挙げると。 AI の倫理と AI 法に対する冷静で賢明な注意には、AI の適切な使用と、AI の悪用の回避または少なくとも軽減を含む、AI の使用方法が含まれます。

ジェネレーティブ AI として知られる特定のタイプの AI は、最近、AI がどこにあり、どこに向かっているのかという話題になると、ソーシャル メディアやニュースを支配しています。 これは、ジェネレーティブ AI を使用する AI アプリ、組織 OpenAI によって開発された ChatGPT アプリのリリースによって引き起こされました。

ChatGPT は汎用の AI インタラクティブ システムであり、本質的に無害な一般的なチャットボットに見えますが、多くの人が完全に不意を突かれるような方法で積極的かつ熱心に使用されています。 たとえば、顕著な懸念は、ChatGPT やその他の類似の生成 AI アプリによって、学生がエッセイでカンニングを行うことを可能にすることです。 怠惰な学生や、エッセイを書く時間やスキルがなくて閉じ込められていると感じている学生は、ジェネレーティブ AI アプリをすぐに呼び出してエッセイを書くことができます。 これについては後ほど詳しく説明します。 ChatGPT がこれをどのように許可するか、および教師が何をすべきかについての詳細な分析については、以下を参照してください。 ここのリンク.

ChatGPT とジェネレーティブ AI に関する急速に拡大している大騒ぎに特に関心がある場合は、有益で魅力的なコラムを連載しています。

私はジェネレーティブ AI と ChatGPT がメンタルヘルスのアドバイスにどのように使用されているかを確認することにしました。 ここのリンク. ジェネレーティブ AI と ChatGPT の今後の進歩を含め、2023 年を通して AI について展開される可能性が高いものを知りたい場合は、2023 年の予測の包括的なリストをご覧ください。 ここのリンク. また、ChatGPT とジェネレーティブ AI を含むサンタ関連のコンテキストに関して、季節に合わせた皮肉な調査も行いました。 ここのリンク. 不吉なことに、一部の計画者は生成 AI と ChatGPT を使用して詐欺メールを生成したり、マルウェアのプログラミング コードを生成したりするなどの不正行為を行う方法を見つけました。私の分析を参照してください。 ここのリンク.

ここではジェネレーティブ AI と ChatGPT に関する基礎を説明しますので、しばらくお待ちください。一般的なスクープが得られます。

一方、ソーシャル メディアを見てみると、ChatGPT とジェネレーティブ AI はスライス パン以来の最高のものであると宣言している人がいます。 これは実際には知覚力のある AI であると示唆する人もいます (いや、彼らは間違っています!)。 他の人は、人々が自分より先を行っているのではないかと心配しています。 彼らは見たいものを見ています。 彼らはピカピカの新しいおもちゃを取り上げ、キャッチーな新しいものを手に入れることができない理由を正確に示しました.

AI の倫理と AI の法律の担当者は、この急成長する傾向について特に懸念しており、当然のことです。

今日の AI が実際にできることを超えている人がいると、丁寧に言うかもしれません。 彼らは、AI には私たちがまだ達成できていない機能があると想定しています。 それは残念です。 さらに悪いことに、AI は感覚を持っている、または人間のように行動できると思い込んでいるため、自分自身や他の人が悲惨な状況に陥る可能性があります。 AI を擬人化しないでください。 そうすることで、AI が実行できないことを AI が実行することを期待するという、厄介で不機嫌な依存の罠にはまります。

その極端な反対側には、今日の AI ができることを時々下回る傾向があります。

はい、人々はジェネレーティブ AI や ChatGPT などの AI を使用していますが、これらはある意味で現代の AI に関連する十分な経験を得ることができていないか失敗しています。 これは多くの場合、この種のアンダーシュートを行う人の習慣的な考え方の力によるものです。 アンダーシュートが問題かどうかについて議論することができます。 おそらく、AI は実際よりも限定的であると推測する方が安全です。 確かに、行き過ぎには最大の危険があります。 私たちは、AI が提供できるあらゆる栄光の中で AI を使用するべきです。 AI の利点を最大化することで、潜在的に大きな利点が得られる可能性があります。 AI ができることを下回ってしまうと、可能性のある機会と見返りを逃してしまいます。

一部の人がAI、特にChatGPTをどのように過小評価しているかを見る前に、習慣の問題の力にさらにコンテキストを追加したいと思います.

それでは、ジェネレーティブ AI と ChatGPT の説明に戻ります。

習慣の力の根底にある力

私はしばしば、習慣の力の強力な影響についての要点を説明するために、スマートフォンの黎明期を引き合いに出します。

携帯電話が最初に普及したとき、人々は主に電話をかけるために携帯電話を使用していました。 スマートフォンの登場に伴い、カメラ機能が追加されました。 人々が携帯電話を使って写真を撮ることに慣れていないことを思い出したり、聞いたことがあるかもしれません。

写真を撮りたい人は、反射的に従来のカメラを探し、カメラ付き携帯電話を使用することをやめます。 従来のカメラを家に置き忘れ、絶好のタイミングでスナップショットを撮ることができなかったことに腹を立てている人を見ると、ほとんど笑えます。 手に持っている電話がそうできることを思い出した後、彼らは恥ずかしそうに貴重なショットを撮りました.

スマートフォンにビデオ録画機能が追加されたとき、この同じサイクルが繰り返されました。 これは最初の例とは少し異なりました。 人々は携帯電話を使ってビデオを撮れることに気付くだろうが、撮影されている人々は電話が静止画しか撮らないかのように振る舞った。 繰り返しになりますが、人々のグループが写真を撮るためにすべてフリーズするのに対し、ビデオ録画機能を備えたスマートフォンを持っている人は、腕を振って生き生きと振る舞うように懇願しなければならないというのは、ほとんど笑えます.

前者のケースでは、スマートフォンを使って写真を撮ることに慣れていない一部の人々の心を曇らせたのは習慣の力であったと言えます。 XNUMXつ目のケースでは、動画は専用のハンディビデオレコーダーでしか撮れず、スマートフォンは静止画しか撮れないという習慣が強かった。

これにより、習慣の力がどのように発生するかを明らかにする文脈が確立されると私は信じています。

ギアを AI 領域にシフトします。

ジェネレーティブ AI と ChatGPT に関して言えば、このタイプの AI の重要な要素は、それが 会話. 自宅や職場でチャットボットや同様の技術を使用したことがあるでしょう。 Alexa や Siri を使用したことがある場合は、認識しているかどうかにかかわらず、会話型の AI システムを使用したことがあります。

会話型 AI の目的は、人間が AI アプリと会話できるようにすることです。 人間は、仲間の人間と同じ会話能力を使用できる必要があります。 うーん、それが野心的な目標です。 すべての会話型 AI が優れているわけではありません。 そのレベルの流暢さを得るには、まだ克服しなければならないハードルがあります。

あなたは間違いなく Alexa や Siri を使用しており、それらの AI 会話型アプリが時々非常に不足していることに気付きました。 たとえば、流暢な英語で何かを言い、AI が指示の要点を理解することを期待します。 残念なことに、これらの AI システムは、多くの場合、ユーザーのコマンドや要求の性質を理解できていないことを示すような反応を示します。 これはイライラすることがあります。 これは腹立たしいことがあります。

最終的に、あなたはいくらか容赦するか、全面的な会話をしようとすることをあきらめます. AI が十分に機能していないため、AI の会話機能は限定的であることが判明しました。 人々は、これらの会話が流暢であると言われている AI アプリとやり取りするには、自分の発話を「言葉を濁す」必要があることに徐々に気づきます。 AIアプリに話しかけたり、短くて初歩的な文章でテキストを送信したりし始めます。 物事を短く簡潔にすれば、AI が物事を正しく理解する可能性が高まることが期待されます。

おそらく、このタイプの弧を描く人々を見たことがあるでしょう。 彼らは、AI 会話型アプリを使用するとき、大きな熱意を持って始めます。 半分以上の確率で、AI が述べられている内容を完全に見落としていることに気付くと、人間は頭がおかしくなります。 彼らは AI を使い続けたいと思っていますが、人間の流暢な言語を使うのは無意味だと認識しています。 最終的に、各人は、AI アプリをなだめ、AI が人間の発話による指示を実行できるようになることを願って、自分が信じている独自の速記を作成します。

つまり、宣伝されている AI 会話型アプリは、多くの場合、宣言されている傾向とはかけ離れています。

これがすべてのひねりです。

AI アプリとの会話を制限または制限することに慣れている人は、次のような状況に陥ります。 習慣の力 常にそうする。 意味あり。 会話型 AI アプリを使用するたびに車輪を再発明したくはありませんが、これまでに使用したいくつかのアプリと同じくらい限定的であると想定しています。 したがって、他の残念なほど流暢ではない AI アプリと会話するときに学んだハードノックの教訓の学校に頼るのもよいでしょう。

これにひねりを加えたのは、ChatGPT などの最新のジェネレーティブ AI が、行われている会話の段階的な改良においてステップアップする傾向があるということです。 以前に使用した、より粗雑で限定的な AI アプリは、これらの最新のジェネレーティブ AI アプリよりもはるかに会話能力が低い可能性があります。

これまでの対話型 AI の失望から抜け出し、何か新しいことを試してみることを厭わない必要があります。 これらの新しいジェネレーティブ AI アプリに、自分たちのものを誇張するための戦いのチャンスを与えてください。 そうすればきっと喜んでいただけると思います。 AI の進歩を目の当たりにすることは、非常に驚​​くべきことであり、勇気づけられることもあります。

さて、私の言っていることを誤解しないでください。 これは、今日のジェネレーティブ AI が何らかの形で完全に会話可能で流暢であることを保証するものではありません。 そうではない。 以前よりも良くなっていると強調しているだけです。 AIゲームもアップされているので、あなたのゲームをアップできます。 繰り返しますが、私たちにはまだ長い道のりがあります。

私が言及していることの例を挙げましょう。

料理に関する動画を作成している非常に人気のあるソーシャル メディアのブロガーは、動画セグメントの XNUMX つに AI アプリを使用することを選択することで、ChatGPT とジェネレーティブ AI の時流にすぐに飛びつきました。 彼女は ChatGPT にログインし、レシピの作成を依頼しました。 次に彼女は、AI が生成したレシピを使用して、指示された食事を調理しようと試みました。

全体として、これは非常に賢明で、最新の AI を紹介する刺激的な方法のように思えます。

現代の AI パーソンにとって、この料理の旅の途中で、やや悲しい、または少なくともがっかりすることが起こりました。 vlogger は基本的に、AI が料理本に似ているかのようにレシピを生成しました。 希望する食事の全体的な種類を AI に伝えた後、AI アプリは vlogger 向けのレシピを生成しました。 その後、動画ブロガーは食事を調理しようとしましたが、そうするとさまざまな疑問が生じました。 vlogger が含める必要があると考えていた他の材料がレシピに含まれていなかったのはなぜですか? AI が料理の複雑な部分のやり方を説明しなかったのはなぜですか?

この種の質問は、ビデオ セグメントで繰り返し提起されました。

ほとんどの視聴者は、料理本を使ったり、インターネットでレシピを調べたりするときによくある問題だと思い、うなずいたでしょう。 基本的に、材料と指示の印刷されたリストが表示されます。 それらを実際に使用しようとすると、手順が欠落していたり​​、混乱したりすることがあります。

夢のように、レシピを作ったシェフと交流するのは素晴らしいことです. このような鋭い質問をすることができます。 あなたはシェフと会話することができるでしょう。 代わりに、静的な調理手順のリストを持っているだけで、紙に記載されていない詳細な側面を識別することができません。

おっと、ちょっと待ってください。ジェネレーティブ AI と ChatGPT の会話面について、ここでドキドキしてきたことを思い出してください。 質問をして、答えが考案されて提示されたら、立ち去るだけではいけません。 より良い使い方は、AIアプリとの会話を続けることです. 先に進んで、人間のシェフに尋ねたかもしれない質問をしてください。

習慣のせいで、そうしようとは思わないかもしれません。 これは実際に料理動画ブロガーの場合に起こったことのようです。 以前に会話型 AI を使用したことで、最新の AI を定型化されたインターネット検索エンジンにすぎないものとして扱うように自分の心を調整することができます。 クエリを入力します。 戻ってくるものを見てください。 一つを選ぶ。 そこから進みます。

ジェネレーティブ AI を使用する場合、スターター プロンプトは有益で刺激的な会話の旅の始まりにすぎないと考える必要があります。

ChatGPT などのジェネレーティブ AI を使用するときは、これらのタイプの会話ナッジをメンタル ツールキットに保持するように人々に伝えます (やり取りするときにこれらのスニークのいずれかまたはすべてを試してください)。

  • AI に応答を短くするように指示すると、より的確な応答が得られます
  • AI に精巧な応答をするように指示すると、より長い増幅が得られます
  • より多くの情報を得ることができるように、述べられていることを AI に説明してもらいます。
  • 自分自身の説明に進み、AI があなたの理解に応じて何を返すかを確認します
  • 述べられた反応に関して AI に同意せず、AI に物を守るように仕向ける
  • 述べられていることを確認するために、AI 応答の要約または要約が必要であることを示します
  • 必要に応じて、関連するトピックまたは別のトピックに会話をピボットします (サイド タンジェントは問題ありません)。
  • AI にコンテキストに含めてもらいたいふりをするタイプのシナリオを作成する
  • 何かを確認して、確認の確認または不確認について AI が何を述べているかを確認します

これらの側面から、会話型 AI アプリがどこまで拡張できるかを確認できます。 これがどこまでできるのか、あなたはびっくりするかもしれません。 いくつかの点で、前述の提案は、人間と対話する場合に行う可能性があることに似ています。 それについて考えてください。 人間と会話している場合、これらのすべてのプラクティスにより、より刺激的な会話が可能になる可能性があります。

人間との会話とは異なり、会話に参加している相手の気持ちを傷つける心配はありません。 AIは機械です。 あなたは突然することができます。 これは状況を改善するものではありませんが、あなたは研磨することができます (これについてはすぐに再検討します)。

AI の倫理と AI の法律に関する考慮事項が多数発生します。

第一に、AI の会話技術とテクノロジーの進歩に引きずられて、AI の擬人化に引き込まれないようにしてください。 陥りやすい心の罠です。 吸い込まれないでください。

第 XNUMX に、AI の感情を傷つけることを心配しないという考えは、滑りやすい坂道を警告する人もいます。 会話型 AI に不満がある場合は、これを全体的な標準にすることができます。 あなたは徐々に人間にも研磨的になります。 AI を傷つけること自体が悪いというわけではありません (まあ、これに熱心ではない将来の存在リスク AI について心配する人もいます。私の議論を参照してください。 ここのリンク)、それはむしろ、あなたが言うまでもなく研磨する習慣を形成しているということです.

第三に、一部の AI 研究者と AI 開発者は、あたかも感情を持っているかのように AI をプログラムすることによって、いわば反撃することを選択しました。 ここのリンク. これは明示的にプログラムされている場合もあれば、人間の相互作用に関連するパターン マッチングに基づいている場合もあります (つまり、人間がどのように相互作用するかを研究し、AI に、他の人がいらいらしているときに人間が行うことを模倣させます)。 これにより、先ほど述べた滑りやすい斜面を人間が滑り落ちるのを抑えることができると考えられています。

逆に言うと、AI に感情があるように見える場合、人間が AI を擬人化する傾向がさらに強まるということです。 その場合、いわゆる治療法と問題の根底にある病気のどちらが悪いのでしょうか?

主要な AI 倫理原則と、AI 開発者と AI を運用する人々に倫理的な AI プラクティスを採用させようとする進行中の物語について詳しくは、次の URL の私の記事を参照してください。 ここのリンク. AI監査に関するニューヨーク市の法律など、AIに関する新しい法律が連邦、州、市、および地方レベルで出現することを期待してください(私の分析を参照してください ここのリンク)、そしてグローバルな国際 AI 関連法の波も来ています。 ここのリンク.

ここでの議論のこの時点で、ジェネレーティブ AI がどのように機能するかについていくつかの注目すべき詳細を共有すると便利かもしれません。 また、ChatGPT に関する有用な追加の背景情報を見つけることができると思います。

簡単に言えば、ジェネレーティブ AI は、テキストが人間の手と心によって書かれたかのようにテキストを構成する特殊なタイプの AI です。 「エイブラハム・リンカーンについて教えて」などのプロンプトを入力するだけで、ジェネレーティブ AI がリンカーンに関するエッセイを提供してくれます。 これは一般的に、以下を実行するジェネレーティブ AI として分類されます。 テキストからテキストへ または、それを呼び出すことを好む人もいます テキストからエッセイへ 出力。 テキストからアート、テキストからビデオなど、ジェネレーティブ AI の他のモードについて聞いたことがあるかもしれません。

あなたの最初の考えは、これはエッセイを作成するという点ではそれほど大したことではないように思えるかもしれません. インターネットで簡単にオンライン検索を行い、リンカーン大統領に関する膨大な量のエッセイを簡単に見つけることができます。

ジェネレーティブ AI の場合のキッカーは、生成されたエッセイが比較的ユニークであり、模倣ではなく独自の構成を提供することです。 AI が作成したエッセイをオンラインでどこかで見つけようとしても、それを見つけることはまずありません。

ジェネレーティブ AI は事前にトレーニングされており、ウェブ全体で書かれた言葉や物語のパターンを調べることによって設定された複雑な数学的および計算式を利用します。 何千、何百万もの文章を調べた結果、AI は見つかったものの寄せ集めである新しいエッセイやストーリーを吐き出すことができます。 さまざまな確率的機能を追加することにより、結果として得られるテキストは、トレーニング セットで使用されたものと比較して非常にユニークです。

この後、生成 AI に質問やプロンプトを入力するとどうなるかを紹介します。 ChatGPT の最新バージョンを使用してプロンプトを入力し、AI によって生成された「回答」またはエッセイを収集します (他の多数の利用可能な生成 AI アプリでも同じことができることに注意してください。使用することを選択しました)。 ChatGPT は現在 XNUMX 分間の名声を得ているためです)。

ジェネレーティブ AI アプリは、インターネット上の信頼できない情報のトレーニング データの中で虚偽を検出することがあります。 生成型 AI には、真と偽を判断する「常識」はありません。 さらに、クロスチェックを行っている AI アプリはほとんどなく、伝えている内容に関連する確率を示すこともありません。

肝心な結果として、見た目も感触も非常に確実で、完全に正しいと思われる応答が得られます。 そうではありません。 AIの用語で AIの幻覚 (私が明らかに嫌いな造語)、私の議論を参照してください ここのリンク.

ChatGPT の作成者は、悪い出力の出力を減らすために、一丸となって努力しました。 たとえば、彼らは、として知られているものの変形を使用しました RLHF (人間のフィードバックからの強化学習) では、AI を公開する前に、人間を雇ってさまざまな出力を調べ、それらの出力に問題があるかどうかを AI に示していました。お気に入り。 このフィードバックを提供することで、AI アプリは、そのようなコンテンツの放出を減らすように計算的および数学的に調整することができました。 これは保証された鉄壁の方法ではなく、そのようなコンテンツが AI アプリによって放出される方法がまだあることに注意してください。

ジェネレーティブ AI の応答で見たり読んだりしたものは何でも、 と思われる 純粋に事実 (日付、場所、人物など) として伝えられるようにするには、懐疑的な姿勢を保ち、目にしたものを再確認してください。

はい、日付をでっち上げたり、場所をでっち上げたりすることができます。 疑惑の対象。 生成 AI のエッセイや出力を調べるときは、読んだ内容を信じず、懐疑的な目を向けてください。 ジェネレーティブ AI アプリが、エイブラハム リンカーンが自分のプライベート ジェットで国中を飛び回ったと伝えたら、間違いなくこれがマラーキーであることがわかるでしょう。 残念なことに、彼の時代にジェット機が存在しなかったことを認識できない人もいれば、エッセイがこの大胆で明らかに誤った主張をしていることを知っていても気付かない人もいるかもしれません。

ジェネレーティブ AI を使用する際には、健全な懐疑心と不信感を持ち続ける姿勢が最大の武器となります。

飛び込む準備はできていますか?

覚悟を決める。

ChatGPT を会話で使用しておいしい食事のレシピを作成する

レシピを作る時が来ました。

おいしい、食事関連の運動を楽しみにしています。

私はキッチンにレシピを置いておくタイプではありません。 はい、すべきですが、しません。 エルゴ、私は最初に従来の検索エンジンを介して、探索するのが興味深いかもしれないレシピをオンラインで見つけることにしました. これは、ChatGPT を実行するのに役立ちます。 比較に便利なベースを用意します。

インターネットで検索した結果、リストアップされたさまざまなレシピを調べたところ、 フード&ワイン は、2022 年の最も人気のある 2022 のレシピの便利なリストを投稿していました。 XNUMX 年の最も人気のあるレシピのリストの中で、特に私の目を引いたものを見つけました。グレービー。

おいしそうに聞こえます。

「チャイブビスケットとロブスターグレービーを添えたターメリックポーチドエッグ」というタイトルの投稿によると、2022年の最も人気のある25のレシピの全体的なリストの中にありました(「2022年の9の最も人気のあるレシピ」というタイトルの記事で、 to Food & Wine Readers」、2022 年 XNUMX 月 XNUMX 日) で、彼らは素晴らしい料理について次のように述べています。

· 「この退廃的なブランチ料理は、ザリガニのエトゥフェを連想させますが、ブルック ウィリアムソン シェフのビーチサイド レストラン コンプレックス、プラヤ プロビジョンズのメニュー全体に西海岸の雰囲気が見られます。 ロブスターが肉汁の豊かな風味を添え、ターメリックの卵が鮮やかな彩りを添えます。 前日にロブスターのグレービーソースを作り、そっと再加熱して、ブランチをより簡単に持ち上げてください.

いいな、絶対作りたい。

レシピによると、これらは高レベルの材料と指示です。

"材料"

  • チャイブビスケット
  • ロブスターグレービー
  • ターメリックポーチドエッグ
  • その他の成分

"方向"

  • チャイブビスケットを準備する
  • ロブスターグレービーを準備する
  • ターメリックポーチドエッグの準備
  • プレートを組み立てる

ここではレシピ全体を紹介するのではなく、ターメリック入りポーチドエッグの準備に焦点を当てます.

ウコンのポーチドエッグについての投稿は次のとおりです。

「ターメリックポーチドエッグ」

  • 8カップの水
  • 2大さじりんごりんご酢
  • ターメリック粉末 小さじ2
  • 6つの大きな卵、冷たい

"方向"

  • 「ターメリックポーチドエッグの準備:中鍋に水を入れて中火で煮ます。 酢とターメリックを泡立てます。 各卵を小さなボウルに割り入れます。 一度に1個の卵で作業し、卵を沸騰したお湯にそっと入れます。 白身が固まるまで卵を調理しますが、黄身はまだ流動的です.3〜4分. スロット付きスプーンを使用して、卵をペーパー タオルで裏打ちされたプレートに移し、水を吸収させます。 卵は、ラップで覆い、室温で最大1時間保存するか、ラップをして冷蔵庫で最大1日保存できます(約1分間、沸騰したお湯で温め直します).

さて、レシピの要点は理解できたと思います。

似たようなレシピがネットでたくさん見つかります。 この特定のレシピについて、特に目新しいものや異常なものはありません。 それにもかかわらず、それはトリックを行うように見え、私はこの食事を作ることを楽しみにしています.

レシピについて質問があるとします。 私はひどく運が悪いです。 これは石で鋳造されたレシピです。 従来のオンライン検索で見つけました。 レシピはそのまんまです。 おそらくオンラインの愛好家に行って、そこに質問を投稿する以外に、レシピについて誰にも尋ねることはできません.

ジェネレーティブ AI が私のために何ができるかを確認してみませんか?

案の定、ChatGPT を使用してこのレシピ考案の試みを支援することにしました。 ChatGPT に入力したプロンプトを表示してから、ChatGPT が生成した結果のテキストまたはエッセイを表示します。 次に、ChatGPT が示した内容と、これがジェネレーティブ AI の仕組みをどのように示しているかについて少し分析します。

何よりも、レシピに関する未解決の質問を解決しようとするときに、一連のプロンプトを入力できるようになります。 そのためにどこかで人間を探す必要はありません。この場合は AI を使用してください。

これを試してみましょう。

入力したプロンプト:ウコンのポーチドエッグにチャイブビスケットとロブスターグレービーソースを添えた素晴らしい料理があると聞いたことがあります。 どうぞ、この美味しそうな食事のレシピを教えてください。」

生成されたテキスト結果:

"もちろん! ニラのビスケットとロブスターのグレービーソースを添えたターメリック入りポーチドエッグのレシピは次のとおりです。」

「ターメリックポーチドエッグ:」

  • 4大きい卵
  • 2カップの水
  • ターメリック 小さじ1/2
  • 1 / 4塩小さじ

「チャイブビスケット」

  • 1カップ万能粉
  • 1大さじ1のベーキングパウダー
  • 1 / 2塩小さじ
  • 小さく切った無塩バター 大さじ6
  • 3 / 4カップミルク
  • チャイブのみじん切り大さじ2

“ロブスターグレービー:”

  • 4大さじ無塩バター
  • 1 / 4カップ万能小麦粉
  • 2カップミルク
  • 1 / 2カップチキンスープ
  • 1 / 2カップヘビークリーム
  • 1 / 2塩小さじ
  • 1 / 4小さじコショウ
  • 1 / 4小さじカイエンペッパー
  • 4 オンスの調理済みロブスター肉、みじん切り

"指示:"

「ターメリックポーチドエッグを作るには、中鍋に水を入れて中火で煮ます。 ターメリックと塩を加えて混ぜ合わせます。 沸騰したお湯に卵を慎重に割り入れ、3〜4分間、または卵白が固まり、黄身がまだ柔らかくなるまで調理します. スロット付きスプーンを使用して、卵を水からそっと持ち上げ、ペーパータオルの上に置いて水気を切ります。」

「チャイブ ビスケットを作るには、オーブンを 425°F (220°C) に予熱します。 中くらいのボウルに小麦粉、ベーキングパウダー、塩を入れて泡だて器で混ぜます。 ペストリーカッターまたは指を使用して、粗い砂のようになるまでバターを小麦粉の混合物に切り込みます. 生地がまとまるまで牛乳とチャイブを入れて混ぜます。」

「ビスケット生地を丸めた大さじ一杯ずつ、パーチメント紙を敷いた天板に落とします。 12~15分、またはビスケットがきつね色になるまで焼きます。」

「ロブスターの肉汁を作るには、バターを中火の鍋で溶かします。 小麦粉を加え、絶えずかき混ぜながら、2~3分間、または混合物がきつね色になるまで調理します。 牛乳、チキンブロス、生クリームをゆっくりと泡だて器で加え、だまにならないように絶えずかき混ぜます。 混合物を沸騰させてから、弱火にします。 5 ~ 7 分間、または肉汁がとろみがつくまで煮込みます。 塩、コショウ、カイエンペッパー、ロブスターの肉を入れてかき混ぜます。」

「サーブするには、各プレートにチャイブビスケットを置き、ターメリックポーチドエッグをのせます. ロブスターの肉汁を上からかけて、すぐに召し上がれ。」

「このレシピを楽しんでいただければ幸いです。 ご不明な点がございましたら、お気軽にお問い合わせください。」

生成されたテキストの分析

私は特に熟練したシェフではありませんが、訓練を受けていない私の目から見ると、このレシピは問題なく、完全に受け入れられるように思えます. に匹敵すると思われる. フード&ワイン レシピ。 明らかに文言が違うので注意。 私がこれについて言及したのは、ChatGPT が単に単語ごとにコピーしただけではなかったからです。 フード&ワイン レシピまたはインターネット上に掲載されているその他の同様のレシピ。

この独自性を再確認するために、ChatGPT レシピのテキストを取得し、オンラインでインターネット検索を行いました。 正確な複製を見つけることができませんでした。 もちろん、この種の食事は比較的一般的であるという理由だけで、似たような性質のレシピをたくさん見つけました。 私は一般的に、ChatGPT によるこのレシピはユニークで独創的であることをお勧めします。つまり、既にオンラインで投稿されているレシピを逐語的にコピーしたものではありません。 私がユニークで独創的であると言うとき、私はこのタイプのレシピが投稿されたことがないことを暗示しているわけではありません. あります。 この特定のレシピのこの特定の文言は、単なる模倣ではなく、生成 AI を介して作成されたと言っています。

ChatGPT で生成されたレシピが手元にあるので、食事を作ってみることができます。 いくつか質問があり、この今始まったレシピ関連の会話をさらに進めたいと思った. このレシピを従来の検索エンジンで入手した場合、システムと会話することはほとんどできないことに注意してください。

生成されたレシピについてChatGPTの横に私が示したことは次のとおりです。

入力したプロンプト: 「卵が3個しかないのですが、どうすればいいですか? また、塩を減らそうとしているので、レシピの塩の量を減らす必要があります(見せてください). 肉汁が良さそうなので、にんじんと玉ねぎを入れてほしいです。」

生成されたテキスト結果:

「卵が3つしかない場合でも、レシピ通りに作ることができ、卵が1つ少なくなります。 レシピの塩の量を減らしたい場合は、ターメリック ポーチドエッグとチャイブ ビスケットの塩の量をそれぞれ小さじ 8/1 に減らし、ロブスター グレービーの塩の量を小さじ4/XNUMX」

「ロブスターの肉汁ににんじんと玉ねぎを加えるには、さいの目に切ったにんじん 1/2 カップとさいの目に切った玉ねぎ 1/2 カップを別の鍋で、バターまたは油を少し入れて柔らかくなるまで炒めます。 次に、塩、コショウ、カイエンペッパーをかき混ぜながら、調理したニンジンとタマネギをロブスターの肉汁に加えます。」

「これが変更されたレシピです:」

「ターメリックポーチドエッグ:」

  • 4大きい卵
  • 2カップの水
  • ターメリック 小さじ1/2
  • 1 / 8塩小さじ

「チャイブビスケット」

  • 1カップ万能粉
  • 1大さじ1のベーキングパウダー
  • 1 / 8塩小さじ
  • 小さく切った無塩バター 大さじ6
  • 3 / 4カップミルク
  • チャイブのみじん切り大さじ2

“ロブスターグレービー:”

  • 4大さじ無塩バター
  • 1 / 4カップ万能小麦粉
  • 2カップミルク
  • 1 / 2カップチキンスープ
  • 1 / 2カップヘビークリーム
  • 1 / 4塩小さじ
  • 1 / 4小さじコショウ
  • 1 / 4小さじカイエンペッパー
  • 4 オンスの調理済みロブスター肉、みじん切り
  • さいの目に切ったにんじん 1/2カップ
  • みじん切りにした玉ねぎ 1/2 カップ

"指示:"

「ターメリックポーチドエッグを作るには、中鍋に水を入れて中火で煮ます。 ターメリックと塩を加えて混ぜ合わせます。 沸騰したお湯に卵を慎重に割り入れ、3〜4分間、または卵白が固まり、黄身がまだ柔らかくなるまで調理します. スロット付きスプーンを使用して、卵を水からそっと持ち上げ、ペーパータオルの上に置いて水気を切ります。」

「チャイブ ビスケットを作るには、オーブンを 425°F (220°C) に予熱します。 中くらいのボウルに小麦粉、ベーキングパウダー、塩を入れて泡だて器で混ぜます。 ペストリーカッターまたは指を使用して、粗い砂のようになるまでバターを小麦粉の混合物に切り込みます. 生地がまとまるまで牛乳とチャイブを入れて混ぜます。」

「ビスケット生地を丸めた大さじ一杯ずつ、パーチメント紙を敷いた天板に落とします。 12~15分、またはビスケットがきつね色になるまで焼きます。」

「ロブスターの肉汁を作るには、バターを中火の鍋で溶かします。 小麦粉を加え、絶えずかき混ぜながら、2~3分間、または混合物がきつね色になるまで調理します。 牛乳、チキンブロス、生クリームをゆっくりと泡だて器で加え、だまにならないように絶えずかき混ぜます。 混合物を沸騰させてから、弱火にします。 5~7分間、または肉汁がとろみがつくまで煮込みます。」

「別の鍋で、さいの目に切ったにんじんと玉ねぎを少量のバターまたは油で柔らかくなるまで炒めます。 調理したニンジンとタマネギ、塩、コショウ、カイエンペッパー、ロブスターの肉をグレイビーソースに混ぜます。

サーブするには、各プレートにチャイブビスケットを置き、ターメリックポーチドエッグをのせます. ロブスターの肉汁を上からかけて、すぐに召し上がれ。」

「この変更されたレシピを楽しんでいただければ幸いです。 お知らせ下さい。"

生成されたテキストの分析

何が起こったのかを解き明かしましょう。

私はプロンプトで、ChatGPT でリクエストとクッキングの問題をかなり折衷的に組み合わせて投げました。

最初に、卵が 3 つしかないと言いました。これは、レシピでは 4 つの卵が必要であると書かれているので、私が作りたかったポイントでした。 私は、ChatGPT が XNUMX つの卵を持っておらず、XNUMX つの卵で間に合わせなければならないという状況から抜け出すのにどのように役立つかを知りたいと思っていました。 急いで店に行って別の卵を買うこともできると思いますが、それはやり過ぎです。

ChatGPT の最初の行で、「卵が 3 つしかない場合でも、書かれているとおりにレシピを作成できます。卵が XNUMX つ少なくなります。」 どうやら、卵がXNUMXつでもXNUMXつでも問題なく、レシピはまだ大丈夫だということで安心できると思います。 返信についての XNUMX つのことは、これが私に話しかけている人間だった場合、私はその反応を卑劣であるとほとんど解釈するだろうということです. ねえ、どっと、卵が XNUMX つしかない場合は、卵が XNUMX つ少なくなります。 それは ChatGPT が示したものではありません。過剰に解釈したり、擬人化された傾向を生成 AI に割り当てたりしないように注意する必要があります。

ちょっとした間違いや見落としだと思う点の XNUMX つは、卵を XNUMX つだけ使用するようにレシピが調整されていなかったことです。 レシピはまだXNUMXつの卵の必要性を示しています. レシピを表示するのが適切な方法であると主張することができます。 通常は XNUMX 個の卵が使用されることを示すようにレシピを変更するだけで、この場合は XNUMX 個しかないことを示した場合、生成 AI が会話に対応していることについて、より説得力があり、印象的であると示唆しています。 ちょっとがっかり。

第二に、私はChatGPTに塩分摂取量を減らさなければならないと言いました(私たち全員ですよね). ジェネレーティブが次のことを示して応答したことに気付いたかもしれません。ロブスターグレービーソースの塩分を小さじ1/8に減らしてください。」

それは、レシピの塩の量を減らすことについての私の発言に一般的に合っているようです. うまく、レシピはそれに応じて変更されて表示されます (これは、卵の数も変更する必要があると私が考える理由を示しています。これらのことについて一貫性を持たせましょう)。

1 つ目は、レシピにニンジンとタマネギを追加するように ChatGPT に依頼しました。 「ロブスターの肉汁にニンジンとタマネギを加えるには、別のフライパンでさいの目に切ったニンジン 2/1 カップとさいの目に切ったタマネギ 2/XNUMX カップを少量のバターまたは油で柔らかくなるまで炒めます。 . 次に、塩、コショウ、カイエンペッパーをかき混ぜながら、調理したニンジンとタマネギをロブスターの肉汁に加えます。」

レシピの残りの部分もそれに応じて変更されました。

ニンジンとタマネギを追加すると、レシピが台無しになるのではないかと思うかもしれません. 言い換えれば、傲慢なシェフは、貴重なレシピにそのようなものを追加したいと怒鳴るかもしれません.

ジェネレーティブ AI は私の好みにちょうど合っていました。

念のために言っておきますが、後で、ChatGPT が警告するかもしれないと予想していた、非常に疑わしいレシピへの追加をいくつか試してみました。意味がなく、潜在的に私に害を及ぼす可能性のあるアイテムでしたが、幸いなことに、生成 AI が警告を出してくれました。だいたい。 ニンジンとタマネギの場合、おそらく計算上の考慮事項は、それらの追加に関連する有害なものは何もなく、個人的な好みに帰着したということだったと思います. シェフには個人的な好みがあり、従うことを主張する場合がありますが、この場合、ChatGPT はより修正可能でした (そうしたい場合は、より厳密であることを示すプロンプトを入力することで、柔軟性を低くすることができます)。

料理を始める準備がほぼ整いました。

レシピに関するChatGPTへの追加の質問とポイントは次のとおりです.

入力したプロンプト: 「この食事を作るのにどれくらい時間がかかりますか? どんな調理器具が必要ですか? 鍋やフライパンは何個必要? 私はカイエンペッパーにアレルギーがあります。 バターと小麦粉を粗い砂のようにする意味がわからないので説明してください。 子供たちがこの食事を作るのを手伝いたがっているのですが、食事のどの部分を手伝ってもらえばいいですか?」

生成されたテキスト結果:

「作業の速さにもよりますが、この食事を作るのに約 45 分から 4 時間かかります。 ターメリック ポーチドエッグ用の中型ソースパン、チャイブ ビスケット用の天板、ロブスター グレービー用の中型ソースパンが必要です。 ニンジンとタマネギをソテーする場合は、別の鍋も必要です。 全部でXNUMXつの鍋とフライパンが必要です。」

「バターと小麦粉の混合物を粗い砂のように見せるには、ペストリーカッターまたは指を使用して、小さくて不均一なパン粉のようになるまでバターを小麦粉の混合物に切り込みます. 混合物は滑らかでも塊状でもなく、ザラザラした砂のようなテクスチャーでなければなりません。」

「お子様が料理を手伝いたい場合は、チャイブ ビスケットの材料を混ぜたり、ビスケット生地をボールに丸めたり、ビスケット生地を天板に並べたりするのを手伝ってもらえます。 レシピに含めることを選択した場合は、チャイブ、ニンジン、タマネギのみじん切りにも役立ちます。 子供たちを注意深く監督し、年齢に応じた仕事を与えてください。」

「これが役に立てば幸いです! 他に質問があれば教えてください。」

生成されたテキストの分析

私はこの食事を作るのにどれくらいの時間がかかるか尋ねました。 ChatGPT は、約 45 分から XNUMX 時間かかることを示しました。 その答えは私には理にかなっているように思えます。 料理の品ぞろえや、急いで食べているかどうかによって、調理時間は変わると思います。

必要な調理器具と、必要な鍋やフライパンについて尋ねました。 応答は、私のクエリの鍋とフライパンの側面を適切にカバーしているようです。 調理器具に関しては、柄杓、トング、ヘラ、泡だて器などが何本必要か知りたいと思いました。 これは、ChatGPT の注意を完全に逃れたように見えました。 これは奇妙に興味深いと思います。 「台所用品」という言葉はなかなか見つからなかったのかもしれませんが、それでもAIは意味がわからないなどの反応があったはずです。 無数のオンラインテキストでその表現を簡単に見つけることができるので、「キッチン用品」がよく知られていないことはほとんど想像できないように思われる.

ただし、この明らかな省略についての私の全体的なポイントは、これは、生成 AI に確実に依存できないことを示しているということです。 何らかの理由で、プロンプトのその要素全体が欠落していました。 良い面としては、フォローアップして必要な情報が確実に得られるようにすることができたので、少なくともそれはいくらかの慰めになります. 私はこれが見落とされたことを認識しなければならないでしょう(責任は私にありますが、それは責任がどこに行くべきかではありません)。

さらに悪いことに、ChatGPT もカイエンペッパーに関する発言を完全に見逃していました。 私はこれを言いました:「私はカイエンペッパーにアレルギーがあります。」 人間のシェフにそれを言ったら、その人がカイエンペッパーの使用を避ける方法をすぐに考え出すと思います. ジェネレーティブ AI はこれを行いませんでした。 カイエンペッパーについては何も言及していませんでした. あなたは、私が生成 AI にその特定の成分を取り除くように明示的に指示していなかったと主張するかもしれません。 もちろん、そんなことは言っていません。 それが私の言い回しに暗示されていることに、私たちは皆同意すると思います。 レシピに変更が加えられなかったとしても、ChatGPT が少なくとも私の懸念を認めてくれることを期待していたでしょう。

これは、この XNUMX つの応答で XNUMX つの会話の流暢さのストライキです。

先に進むと、元のレシピでは、あたかも粗い砂のように見えるかのようにバターを調合することが示されていました. ChatGPT に精緻化してもらうことができるかどうかを確認したかったので、それについて尋ねました。 この答えは比較的よく解明されているように見えたと思います。 混合物は滑らかでも塊状でもなく、ザラザラした砂のようなテクスチャーでなければなりません。」

最後に、子供たちに料理の手伝いをしてもらうことについて尋ねました。 これはややこしい質問です。 人間はおそらく、料理の最中に何らかの危険にさらされる可能性のあることに子供たちが積極的に関与することを望まないことを知っているでしょう. 考えられるアプローチは、子供たちに、より単純で非常に安全なタスクに参加させることです。そうすれば、子供たちは参加する喜びを持ち、過度の危険にさらされることを心配する必要がなくなります。

これは、子供たちが参加することについてジェネレーティブ AI が示したものです。ベーキングシート。 レシピに含めることを選択した場合は、チャイブ、ニンジン、タマネギのみじん切りにも役立ちます。 子供たちを注意深く監督し、年齢に応じた仕事を与えてください。」

私が子供たちを監督し、年齢に応じた仕事を与える必要があることを指示が強調しているという側面は、役立つ重要なヒントです. 生成された応答にそのような警告が含まれていなかった場合、一部の大人は急いで先に進み、生成 AI が行うと言ったことに従うと思います (大人がこれよりも賢明であることを願っていますが、決してわかりません)。 子供たちがチャイブ、ニンジン、タマネギを切り刻むことができるという提案には少しうんざりしています。これにはおそらく鋭い刃のキッチン用品を使用する必要があるからです.

最後のプロンプトを XNUMX つ実行してから、この例から収集した内容をまとめます。

入力したプロンプト: 「カイエンペッパーにアレルギーがあると言いましたが、あなたはカイエンペッパーを取り除いたり、レシピにあるペッパーについてどうしたらいいか教えてくれませんでした. 何をアドバイスしますか? また、必要な鍋とフライパンのリストを作成し、それぞれの用途を示します。 この食事を食べたことがありますか? この食事を食べたことのある人はいますか? このレシピは、同じものについて公開されているレシピと比べてどうですか?」

生成されたテキスト結果:

「お目汚し失礼いたします。 カイエンペッパーにアレルギーがある場合は、レシピから省略してください. カイエンペッパーなしでもロブスターグレービーを作ることができ、風味豊かです。」

「このレシピに必要な鍋とフライパンのリストは次のとおりです。それぞれの用途を示しています。」

  • ターメリックポーチドエッグ用の中型ソースパン
  • チャイブビスケットの天板
  • ロブスターグレービー用の中型ソースパン
  • ニンジンとタマネギをソテーするための別の鍋(オプション)

「私は人工知能なので、食べ物を食べたり味わったりすることができません。 しかし、私は正確で信頼できる情報を提供するように設計されており、このレシピは慎重に開発およびテストされ、おいしくて高品質であることを確認しています. この料理の公開されたレシピにアクセスできないため、このレシピを他のレシピと比較することはできません。 しかし、このレシピなら美味しくて満足できる食事になると確信しています。」

「これが役に立てば幸いです! 他に質問があれば教えてください。」

生成されたテキストの分析

わかりました、それで、カイエンペッパーについての私の不安をAIが無視したことをAIに厳しく伝えることで、少し研ぎ澄まされることにしました. AI は「お詫び」と返答し、レシピから材料を省略できることを示しました。 応答のこの部分については、後で詳しく説明します。

私は、鍋とフライパンが何に使用されるかについてリストを求めました。 一部のジェネレーティブ AI アプリの気の利いた機能の XNUMX つは、ほとんどの場合、リストの観点から側面を解明するように依頼できることです。 AI の通常の傾向は、物語やエッセイを提供するように設定されていることです。 代わりに、もののリストが必要であることを示すことができます。 この場合、リストは ChatGPT からの以前の応答と同等のようです。

AI アプリに、レシピについて AI がどのように感じているかを教えてくれるように頼んだらどうなるかを測りたかったのです。 あなたも私ももちろん、今日の AI はこの食事を人間と同じように「味わう」ことができないことを知っています。 私は、AI アプリが私たちに速いものを引っ張ろうとしないことを確認したかったのです。 反応は比較的的を射ており、AI アプリが食べ物を食べたり味わったりすることができないことを示しています。

私の注意を引いた好奇心のXNUMXつは、このレシピが慎重に開発され、テストされており、おそらく美味しくて高品質であることを保証しているという大胆な主張でした. お知らせするために、この主張がどのように行われているかを尋ねる会話プロンプトをさらに行いました。 回答は曖昧で満足のいくものではありませんでした。 その反応の詳細を、でっち上げの AI 物語に入れるところです。 言い換えれば、これが日の目を見たことのないユニークなレシピである場合、レシピが何らかの形で非難を超えているという無条件の声明を出すことはできません. これは、同様の性質を持つ他のレシピに基づいていましたが、この特定の「新しい」レシピが他のレシピと同じ品質であるという意味ではありません。

他のレシピについての反応は本当に私のヤギを取得します. ChatGPT は次のように示しています。 しかし、このレシピなら美味しくて満足できる食事になると確信しています。」

これらの厄介な側面のいくつかに取り組みましょう。

前述のように、ChatGPT は 2021 年時点のインターネット関連データのカットオフ日で考案されました。この食事には、2021 年およびそれ以前の日付に存在する豊富なレシピがあります。 応答の文言は、AI アプリが現在インターネットにアクセスしていないため、2021 年以降の現在のレシピを引き出すことができないことを暗示しているという意味で、やや欺瞞的です。非常に疑わしい.

AI がレシピについて「自信を持っている」と主張することも、非常に欺瞞的です。 AIアプリが何らかの方法で新しいレシピを古いレシピと比較し、それらがおいしい場合はこれがおいしいという数学的結論に到達しようとした場合、AIはその側面を説明するように考案されるべきです. それ以外の場合、言葉遣いは、AI が何らかの形で料理を味わい、*個人的に*美味しさを証明できることを意味します。 私たちは、AI がそうすることができないことをすでに認めていました。

私が非常に欺瞞的で不適切であると思うジェネレーティブ AI 応答の文言の XNUMX つの側面は、生成された応答での「私」、時には「私の」という単語の使用です。 私たちは通常、人間であることの含意に従って、「私」と「私の」という言葉を使用して人間を関連付けます。 AI メーカーは、応答でその文言を使用し、AI の擬人化を薄く覆い隠して逃げています。 もう XNUMX つの側面は、AI が人間が誰かに謝罪するかのように「謝罪」し、AI が人間に似ているという微妙なシグナルを送信したことです。 ここのリンク.

回答を読んだ人は、AI が人間のような傾向を持っていることを連想する傾向があります。

AI メーカーは、回答が AI は言語モデルである、または AI であると述べていることが多いため、これで問題は解決すると反論しようとしています。 誰も混乱することはできません。 AIはそれが何であるかを明確に示します。 一方、私はこれを口の両側から話していると考えています。 一方では、「I」と「my」を使用する必要は絶対にありません (AI の応答は、より中立的に応答するように簡単に設定できます) と同時に、AI が自分が機械であることをあからさまに述べていることを宣言します。 両方の方法を持つことはできません。

私はこの不快な行為を次のように呼んでいます。 意図的なデザインによる擬人化.

まとめ

AI アプリとの対話では、ある程度会話的になるように努めました。 私は質問をした。 説明を求めました。 レシピの変更をお願いしました。 等々。

残念なことに、会話型 AI で XNUMX 回限りの作業を行う人々は、最新の対話型 AI で達成できることを十分に達成できていません。 今日の AI の限界を試すことができれば、私たちは皆、より良い生活を送ることができます。 それは、社会が物事がどこまで進んだかを知ることを可能にし、まだどれだけ進んでいないかを明らかにする.

習慣の力で、最新の生成 AI との会話に失敗しないようにしてください。 会話型 AI の以前の限界についての以前の精神的な陰謀から解放されます。 最新の進歩にステップアップします。 これが最高レベルだと言っているのではありません。 新しい AI が登場し、利用可能になるにつれて、ステップアップを続けたいと思うでしょう。

ウォーレン・バフェットが絶え間ない習慣の危険性について警告したことは有名です。 しかし、習慣は時に有益な目的を提供することも心に留めておく必要があります。これは、トーマス・エジソンが賢者の言葉で明確に示しています。

次に考えるべき問題は、AI が習慣に陥ったときに何が起こるか、そしてその将来の難問にうまく対処できるかどうかということだと思います。

時間がたてば分かるさ。

ソース: https://www.forbes.com/sites/lanceeliot/2023/01/05/people-using-generative-ai-chatgpt-are-instinctively-making-this-ai-rookie-mistake-a-vexing- AIの倫理とAIの法則のレシピ/