OpenAI が画像を受け入れる次世代 AI モデル GPT-4 を発表

OpenAI は、最新モデルの GPT-4 のリリースを発表しました。これは、有名な AI チャットボット ChatGPT が構築された既存の GPT-3.5 の更新バージョンです。 新しいモデルは、テキスト コンテンツからの入力に加えて、画像や写真を読み取ってテキスト出力を生成することもできます。 ビジネスは、モデルがさまざまな専門的および学術的基準にわたって人間レベルで機能すると主張しています。

GPT-4 が画像を読み取るようになりました

この AI 企業は、このモデルが困難な問題をより正確に処理でき、これまで以上に革新的で創造的であると主張しています。 テキストと画像入力を理解できるようになりましたが、通信できる唯一の方法はテキストを介することです。 OpenAI はまた、情報をでっち上げる傾向 (「幻覚」とも呼ばれる) や、有害で暴力的なコンテンツを生成する能力など、システムが以前の言語モデルと同じ問題の多くを引き続き抱えていることを警告しています。

続きを読む: 10年の上位2023のDeFiレンディングプラットフォームをチェックしてください

OpenAI は、カジュアルな会話では、GPT-3 と GPT-4 の違いは微妙であることが判明する可能性があることを指摘していますが、タスクの複雑さが重要なしきい値に達すると、コアの違いが現れます - そしてそれが GPT-4 が判明する場所です。より信頼性が高く、創造的で、「GPT-3 よりもはるかに微妙な指示を処理できる」ようにします。

許可されていないコンテンツへの対応 (ChatGPT の開始以来、開発者が直面している強い批判) について話している間、チームは次のように述べていると引用されました。

私たちは GPT-6 をより安全でより整合性のあるものにするために 4 か月を費やしました。 内部評価によると、GPT-4 は許可されていないコンテンツのリクエストに応答する可能性が 82% 低く、事実に基づく応答を生成する可能性が 40% 高くなります。

GPT-4はすでに変装して導入されています

しかし、ひょんなことから OpenAI によって、新世代の言語モデルがずっと見え隠れしていたことが明らかになりました。 結局のところ、Microsoft は、OpenAI と共同作成した人工知能 (AI) チャットボット Bing Chat が GPT-4 で実行されていることを明らかにしました。

他の初期のユーザーには、GPT-4 を使用して商用ビジネス Web サイトをスキャンし、要約をカスタマー サポート スタッフに中継する Stripe や、GPT-4 を新しい言語学習サブスクリプション層に統合した Duolingo などがあります。

OpenAI のプレミアム カスタマーは、ChatGPT Plus を介して GPT-4 に即座にアクセスできます。また、開発者は待機リストに参加して、この時点で API にアクセスできます。

また読む:ChatGPTは、この15億ドルのアプリに統合することでチャット体験を向上させるために設定されました

Pratik は 2016 年以来、仮想通貨のエバンジェリストであり、仮想通貨が提供するほとんどすべてのことを経験してきました。 ICO ブーム、2018 年の弱気相場、現在までのビットコインの半減期など、彼はすべてを見てきました。

提示されたコンテンツは、著者の個人的な意見を含むことがあり、市場条件の対象となります。 cryptocurrenciesに投資する前に市場調査を行います。 著者または出版物は、あなたの個人的な財政的損失について一切の責任を負いません。

ソース: https://coingape.com/openai-launches-next-gen-ai-model-gpt-4-calls-it-the-most-advanced-system-till-date/