OpenAI が ChatGPT を誤った情報から浄化する計画は次のとおりです。

OpenAIは31月XNUMX日、人工知能(AI)による幻覚の事例を減らすことを目的として、ChatGPTの数学的問題解決能力を強化する取り組みを発表した。 OpenAI は、調整された AGI の開発に向けた重要なステップとして、幻覚を軽減することを強調しました。

4 月には、ChatGPT の最新バージョン GPT-XNUMX が導入され、人工知能がさらに主流になりました。 しかし、生成型 AI チャットボットは事実の正確さに長い間取り組んでおり、一般に「幻覚」と呼ばれる誤った情報を生成することがあります。 こうした AI による幻覚を軽減する取り組みは、Web サイトへの投稿を通じて発表されました。

AI 幻覚とは、人工知能システムが事実に誤りがある、誤解を招く、または実世界のデータによって裏付けられていない出力を生成するインスタンスを指します。 これらの幻覚は、虚偽の情報を生成したり、存在しない出来事や人物をでっち上げたり、特定のトピックについて不正確な詳細を提供したりするなど、さまざまな形で現れることがあります。

OpenAI は、「結果の監視」と「プロセスの監視」という XNUMX 種類のフィードバックの有効性を調べる調査を実施しました。 結果の監視には最終結果に基づくフィードバックが含まれますが、プロセスの監視では思考の連鎖の各ステップに対する入力が提供されます。 OpenAI は、数学の問題を使用してこれらのモデルを評価し、複数のソリューションを生成し、各フィードバック モデルに従って最高ランクのソリューションを選択しました。

徹底的な分析の結果、研究チームは、プロセス監視が人間が承認したプロセスに従うようモデルを促すため、優れたパフォーマンスを生み出すことを発見しました。 対照的に、結果の監督は一貫して精査することがより困難であることが判明しました。

OpenAI は、プロセス監視の影響は数学を超えて広がっており、さまざまな領域でのその影響を理解するにはさらなる調査が必要であることを認識しました。 これは、観察された結果がより広範な状況で当てはまる場合、プロセスの監視は結果の監視と比較してパフォーマンスと整合性の好ましい組み合わせを提供できる可能性を表明しました。 研究を促進するために、同社はプロセス監視の完全なデータセットを公開し、この分野での探索と研究を促しました。

関連する AI 需要により Nvidia は一時的に 1 兆ドルのクラブに躍り出る

OpenAI は幻覚の調査を促す明確な事例を提供しませんでしたが、最近の XNUMX つの出来事は、現実のシナリオにおける問題を例示しました。

最近の事件では、マタ対アビアンカ航空事件の弁護士スティーブン・A・シュワルツ氏が、研究リソースとしてチャットボットに依存していたことを認めた。 しかし、ChatGPT が提供した情報は完全に捏造されたものであることが判明し、当面の問題が浮き彫りになりました。

OpenAI の ChatGPT は、人工知能システムが幻覚に遭遇する唯一の例ではありません。 マイクロソフトのAIはXNUMX月にチャットボット技術のデモンストレーションを行った際、収益報告を調べ、ギャップやルルレモンなどの企業の不正確な数値を生成した。

マガジン: 25 人のトレーダーが ChatGPT の銘柄選択に賭け、AI はサイコロ投げが苦手など

出典: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information