Microsoft、詐欺師を阻止するために AI チャットボットのセキュリティを強化

Microsoft Corp は、Azure AI Studio に多数のセキュリティ機能を追加しました。これにより、ユーザーが AI モデルを異常または不適切に動作させるモードに構成する可能性が徐々に減っていきます。レドモンドに本拠を置く多国籍テクノロジー企業です。ワシントン氏はブログ投稿で改善点を概説し、AIインタラクションの完全性の保証とユーザーベースの信頼の醸成を強調した。

プロンプトシールドなど 

主な開発の中には、AI チャットボットと会話しながらプロンプト インジェクションを見つけて排除するように設計されたテクノロジー「プロンプト シールド」の作成も含まれます。これらはいわゆる脱獄であり、基本的には AI モデルから望ましくない応答を引き出すような方法で意図的に形成されるユーザーからの入力です。

たとえば、Microsoft はプロンプト インジェクションによって間接的にその役割を果たしていますが、この場合には邪悪な命令を実行する可能性があり、そのようなシナリオはデータ盗難やシステム ハイジャックなどの重大なセキュリティ上の影響につながる可能性があります。 Microsoft の Responsible AI 担当最高製品責任者である Sarah Bird 氏によると、このメカニズムは、このような独自の脅威をリアルタイムで検出して対応するための鍵となります。

Microsoft は、まもなくユーザーの画面にアラートが表示され、モデルが誤った情報や誤解を招く情報を表現している可能性がある場合にそれを指摘し、より使いやすさと信頼性を確保すると付け加えています。

AI ツールに対する信頼の構築 

マイクロソフトの取り組みは、より大きな取り組みの一環であり、個人消費者や企業顧客を対象としたサービスに広く適用され、人気が高まっている生成 AI に対する人々の信頼を与えることを目的としています。 Microsoft は、ユーザーが Copilot チャットボットを操作して奇妙または有害な出力を生成できるようにするインスタンスを発生させた後、徹底的に徹底的に対処しました。これは、AI テクノロジーと一般知識によって増加する可能性が高い、前述の操作戦術に対する強力な防御の必要性を示す結果を裏付けるものとなります。予測して緩和することは、攻撃者がロールプレイングで質問を繰り返したり、促したりするなど、攻撃のパターンを認識することです。

OpenAI の最大の投資家であり戦略的パートナーとして、Microsoft は責任ある安全な生成 AI テクノロジを組み込んで作成する方法の限界を押し広げています。両社は、安全対策のための生成 AI の責任ある展開と基礎モデルに取り組んでいます。しかし、バード氏は、これらの大規模な言語モデルは、将来の AI イノベーションの多くの基盤と見なされ始めているとはいえ、改ざんを防ぐことができないことを認めました。

これらの基盤に基づいて構築するには、モデル自体に依存するだけでは十分ではありません。 AI の安全性とセキュリティに対する包括的なアプローチが必要になります。

Microsoft は最近、変化する AI の脅威を守るために講じられている予防的な措置を示し、保証するために、Azure AI Studio のセキュリティ対策の強化を発表しました。

タイムリーな画面とアラートを組み込むことで、AI の悪用を回避し、AI インタラクションの完全性と信頼性を維持するよう努めています。

AI テクノロジーが絶え間なく進化し、日常生活のさまざまな場面で AI テクノロジーが導入されていることから、Microsoft とその他の AI コミュニティが非常に慎重なセキュリティスタンスを維持する時期が来ているでしょう。

出典: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/