組織が外部のアルゴリズム評価者を必要とする 3 つの理由

サッタ・サルマー・ハイタワー

ビジネス リーダーは、人工知能 (AI) から可能な限りの価値を引き出しています。 2021年のKPMGの調査によると 政府、製造業、金融サービス、小売、ライフ サイエンス、ヘルスケアのビジネス リーダーの大多数は、AI が組織内で少なくとも適度に機能していると述べています。. この調査では、回答者の半数が、Covid-19 のパンデミックに対応して、組織が AI の採用を加速したと述べていることもわかりました。 AI が採用されている組織では、少なくとも半数が、テクノロジーが期待を上回っていると述べています。

AI アルゴリズムは、今日のさまざまなインタラクションとイノベーションにますます責任を負っています。 製品の推奨事項 & カスタマーサービス 銀行の経験 貸付決定 そして、さえ 警察の対応.

しかし、AI アルゴリズムが提供するすべての利点に対して、レジリエンス、公平性、説明可能性、および整合性について効果的に監視および評価されない場合、AI アルゴリズムには大きなリスクが伴います。 ビジネス リーダーによる AI の監視と評価を支援するために、上記の調査では、 ますます多くのビジネス リーダーが、組織が適切なテクノロジーとビジネス プロセスに投資できるようにするために、政府が AI を規制することを望んでいます。 必要なサポートと監視のために、そのようなサービスの提供経験を持つサービス プロバイダーが提供する外部評価を検討することをお勧めします。 その理由をXNUMXつ紹介します。

1. アルゴリズムは「ブラックボックス」

データから学習して問題を解決し、タスクを最適化する AI アルゴリズムは、システムをよりスマートにし、人間がかつてないほど迅速に洞察を収集して生成できるようにします。

しかし、一部の利害関係者は、これらのアルゴリズムを「ブラック ボックス」と見なしていると、有力な専門サービス会社である KPMG の監査マネジング ディレクターである Drew Rosen 氏は説明します。 具体的には、特定の利害関係者は、アルゴリズムが特定の決定に至った経緯を理解していない可能性があり、したがって、その決定の公平性または正確性に自信がない可能性があります。

「アルゴリズムから収集された結果は、結果の偏りや誤解を招く可能性があります」と Rosen 氏は言います。 「それはまた、企業がそれらの結果を活用し、[それら]を一般の人々や利害関係者と共有する際に、企業にいくつかのリスクをもたらす可能性があります.」

たとえば、不完全なデータを使用するアルゴリズムは、せいぜい効果がなく、最悪の場合有害です。 それは実際にはどのように見えるでしょうか? ユーザーに間違ったアカウント情報を提供する AI ベースのチャットボットや、テキストを不正確に翻訳する自動言語翻訳ツールを考えてみてください。 どちらの場合も、政府機関や企業だけでなく、これらのアルゴリズムによる決定に依存する構成員や顧客に重大なエラーや誤解をもたらす可能性があります。

ブラックボックス問題のもう XNUMX つの原因は、固有のバイアスが AI モデルの開発に浸透し、偏った意思決定を引き起こす可能性がある場合です。 たとえば、信用貸し会社は、AI を使用して潜在的な借り手の信用力を予測し、融資の意思決定を行うことが増えています。 ただし、潜在的な借り手のクレジット スコアなど、AI への主要な入力時にリスクが発生する可能性があります。 重大なエラーがあります、それらの個人がローンを拒否されることにつながります。

これは、公平な評価者として機能し、受け入れられた基準に基づいて、過去のデータの関連性と信頼性、およびアルゴリズムを強化する仮定の焦点を絞った評価を提供できる外部評価者の必要性を強調しています。

2. 利害関係者と規制当局は透明性を要求する

2022 年には、責任ある AI に関する現在の報告要件はありませんでした。 しかし、Rosen 氏は次のように述べています。 特定の ESG 指標について報告する責任ある AI に関する追加の規制報告要件が見られるのは時間の問題です。」

実際、1 年 2023 月 XNUMX 日から、ニューヨーク市の 地方法144 自動化された雇用決定ツールを使用する前に、バイアス監査を実施する必要があります。

そして連邦レベルでは、 2020 年の国家人工知能イニシアチブ法—これは、 2019 年大統領令— AI の技術基準とガイダンスに焦点を当てています。 さらに、 アルゴリズム責任法 自動化された意思決定システムと強化された重要な意思決定プロセスの影響評価が必要になる可能性があります。 そして海外では、 人工知能法 が提案されており、AI の安全性、コンプライアンス、ガバナンス、および信頼性に関する特定の目的を備えた包括的な規制の枠組みを提供しています。

これらの変化により、組織はガバナンスの顕微鏡下に置かれています。 アルゴリズム評価者は、規制要件に対処し、利害関係者が誤解するリスクを回避しながら、利害関係者の透明性を高めるようなレポートを提供する場合があります。 間違った 評価の結果によって。

3. 企業は長期的なリスク管理から恩恵を受ける

KPMGの技術保証プラクティスのパートナーであるスティーブ・カマラは、エンティティがプロセスの自動化を進め、顧客体験を向上させるイノベーションを開発し、ビジネス機能全体にAI開発を分散させるにつれて、AIへの投資は成長し続けると予測しています。 競争力と収益性を維持するために、組織は AI の差し迫った欠点に対処するだけでなく、AI を活用した事業運営に関連する長期的なリスクを軽減する効果的なコントロールを必要とします。

これは、信頼できる知識豊富なリソースとして外部評価者が介入する場所です。 組織がビジネス イネーブラーとして AI の完全性をますます受け入れるようになるにつれて、パートナーシップはその場しのぎのサービスではなくなり、より一貫したコラボレーションになる可能性がある、と Camara は説明します。

「継続的に AI を開発および運用している組織と、客観的な外部評価者との間に継続的な関係が必要になる道が見えてきます」と彼は言います。

次に来るものへの展望

将来、組織は、たとえば、新しいモデルの開発、新しいデータ ソースの取り込み、サードパーティ ベンダー ソリューションの統合、または新しいコンプライアンス要件への対応などを行う際に、より周期的に外部評価を利用する可能性があります。

追加の規制およびコンプライアンス要件が義務付けられている場合、外部評価者は、組織がそれらの要件に関連して AI をどの程度うまく展開または使用しているかを直接評価するサービスを提供できる場合があります。 これらの評価者は、評価結果を明確かつ一貫した方法で共有するのに最適な立場にあります。

テクノロジーを活用しながら、その限界から保護するために、組織は、アルゴリズムを展開する際により高い透明性を実証するために信頼できるレポートを提供する外部評価者を探す必要があります。 そこから、組織と利害関係者の両方が AI の力とその限界をよりよく理解できるようになります。

出典: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/