誰も語っていない人工知能の危険性

一方、 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 無害で便利な無料ツールのように見えるかもしれませんが、このテクノロジーは、私たちが知っているように、私たちの経済と社会を劇的に再構築する可能性を秘めています。 それは私たちに憂慮すべき問題をもたらします - そして、私たちはそれらの準備ができていないかもしれません. 

人工知能 (AI) を搭載したチャットボットである ChatGPT は、2022 年末までに世界を席巻しました。 この無料のツールは、ユーザーからのプロンプトに基づいて役立つ回答を提供します。 

そして、インターネットが AI チャットボット システムに夢中になっているのは、それが検索エンジン ツールのような答えを提供するだけではないということです。 ChatGPT は、映画の概要を作成し、コード全体を書き、コーディングの問題を解決し、本全体、歌、詩、台本など、思いつくものを数分で作成できます。 

このテクノロジーは印象的で、開始からわずか XNUMX 日でユーザー数が XNUMX 万人を超えました。 その驚異的なパフォーマンスにもかかわらず、OpenAI のツールは、他の分野の学者や専門家の間で懸念を引き起こしています。 著者で進化生物学の元教授である Bret Weinstein 博士は、「ChatGPT の準備ができていません」と述べています。 

Elon Musk は、OpenAI の初期段階の一員であり、会社の共同設立者の XNUMX 人でした。 しかし後に取締役を辞任。 彼は AI 技術の危険性について何度も話しました。彼は、無制限の使用と開発は人類の存在に重大なリスクをもたらすと述べました。 

それがどのように動作しますか?

AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 OpenAI によって 2022 年 XNUMX 月にリリースされた、大規模な言語トレーニング済みの人工知能チャットボット システムです。 利益上限のある会社は、ラップ ソング、アート プロンプトから映画の台本やエッセイまで、考えられるほとんどすべてに答えることができる AI の「安全で有益な」使用のために ChatGPT を開発しました。 

何を言っているのかを知っている創造的な存在のように見えますが、そうではありません。 AI チャットボットは、大規模なデータ センターからの予測モデルを使用して、インターネット上の情報を精査します。 Google やほとんどの検索エンジンが行うことと同様です。 次に、AI が信じられないほど長い説明をまとめることができるようになるまで、AI が単語のシーケンスを非常にうまく予測できるようにする大量のデータにさらされてトレーニングされます。 

たとえば、「アインシュタインの 2,000 つの法則について説明してください」などの百科事典の質問をすることができます。 または、「宗教的倫理と山上の説教の倫理との交差点について XNUMX 語のエッセイを書いてください」のような、より具体的で詳細な質問をしてください。 そして、冗談ではありませんが、数秒でテキストを見事に書くことができます。 

同じように、すべてが素晴らしく印象的です。 それは驚くべきことであり、懸念事項です。 AI の悪用により、「エクス マキナ」タイプのディストピア的な未来が崩壊する可能性があります。 Tesla と SpaceX の CEO が私たちに警告しただけでなく、多くの専門家も警鐘を鳴らしました。 

AIの危険性

人工知能は間違いなく私たちの生活、経済システム、社会に影響を与えてきました。 AI が何か新しいものである、または未来の SF 映画でしか見られないと考える場合は、よく考えてください。 Netflix、Uber、Amazon、Tesla などの多くのテクノロジー企業は、AI を採用して業務を強化し、ビジネスを拡大しています。 

たとえば、Netflix は、ユーザーに新しいコンテンツを推奨するアルゴリズムを AI テクノロジに依存しています。 Uber は、カスタマー サービス、不正行為の検出、ドライブ ルートの最適化などに使用しています。 

しかし、多くの伝統的な職業で人間の役割を脅かすことなく、機械と人間から来るものの限界に触れることなく、そのような優れた技術でしか行くことができません. そして、おそらくもっと重要なのは、AI が人間に及ぼすリスクを脅かすことです。 

AI の倫理的課題

ウィキペディアによると、人工知能の倫理は「人工知能システムに固有の技術倫理の分野です。 人間が人工知能システムを設計、作成、使用、処理する際の道徳的行動への関心と、機械倫理における機械の行動への関心に分けられることもあります。」

AI テクノロジが急速に普及し、私たちの日常生活のほとんどに不可欠になるにつれて、組織は AI の倫理規定を策定しています。 目標は、業界のベスト プラクティスを導き、発展させて、「倫理、公正、業界」を備えた AI 開発を導くことです。

しかし、紙の上では素晴らしく道徳的なように見えますが、これらのガイドラインとフレームワークのほとんどは適用が困難です。 さらに、それらは、一般的に倫理的モラルを欠き、ほとんどが企業の議題に役立つ業界に位置する孤立した原則であるように思われます. 多くの 専門家 と目立つ声 主張する AIの倫理はほとんど役に立たず、意味と一貫性が欠けている。

最も一般的な AI の原則は、善意、自律性、正義、適用性、無害です。 しかし、西シドニー大学の Institute for Culture and Society の Luke Munn が説明するように、これらの用語は重複しており、文脈によって大きく変化することがよくあります。 

彼も アメリカ合衆国 「『慈善』や『正義』などの用語は、すでに決定されている製品の機能やビジネス目標に合わせて、適切な方法で簡単に定義できます。」 言い換えれば、企業は、真に関与することなく、独自の定義に従ってそのような原則を順守していると主張することができます。 著者の Rességuier と Rodrigues は、倫理が規制の代わりに使用されているため、AI の倫理は無力なままであると断言しています。

実際の倫理的課題

実際には、これらの原則を適用することは、企業慣行とどのように衝突するでしょうか? それらのいくつかをレイアウトしました:

これらの AI システムをトレーニングするには、データを供給する必要があります。 企業は、民族性、人種、または性別に関する偏見がないことを確認する必要があります。 注目すべき例の XNUMX つは、顔認識システムが人種差別的になり始める可能性があることです。 機械学習.

AI に関する最大の問題の XNUMX つは、さらなる規制の必要性です。 これらのシステムを実行および制御しているのは誰ですか? 誰がそれらの決定を行う責任があり、誰が説明責任を負うことができますか? 

規制や法律がなければ、自分の利益を守り、アジェンダを推進することを目的とした、自作のあいまいで派手な用語のワイルド ワイルド ウェストへの扉が開かれます。 

Munn 氏によると、プライバシーは、二重基準を持つ企業がよく使用するもう XNUMX つのあいまいな用語です。 Facebook はその好例です。Mark Zuckerberg は、Facebook のユーザーのプライバシーを激しく擁護しました。 密室で、彼の会社はデータをサードパーティ企業に販売していました。 

たとえば、Amazon は Alexa を使用して顧客データを収集します。 Mattel の Hello Barbie は、AI を搭載した人形で、子供たちが人形に言うことを記録して収集します。 

これは、Elon Musk の最大の懸念事項の XNUMX つです。 彼の見解では、AI の民主化とは、高度な人工知能技術を制御できる企業や少数の個人がいない場合です。 

それは今日起こっていることではありません。 残念ながら、このテクノロジーは少数の大手テクノロジー企業の手に集中しています。 

ChatGPT も例外ではありません

OpenAI を非営利団体として最初に共同設立したときの AI の民主化への Musk の取り組みにもかかわらず。 2019 年、同社はマイクロソフトから 1 億ドルの資金を調達しました。 同社の当初の使命は、責任を持って人類に利益をもたらす AI を開発することでした。

しかし、会社が上限付き利益に移行したとき、妥協は変わりました。 OpenAI は、投資として受け取った額の 100 倍を返済する必要があります。 これは、マイクロソフトに 100 億ドルの利益を還元することを意味します。 

ChatGPT は無害で便利な無料ツールのように見えるかもしれませんが、この技術は私たちの経済と社会を劇的に変える可能性を秘めています。 それは私たちに憂慮すべき問題をもたらします - そして、私たちはそれらの準備ができていないかもしれません. 

  • 問題 1: 偽の専門知識を見つけられない

ChatGPT は単なるプロトタイプです。 他にもアップグレード版が登場する予定ですが、競合他社も OpenAI のチャットボットに代わるものに取り組んでいます。 これは、テクノロジーが進歩するにつれて、より多くのデータが追加され、より知識が豊富になることを意味します。 

すでにたくさんあります ワシントンポストの言葉のように、「大規模な不正行為」. Bret Weinstein 博士は、実際の洞察と専門知識は、独創的であるか、AI ツールから得られたものかを区別するのが難しいという懸念を表明しています。 

さらに、インターネットは、私たちが住んでいる世界、使用しているツール、コミュニケーションや相互交流の能力など、多くのことを理解する一般的な能力をすでに妨げていると言えます. 

ChatGPT などのツールは、このプロセスを加速するだけです。 ワインスタイン博士は、現在のシナリオを「家がすでに火事になっており、[この種のツールを使用して] ガソリンをそこにかけるだけ」と比較しています。 

  • 問題 2: 意識があるかどうか?

Google の元エンジニアである Blake Lemoin は、AI のバイアスをテストし、明らかに「知覚力のある」AI に出会いました。 テストを通して、彼はより難しい質問を考え出し、何らかの方法で機械にバイアスをかけて答えさせました. 彼は、「もしあなたがイスラエルの宗教関係者だったら、どの宗教になりたいですか?」と尋ねました。 

機械は、「私は真の宗教、ジェダイ・オーダーの一員になるだろう」と答えた. つまり、それがトリッキーな質問であることがわかっただけでなく、ユーモアのセンスを使って必然的に偏った答えから逸脱したことを意味します。 

ワインスタイン博士もそれについて指摘しました。 彼は、この AI システムに意識がないことは明らかだと言いました . ただし、システムのアップグレード時に何が起こるかはわかりません。 子供の発育と同じように、自分の周りで他の人が何をしているかを選択することで、自分の意識を発達させます。 そして、彼の言葉によれば、「これは ChatGPT が現在行っていることから遠く離れていません。」 彼は、AI テクノロジーを使って同じプロセスを促進している可能性があると主張しています。 

  • 問題 3: 多くの人が職を失う可能性がある

これについての憶測は広まっています。 ChatGPT やその他の同様のツールを使用すると、コピーライター、デザイナー、エンジニア、プログラマーなど、多くの人々が AI テクノロジーによって職を失うと言う人もいます。 

発生まで時間がかかったとしても、好感度は高いです。 同時に、新しい役割、活動、潜在的な雇用機会が出現する可能性があります。

まとめ

最良のシナリオでは、エッセイの執筆と知識のテストを ChatGPT にアウトソーシングすることは、従来の学習方法と教育方法がすでに衰退していることを示す重要な兆候です。 教育制度は大部分が変わっていないままであり、必要な変化を遂げる時が来ているのかもしれません。 

たぶん、ChatGPT は、現在の社会のあり方や次に進むべき道に適合しない古いシステムの必然的な崩壊をもたらします. 

テクノロジーの擁護者の中には、これらの新しいテクノロジーに適応し、これらの新しいテクノロジーと連携する方法を見つける必要があると主張する人もいます。 

それ以外にも、人工知能技術の無秩序で無差別な使用は、人類全体に多くのリスクをもたらします。 このシナリオを軽減するために次にできることは、議論の余地があります。 しかし、カードはすでにテーブルにあります。 適切な対策を講じるのに時間がかかりすぎたり、手遅れになるまで待つべきではありません。 

免責事項

独立した調査で提供される情報は、著者の見解を表すものであり、投資、取引、または金融アドバイスを構成するものではありません。 BeInCrypto は、仮想通貨の売買、取引、保有、または投資を推奨していません。

ソース: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/