自動運転車にも迫るAI事故の必然性と格闘するAI倫理

特に事故を起こしやすいと思われる人を知っていますか?

私たち全員がそうしているようです。

おそらくその人は、バナナの皮をすべったり、リビングルームの貴重な花瓶を倒したりしがちなタイプです。 それらは、ある種の事故に対する人間の磁石です。 あなたが時々彼らの近くにいることさえ嫌がるほど悪いかもしれません。 あなたは不吉なあふれを得るか、彼らの不快な事故のXNUMXつの不名誉な余波に苦しむかもしれません。

しかし、誰かが他の人よりも事故にかかりやすいと示唆するとき、私たちは過度に厳しいのかもしれません。 事故は私たちの誰にでも起こり得るという議論がなされる可能性があります。 私たちは皆、事故に巻き込まれたり、巻き込まれたりする可能性があります。 私たちの最高のものが含まれています。

この議論の上に、さらに厄介な質問を積み上げましょう。

事故は避けられませんか?

言い換えれば、事故を防ぐためにどんなに努力しても、それでも事故が発生する可能性と最終的な確実性が存在することは、密接に関係している可能性があります。 あなたは事故から世界を守ることを求めることができます。 それは間違いなく賢明なようです。 しかし、どういうわけか、事故はまだ彼らの醜い頭を後押しします。

彼らが言うように、事故は起こるのを待っています。

あるイベントを事故として適切にラベル付けされていると言及することによって、何を意味するのかを明確にすることが役立つ場合があります。 通常の辞書の定義では、事故は予期せずに意図せずに発生する一種の事故であり、そのために損傷や怪我のようなものからなる不幸な結果が生じます。

その定義を注意深く解凍します。

上記の事件は予想外です。 これは、事故自体が発生することを認識していなかったように思われることを意味します。

上記の事件は意図的ではありません。 これは、誰かが故意に事件を起こそうとした状況を排除する必要があることを示唆しています。 いたずら者が不運で無防備な無実の人が踏み出すことを知っている床にバナナの皮を置いた場合、それをつまずいた人が事故に遭ったと断言するのは難しいでしょう。 代わりに彼らはだまされ、知らぬ間に罠にかけられました。

定義には、結果が不幸であるという基準も含まれています。 この観点からの事故は、酸っぱい結果につながるはずです。 誤って花瓶を倒した人がひびを入れて、修理できないほどに楽しんだアイテムを損傷した可能性があります。 花瓶の所有者は価値の喪失によって傷つけられます。 花瓶にぶつかった人は、所有者に損失を負っている可能性があります。 天国は、花瓶の破損によって誰かが切り取られたり、廃棄されたりする可能性があることを禁じています。

バランスをとるために、いわゆる「良い」事故もあることに注意してください。 事故の結果、人は幸運に恵まれたり、他の重要な利益を得ることができます。 最もよく引用される例の28つは、アレクサンダーフレミング卿と彼の絶賛されたペニシリンの発見です。 研究室で少し不注意だったという話があり、1928週間の休暇から戻ったとき、彼は自分の培養プレートのXNUMXつにカビを見つけました。 伝えられるところによると、彼はこの問題について次のように述べています。 XNUMX年XNUMX月XNUMX日の夜明け直後に目が覚めたとき、私は確かに世界初の抗生物質、つまりバクテリアキラーを発見することによってすべての薬に革命を起こすつもりはありませんでした。 しかし、それはまさに私がしたことだったと思います。」

私たちは、有利な事故を脇に置き、ここでは悲惨な事故に焦点を当てます。 事故の眉をひそめた顔のバージョンは、それらの不利な結果が特に生命を脅かすか、厄介な結果をもたらす可能性がある場所です。 可能な限り、最小化したい下向きの事故(そして、もちろん、それが可能であれば、最大化したい上向きの事故ですが、そのスマイリーフェイスのバリエーションについては後のコラムで説明します)。

事故の必然性についての先ほどの質問を少し言い換えたいと思います。 これまで、私たちは、特定の人称で発生する事故に注意を払ってきました。 事故が一度に多くの人々に影響を与える可能性があることは間違いありません。 これは、人々が何らかの複雑なシステムに没頭しているときに特に遭遇する可能性があります。

以前に浮かんだ質問の変形の準備をしてください。

システム事故は避けられませんか?

これを熟考する必要があります。

自動車の部品を作るために工場の床がレイアウトされているとします。 工場を設計した人たちは、発生する可能性のある労働者の事故について非常に心配しているとしましょう。 工場労働者は常にヘルメットを着用する必要があります。 工場の看板は、事故に注意し、作業に注意するように勧めています。 事故の発生を防ぐためにあらゆる予防策が講じられています。

この制度では、誰も事故を起こさないことを願っています。 事故が起こる可能性はゼロだと思いますか? この場合、事故の可能性がゼロであると合理的な思想家が賭けることはないだろうと私は敢えて提案します。 事故が発生する可能性は非常に低いかもしれませんが、すべての予防策にもかかわらず、事故が発生するリスクはまだわずかであると私たちは知っており、想定しています。

これらすべては、十分に複雑なシステムでは、事故を防ぐためにどれほど努力しても、事故は依然として発生すると信じなければならないという考えを示しています。 私たちはしぶしぶ、システム事故は避けられないという規定に背を向けています。 この口径の壮大な声明には、事故を完全に防ぐためにすべての基地をカバーすることは本質的に不可能であるように、システムがある程度の複雑さのしきい値でなければならないという警告があるかもしれません。

これで、通常の事故または通常の事故理論(NAT)としてラベル付けできる、事故に関する大まかに概説された理論が段階的に紹介されました。 この概念を検討した研究者による便利な説明は次のとおりです。「十分な規模で、どのシステムでも「通常の事故」が発生します。 これらは、複雑さ、コンポーネント間の結合、および潜在的な危害の組み合わせによって引き起こされる避けられない事故です。 通常の事故は、通常の事故につながるイベントと相互作用がシステムのオペレーターに理解できないという点で、より一般的なコンポーネント障害事故とは異なります」(RobertWilliamsによる「AI障害の理解と回避:実践ガイド」で述べられているように)ローマン・ヤンポルスキー、 哲学 ジャーナル)。

私があなたをいわゆる土地に連れて行った理由 通常の事故 徐々にそして必然的に私たちの社会に遍在するようになっている何か、すなわち人工知能(AI)の出現に、この理論を注意深く適用する必要があるかもしれないということです。

これを掘り下げてみましょう。

AIが完璧になると誤解している人もいます。 AIシステムは間違いを犯したり、私たちを困らせたりすることはありません。 あなたがする必要があるのは、それらのAI開発者が十分な仕事をしていることを確認することだけです、そして出来上がり、AIは偶然または事故を生むと解釈される可能性のあることを決してしません。

その架空の信念についてはそれほど速くはありません。 あなたがの理論に賛成することをいとわないなら 通常の事故、実質的に複雑なAIは、必然的に事故を引き起こします。 これらのAI開発者が事故を防ぐためにどれだけ深夜にいじくり回しても、AIはある時点で事故に巻き込まれることは間違いありません。 それがクッキーが崩れる方法です。 そして、こぼれたミルクで泣いても休むことはありません。

AIのマッシュアップとの概念的な信条を熟考する 通常の事故.

核兵器を制御するAIシステムがあると想像してください。 AIは慎重に作成されています。 考えられるすべてのチェックとバランスがAIシステムにコード化されています。 発生する可能性のあるAIベースの事故から私たちは安全ですか? 通常の事故の視点を支持する人々は、私たちが想定されるほど安全ではないと言うでしょう。 AIが特に複雑になる可能性があることを考えると、通常の事故は、おそらく最悪の瞬間に、いつか現れるまで静かにそこで待っています。

これらの厄介な質問と不安の要点は、AIが事故に巻き込まれることは間違いないということであり、人類は起こりうる危険について賢明で積極的な行動をとらなければならないということです。 すぐにわかるように、これはAIの使用に関して迫り来る考慮事項であり、AI倫理および倫理AIの分野は何をすべきかについてかなり取り組んでいます。 AI倫理と倫理的AIに関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

うさぎの穴を掘り下げる前に、AIの性質について同じページにいることを確認しましょう。 今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

私が焦点を当てているタイプのAIは、現在私たちが持っている無感覚なAIで構成されています。 乱暴に推測したい場合 衆生 AI、この議論は根本的に異なる方向に進む可能性があります。 感性のAIはおそらく人間の品質のものでしょう。 感性AIは、人間がアドバイスを与えるのと認知的に同等であると考える必要があります。 さらに言えば、私たちが超知能AIを持っているかもしれないと推測する人もいるので、そのようなAIは人間よりも賢くなる可能性があると考えられます(可能性としての超知能AIの探求については、を参照してください)。 ここでの報道)。 これらのシナリオはすべて、情報源の評価をラチェットアップすると言われています。

物事をより現実的に保ち、今日の計算上の非感覚的なAIについて考えてみましょう。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、機械学習(ML)とディープラーニング(DL)が広く利用されており、計算パターンマッチングを活用しています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

AIの最新の時代が始まったとき、今では何人かが呼んでいるものに対する熱狂の大爆発があったことをご存知かもしれません。 AI For Good。 残念ながら、その噴出する興奮に続いて、私たちは目撃し始めました 悪い人のためのAI。 たとえば、さまざまなAIベースの顔認識システムには、人種的バイアスや性別バイアスが含まれていることが明らかになっています。 ここのリンク.

反撃するための努力 悪い人のためのAI 活発に進行中です。 声高に加えて 法的 不正行為を抑制することを追求する一方で、AIの卑劣さを正すためにAI倫理を採用することへの実質的な推進力もあります。 概念は、AIの開発とフィールド化のために、主要な倫理的AI原則を採用し、承認する必要があるということです。 悪い人のためのAI 同時に、好ましいものを告げると同時に促進する AI For Good.

関連する概念として、私はAIの問題の解決策の一部として、AIをそのような考え方で火と戦うことを試みることを提唱しています。 たとえば、倫理的なAIコンポーネントをAIシステムに組み込んで、AIの残りの部分がどのように動作しているかを監視し、差別的な取り組みをリアルタイムでキャッチする可能性があります。 ここのリンク。 また、一種のAI倫理モニターとして機能する別のAIシステムを用意することもできます。 AIシステムは、別のAIが非倫理的な深淵に入る時期を追跡および検出するための監督者として機能します(このような機能の分析を参照してください。 ここのリンク).

とにかく、一般的な希望は、AI倫理の原則の感覚を確立することで、少なくともAIが有益にできることと、逆に生み出すことができることの両方についての社会的認識を高めることができることです。 私は、AI倫理の原則のさまざまな集合的分析について幅広く議論しました。これには、「AI倫理ガイドラインのグローバルランドスケープ」というタイトルの論文(公開の 自然)、そして私の報道はで探求していること ここのリンク、このキーストーンリストにつながった:

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

ご想像のとおり、これらの原則の根底にある詳細を特定しようとすると、非常に困難になる可能性があります。 さらに言えば、これらの幅広い原則を完全に具体的で詳細なものに変えて、AIシステムを作成するときに使用できるようにする努力も、難しい問題です。 AI倫理の原則が何であるか、そしてそれらが一般的にどのように守られるべきかについて全体的に手を振るのは簡単ですが、AIコーディングでは、道路に出会う真のゴムでなければならないというより複雑な状況です。

AI倫理の原則は、AI開発者、AI開発の取り組みを管理する開発者、さらにはAIシステムのフィールド化と維持を最終的に実行する開発者によっても利用されます。 開発と使用のAIライフサイクル全体にわたるすべての利害関係者は、倫理的AIの確立された規範に従う範囲内であると見なされます。 これは重要なハイライトです。通常の想定では、「コーダーのみ」またはAIをプログラムするものは、AI倫理の概念に準拠する必要があるためです。 先に述べたように、AIを考案してフィールド化するには村が必要であり、村全体がAI倫理の原則に精通し、それを遵守する必要があります。

自慢のAI倫理リストに追加する必要があるかもしれません。これは、AIベースを防止するか、少なくとも確実に軽減するために、明示的に検討し、明白な行動を取る必要があります。 通常の事故 それが発生する可能性があります。 AIを開発する人々は、その面で最善を尽くす必要があります。 AIを導入する人も同様に行う必要があります。 AIを使用している、または何らかの形でAIの対象となっている人は、AI事故が発生する可能性があることに注意し、警戒する必要があります。

事故の可能性をゼロにするのに十分な予防策をAIに組み込むことができると考えたくなるかもしれません。 技術者の場合、通常の傲慢さは、ある技術が問題を引き起こす可能性がある場合、別の技術が確実に問題を解決できるということです。 問題がなくなるまで、どんどん技術を投げ続けてください。

さて、システム指向の事故を研究した人々は、スイスチーズモデル(SCM)として知られる立場を提示することによって、推定される技術者の主張に反対し、丁寧に反論する傾向があります。安全の各層の弱点を表す穴のあるチーズ。 時間の経過とともに、穴の形状が変化し、動き回ります。 最終的には、チーズのスライス(安全層)がいくつあっても、穴が整列し、チーズのすべてのスライスをまっすぐに突き抜けることができます(事故が発生します)」(RobertWilliamsとRomanYampolskiyによる以前の引用論文によると)。

AIを完全に、そして常に事故の可能性を回避するようにプログラムする保証された方法があるかどうかについて、私はこの側の接線に行き詰まりたくありません。 試みられている数学的および計算による証明アプローチのすべての方法があります。 今日、私たちにはスケーラブルな作業方法や、そのようなゼロチャンスを保証できる技術がないことを宣言するのは合理的で公正だと思います。確かにそのような慣行を遵守しようとはしていません。 後者の点は非常に重要です。なぜなら、AIラボで何かを作成できたとしても、それを数え切れないほどのワイルドで屈託のないAIの取り組みにスケーリングし、それが今後も出現し続けることは厄介な問題であり、計算機の証明機が銀色であっても解決されない可能性が高いからです。弾丸が存在しました。

簡単に言及する価値があると私が信じるもうXNUMXつのポイントは、悪意のある人間の行為者の結果として不利な行為を行うようになったAIです。 私はそれらのインスタンスをAI事故の領域に置くつもりはありません。 冒頭の議論は、事故の辞書の定義が事故の事件であったことを示唆したことを覚えておいてください 意図しない 自然。 人間のサイバー詐欺師がなんとかAIシステムに悪いことをさせたとしても、私はそのAIを事故に遭ったとは分類しません。 私はあなたがその推定に沿って行くと信じています。

さまざまなAIの不利な行動のどれだけが、純粋にAIの事故に起因するのか、サイバー犯罪者の悪質な行動に起因するのかについて、興味深い質問が出てきます。 データベースを報告している既存のAIインシデントのいくつかによると、AI事故は、悪意を持って引き起こされたインシデントよりも多く発生しているようですが、大量の塩でその概念を理解する必要があります。 これは、AIシステムが攻撃されたときに報告しないという大きな誘惑があり、AI事故が発生したときに報告することをいとわないためです。

AI事故に関して私たちが議論する必要がある非常に重要な警告があります。

キャッチフレーズ「AI事故」を使用することは一般的に望ましくなく、私たち全員、つまり社会全体にとってかなりの混乱を引き起こします。 人の手が事故を起こしたとき、私たちはしばしば肩をすくめ、事故を起こした人に同情します。 「事故」という言葉は、何が起こったのか誰にも責任がないという意味のように扱われているようです。

交通事故に巻き込まれた例を見てみましょう。 ある車が右折して大きく揺れ、誤って直進していた別の車にぶつかりました。 シャック、それはただの事故であり、偶然に起こった。 事件に関わっていなかった人々は、単に起こった事故であるという観点から事件が引き起こされた場合、おそらく問題を滑らせるだろう。

打たれた車に乗っていたら、あまり大きく曲がったドライバーにはあまり共感できない気がします。 あなたの意見は確かに他の運転手はお粗末な運転手であり、表面上違法または賢明でない運転行為が自動車事故につながったということでしょう。 事故を「事故」とラベル付けすることにより、行き詰まったドライバーは、混乱したドライバーの手ではなく、偶然だけですべてが発生したように見えるため、やや不利になります。

実際、「事故」という言葉はさまざまな意味合いで満たされているため、政府の自動車事故に関する統計では、自動車事故というフレーズを使用するのではなく、概して、この問題を自動車衝突または自動車事故と呼んでいます。 交通事故や自動車事故は、事件がどのように起こったのかについては何の影響も及ぼさないようです。 一方、「自動車事故」という言い回しは、運命の癖か、人類の手に負えないものだと思わせてしまいます。

AIの事故に言及するときに、この概念的な考慮事項がどのように機能するかを十分に理解できます。 AI開発者が、AIが誤って誰かに危害を加えたという意味の盾の後ろに隠れてほしくないのです。 AIを導入する人にも同じことが言えます。 「AI事故」の言い回しは、AIの舞台裏にいた人間が説明責任を免れるように社会を誤解させる、ほぼAIの擬人化であると主張することができます。 人間にAIの責任を負わせることの重要性が高まっていることについての私の議論については、次の私の議論を参照してください。 ここでは、このリンク & ここでは、このリンク.

これ以降、AI事故のキャッチフレーズを使用しますが、これは従来の方法であるため、しぶしぶ使用しています。 これを別の言葉で表現しようとすると、残念ながら肥大化し、読みにくくなる傾向があります。 キャッチフレーズは、他の見方をしないように解釈し、AIが故障したときにAIの根底にある人間が責任を問われることに気付かないようにしてください。

AIを事故の発生と呼ぶことで起こりうる混乱や誤解を招く側面を説明するために、花瓶を倒すことについての私の意見に戻ることができます。 AIがそうしているこの例を考えてみましょう。「この問題は、偶然またはAIによる無関心によって行われたことと関係があります。 花瓶をノックオーバーする掃除ロボットはその一例です。 複雑な環境には非常に多くの種類の「花瓶」があるため、すべての副作用に対してペナルティを課すことができない可能性があります」(RobertWilliamsとRomanYampolskiyの論文による)。

家庭で使用された後、「誤って」花瓶を倒したAIシステムは、AIのこの悪影響について誰も非難されるべきではないことを示唆しているように思われます。 それはただの事故でした、人は嘆き悲しんで非難するかもしれません。 一方、AIシステムが一般的に花瓶の状況を処理するようにプログラムされていない理由を正しく尋ねる必要があります。 AI開発者が花瓶自体が遭遇する可能性のあるオブジェクトの範囲内にあるとは予想していなかったとしても、AIシステムがノックオーバーするのを妨げるような包括的なオブジェクト回避がなかった理由は確かに疑問です。花瓶(したがって、AIは花瓶を花瓶として認めて分類しない可能性がありますが、それでも回避すべき検出可能なオブジェクトとしてそれを回避できた可能性があります)。

私は、「AI事故」に巻き込まれ、何らかの形で危害を加えるAIシステムの出現をめぐって、私たちが徐々に巨大な法廷闘争に向かっていることを予測し続けています。 これまで、社会は、市場に押し出され、意図的または意図せずに悪影響をもたらすAIを法的に押し戻すために、かなりの方法で反応していませんでした。 中途半端なAIメーカーのゴールドラッシュとなった今日のAIバンドワゴンと、AIの展開を急いで制定したものは、現在幸運に恵まれており、民事訴訟や刑事訴追の影響を比較的受けていません。

AIに起因する法的な反発は、遅かれ早かれ来るでしょう。

では、いわゆるAI事故の必然性にどう対処していくのでしょうか。

私たちがすぐにできることのXNUMXつは、AI事故がどのように発生するかを予測することです。 AIの事故を予測することで、少なくともAIの事故を減らす、または発生する可能性を最小限に抑える手段を考案することができます。 さらに、AI事故が発生した場合に、実証的な危害の可能性を減らすために、ガードレールの設置を試みることができます。

以前に引用された研究記事で説明された一連の有用な要因 AI障害の理解と回避:実用ガイド これらのプロパティが含まれています(研究論文から引用):

  • AIの出力の影響を受けるシステム。
  • AI出力とより大規模なシステムとの間の時間遅延、システムの可観測性、人間の注意のレベル、およびAIの誤動作を修正するオペレーターの能力。
  • AIが制御するシステムの悪用によって発生する可能性のある最大の被害。
  • AIに近接したコンポーネントの結合と相互作用の複雑さ。
  • 使用されているAIやその他のテクノロジーの知識のギャップとシステムのエネルギーレベル。

この膨大な議論のこの時点で、AI事故のトピックをさらに解明する可能性のあるいくつかの実例を望んでいるに違いありません。 私の心に近い特別で確実に人気のある例のセットがあります。 倫理的および法的な影響を含むAIの専門家としての私の立場では、トピックのやや理論的な性質をより簡単に把握できるように、AI倫理のジレンマを示す現実的な例を特定するように頻繁に求められます。 この倫理的なAIの難問を鮮明に表現する最も刺激的な分野のXNUMXつは、AIベースの真の自動運転車の登場です。 これは、このトピックに関する十分な議論のための便利なユースケースまたは模範として役立ちます。

次に、検討する価値のある注目すべき質問を示します。 AIベースの真の自動運転車の出現は、いわゆるAI事故の出現について何かを明らかにしていますか?もしそうなら、これは何を示していますか?

質問を解くために少し待ってください。

まず、真の自動運転車には人間のドライバーが関与していないことに注意してください。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手が運転する必要はなく、人間が車両を運転するための設備もありません。 Autonomous Vehicles(AV)、特に自動運転車に関する広範囲にわたる継続的な報道については、を参照してください。 ここのリンク.

真の自動運転車とはどういう意味かをさらに明確にしたいと思います。

自動運転車のレベルを理解する

明確にするために、真の自動運転車とは、AIが完全に自力で車を運転し、運転タスク中に人間の支援がない車のことです。

これらの自動運転車はレベル4およびレベル5と見なされます(私の説明を参照してください) ここでは、このリンク)、一方、人間の運転手が運転努力を共有する必要がある車は、通常、レベル2またはレベル3と見なされます。運転タスクを共有する車は、半自律的であると説明され、通常、さまざまなADAS(先進運転支援システム)と呼ばれる自動化されたアドオン。

レベル5にはまだ真の自動運転車はなく、これを達成できるかどうか、またそこに到達するまでにどれくらいの時間がかかるかはまだわかりません。

一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路や小道で行われている、いくつかの主張、で私の報道を参照してください ここでは、このリンク).

半自律型の車には人間のドライバーが必要であるため、これらのタイプの車の採用は、従来の車の運転とそれほど変わりません。そのため、このトピックについてそれ自体をカバーすること自体はそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。

半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。

レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。

自動運転車とAIインシデント

レベル4とレベル5の真の自動運転車両の場合、運転タスクに人間のドライバーは関与しません。

乗客はすべて乗客となります。

AIが運転を行っています。

すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。

AIが知覚力を持たないことを強調しているのはなぜですか?

AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。

その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。

このトピックで遊びに来る無数の側面に飛び込みましょう。

まず、すべてのAI自動運転車が同じであるとは限らないことを認識することが重要です。 各自動車メーカーと自動運転技術会社は、自動運転車を考案するためのアプローチを取っています。 そのため、AI駆動システムが何をするか、何をしないかについて、大胆な発言をすることは困難です。

さらに、AI駆動システムが特定のことを行わないと述べるときはいつでも、これは後で、実際にそのことを行うようにコンピューターをプログラムする開発者によって追い抜かれる可能性があります。 AI駆動システムは段階的に改善され、拡張されています。 現在の既存の制限は、システムの将来のイテレーションまたはバージョンでは存在しなくなる可能性があります。

私はそれが私がこれから関係しようとしていることの根底にある十分な警告の連祷を提供すると信じています。

私たちは今、自動運転車と、いわゆるAI事故の出現を伴う倫理的なAIの可能性について深く掘り下げる準備ができています。

AIベースの自動運転車が近所の通りで進行中であり、安全に運転しているように見えることを想像してみてください。 最初は、自動運転車を垣間見るたびに特別な注意を払っていました。 自動運転車は、ビデオカメラ、レーダーユニット、LIDARデバイスなどを含む電子センサーのラックで際立っていました。 自動運転車がコミュニティを何週間もクルージングした後、あなたは今ではほとんど気づいていません。 あなたに関する限り、それはすでに混雑している公道にある別の車にすぎません。

自動運転車を見るのに慣れることは不可能または信じがたいと思わないように、自動運転車の試乗の範囲内にあるロケールが、スプルースアップされた車を見ることに徐々に慣れてきた方法について頻繁に書いています。 地元の人々の多くは、やがて口を大きく開ける猛烈なゴーキングから、曲がりくねった自動運転車を目撃するために、退屈の広大なあくびを放つようになりました。

おそらく、自動運転車に気付く可能性がある現在の主な理由は、苛立ちと苛立ちの要因によるものです。 著書のAI運転システムは、車がすべての制限速度と道路の規則に準拠していることを確認します。 従来の人間が運転する車に乗っている多忙な人間のドライバーにとって、厳密に法を遵守するAIベースの自動運転車の後ろに立ち往生しているとイライラすることがあります。

それは、私たち全員が正しくまたは間違って慣れなければならないかもしれないことです。

話に戻りましょう。

ある日、自動運転車が事故に遭う。

右折中、AI駆動システムが自動運転車を大きく振り、人間が運転する車に衝突しました。 人間が運転する車は、適切な車線を直進していました。 人間の運転手が曲がったり、殴られたりするのを避ける特別な機会はありませんでした。 また、自動運転車が大きく右折するという警告や表示はありませんでした。

これは事故ですか?

確かに、それはAI事故であるというルーブリックに含まれていると言えます。 このような主張の根拠は、自動運転車の車輪にAI駆動システムがあったということです。 どういうわけか、何らかの理由で、AIは右折するときにワイドスイングをすることを選択しました。 その結果、自動運転車が人間が運転する車にぶつかることになりました。

「事故」という言葉に関連する意味についての以前の議論を思い出して、このシナリオでそのような低音がどのように機能するようになるかを見てください。 また、人間の運転手が右に大きく曲がり、人間が運転する仲間の車にぶつかった場合についても話し合ったことを思い出してください。 この行為が「事故」であるという概念は誤解を招き、混乱を招くことに気づきました。 大きく揺れた人間の運転手は、偶然や運命の気まぐれによると思われる事故が発生しただけであるという考えの背後に隠れることができました。

AIベースの自動運転車が大きくなり、人間が運転する車にぶつかった場合にシナリオを「AI事故」とラベル付けするのではなく、おそらくそれは自動車事故または自己を伴う自動車衝突であったと言えます。運転車と自動運転車。 そうすれば、それが未知の手段の事故であるという空虚な混乱を免れることができます。

事件に対する世論の反応はどうなると思いますか?

ええと、自動車メーカーや自動運転技術会社が事故として問題のラベル付けに固執することができれば、彼らはコミュニティ全体からの潜在的な反発を回避することができるかもしれません。 伝えられた事故への共感は、特定の状況に波及する可能性があります。 市、郡、州の指導者がAI自動運転車の事故にどのように反応する可能性があるかについて詳しくは、私が共同で主導したハーバード大学の研究の議論を参照してください。 ここのリンク.

状況が自動車事故または自動車衝突として明確に説明されている場合、おそらくそれは誰かまたは何かがおそらく事件のせいであるという認識を可能にするかもしれません。 ひざまずく反応は、AIが責任を負うことになっているということかもしれません。 問題は、AIに法人格のようなものとして油を注ぐことを決定するまで、またはこれまでに、AI自体に責任を固定することはできないということです(AIと法人格に関する私の議論を参照してください。 ここのリンク).

AI運転システムを調べて、不適切な運転とそれに続く自動車事故の原因を突き止めることができます。 ただし、これはAIが責任を問われることを意味するものではありません。 責任者には、AI開発者、自動運転車のフリートオペレーターなどが含まれます。 ターンが行われたコーナーの設計は市が部分的に責任を負う可能性があるため、他の人も含めます。 さらに、歩行者が角を曲がっており、AI運転システムがその人を回避することを選択したにもかかわらず、自動車事故に巻き込まれたとします。

のように。

まとめ

AIが計算で何を計算していて、何をするようにプログラムされているのかを知りたいと思います。 AIはコード化されたとおりに機能しましたか? たぶん、AIはプログラミングでバグやエラーに遭遇しました。これはアクションを許しませんが、クラッシュがどのように発生したかについてのより多くの手がかりを提供します。

AI駆動システムにはどのようなAIガードレールがプログラムされていますか? ガードレールがあったら、なぜそれらが自動車事故を防げなかったように見えるのかを解明したいと思います。 たぶん、AI駆動システムは方向転換するのではなく停止した可能性があります。 インシデントの過程でAIが計算で評価した代替案を知りたいと思います。

特定の事件の根底にあることに加えて、別の正当な問題は、AI駆動システムに同様の種類の不利な行為を行う欠陥または他の埋め込まれた側面があるかどうかです。 本質的に、この事件は、今後さらに多くのことを示す明確な指標となる可能性があります。 このタイプのAI運転システムのプロンプトを予測するために、運転状況のコンピューターベースのシミュレーションはどのように使用されましたか? 自動車事故につながる可能性のあるAIの問題を突き止めるのに十分な道路運転免許試験はありましたか?

このシナリオは、AIベースの自動運転車の出現に直面している論争の的となる難問を浮き彫りにします。

こんなふうになります。

一方では、AI駆動システムが人間のドライバーと同じくらい安全であるか、場合によっては安全であるという希望から、自動運転車を迅速に採用したいという社会的要望があります。 米国だけでも、現在、自動車事故と約40,000万人の負傷により、年間約2.5人が死亡しています。 分析によると、これらの自動車事故のかなりの部分は、飲酒運転、注意散漫な運転などのヒューマンエラーに起因していることが示唆されています(このような統計の私の評価を参照してください。 ここのリンク).

AI運転システムは飲酒運転をしません。 彼らは休む必要がなく、運転中に疲れることもありません。 自動運転車を実行可能な輸送手段として確立することにより、人間のドライバーの数を減らすことができると想定されています。 これは、自動車事故による年間の人的死傷者の数を要約的に減らすことを意味するはずです。

一部の専門家は、死者や負傷者はゼロになり、自動運転車はおそらくクラッシュしないだろうと言っていますが、これはまったくばかげた、まったく間違った一連の期待です。 私はこれがなぜそんなに不誠実であるかを説明しました ここのリンク.

いずれにせよ、自動運転車が関与する自動車事故がある程度発生すると想定します。これらの自動車事故には、ある程度の死傷者が出ると想定します。 苦しんでいる問題は、社会としての私たちがそのような事例をまったく容認する意思があるかどうかです。 真の自動運転車の結果としてXNUMX人の死亡またはXNUMX人の負傷が発生した場合でも、キット全体とkaboodleを閉鎖する必要があると言う人もいます。

反対の見方は、救われた命が年間数を減らしているのなら、私たちは自動運転車の出現を奨励し続け、そのような非論理的な方法で反応しないべきであるということです。 自動運転車を使用した場合でも、ある程度の死傷者が残るという前提を受け入れる必要がありますが、年間数が減少した場合は、正しい方向に進んでいることを示しています。

もちろん、大規模で徹底的なコンピューターベースのシミュレーションの結果として、または私的なクローズドトラックテストによって使用が許可されるまで、自動運転車を公道に置くべきではないと主張する人もいます。 反論は、自動運転車を動かすための唯一の実行可能で最速の方法は公道を使用することであり、自動運転車の採用が遅れると、人間が運転する車の衝突の恐ろしい数が続く可能性があるということです。 私は私のコラムでこの議論をより長くカバーし、読者にこれらの議論を見て、この論争の的となっている問題の展望を完全に理解するように促します。

とりあえずまとめましょう。

AIの事故が起こりそうです。 AI事故を一見したように解釈する衝動に抵抗しなければなりません 誤って エルゴは、AIを導入しているメーカーやメーカーを、断固としてオフフックにさせています。

あなたの一日の最後の興味をそそる考えとして、私があなたに残している追加のひねりがあります。

コメディアンのデーン・クックは、自動車事故についてこのジョークを言ったと伝えられています。 私のせいじゃない。 あなたのせいではなくても、他の人が車から降りて、あなたのせいのようにあなたを見ます。なぜあなたは赤信号で立ち止まり、80をやってあなたを殴らせたのですか!」

ねじれが前面に出たのは、AIシステムが、その特定のAIに関連するAI事故が発生した場合、その事故は人間のせいであり、AIのせいではないと宣伝する可能性があることです。 ちなみに、これは十分に真実である可能性があり、人間はそれがAIのせいであると主張することによって、AIをスケープゴートしようとしている可能性があります。

あるいは、AIが人間をスケープゴートしようとしているのかもしれません。

ご覧のとおり、私たちが考案したAIは、偶然であろうとなかろうと、そのように扱いにくいかもしれません。

出典:https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self-運転車-あまりにも/