AI倫理と自律システムの教訓は、パイロットと副操縦士が離陸する前に同意せず、突然タクシーでターミナルに戻って別々の道を進むという最近のアラスカ航空のフライトから得られました。

航空会社は最近かなりニュースになっています。

私たちは夏のフライトの危機に瀕しています。 疲れて欲求不満の乗客は、あらゆる種類のフライトの混乱や航空会社のスケジュールのゆがみに直面しています。 フライトが予期せずキャンセルされます。 フライトが遅れています。 乗客の発煙。 残念ながら、これらの悩みの種を噴出させる乗客の例はたくさんあり、私たちは、対決のバイラルビデオが多すぎて、時には殴り合いをしているのを見てきました。

コックピットにいる間に発生する可能性のあるパイロットと副操縦士の間の紛争について学ぶことはめったにありません。

それはかなりの驚きです。

確かに、私たちは当然、パイロットと副操縦士が飛行のどの段階でも深刻な不一致のように見えるだろうと考えることに驚いています。 意見の不一致がどのブランドのコーヒーに最適であるかに関するものである場合、飛行機の飛行を伴う作業にこれが侵入することはないと想定しています。 二人は、一見飛行に関係のないトピックについて、目と目が合わないことを単に肩をすくめるでしょう。 彼らの専門的な態度と長年のパイロット訓練が始まり、彼らは飛行の詳細に焦点を戻しました。

ただし、 専門家の意見の相違 介入します。

コックピットでの専門家の意見の不一致の主張に関連して、米国での飛行中に起こった最近の事例について広く公開されているニュース項目を簡単に紹介します。

これは主に、人工知能(AI)の出現にとって非常に重要な関連トピックを調査できるようにここで引用されています。 ご存知のように、人間同士の不一致で人間だけでなく、AIの採用やエルゴの結果として生じる人間対AIの専門家の不一致の中で、同様のことが起こる可能性があります。 。 あらゆる種類のAI倫理の考慮事項が発生します。 AI倫理および倫理的AIの問題に関する私の広範囲にわたる継続的な報道については、を参照してください。 ここのリンク & ここのリンク, わずか数名に。

魅力的な物語の準備をしてください。

最近ニュースで報道されたように、「専門家の意見の不一致」のケースは、ワシントンからサンフランシスコに向かうアラスカ航空の飛行中に明らかに発生しました。 報道によると、飛行機はゲートから離れ、タクシーと飛行機に乗る許可を駐機場で待っていた。 嵐が進行中で、XNUMX時間半以上のフライト遅延につながりました。 飛行機は最終的に向きを変えてゲートに戻ったことが判明しました。これは通常、一部の乗客が嵐に関連した安全上の予防措置であると想定していた可能性があります。

さまざまなツイートによると、パイロットと副操縦士はコックピットにいる間に何らかの見えない確執を持っていたようで、どういうわけか最も賢明なアプローチはフライトをスクラブしてターミナルに戻ることであるという結論に達しました。 ツイートによると、機長と副操縦士はどうやら仲良くできなかったそうです。 航空会社は後に状況が不幸であるという声明を発表し(状況自体は明確に述べられておらず、説明もされていませんでした)、XNUMX人の飛行士官は経営陣によって評価され、飛行に適していると見なされ、乗務員は交換され、飛行は最終的に行われましたその後、サンフランシスコに到着しました。

ある意味で、パイロットと副操縦士が、飛行機が適切に飛行する準備ができているかどうか、または嵐の中を飛行するリスクが適切な安全範囲内にあるかどうかなど、専門家の意見の不一致があった場合、それらの乗客は安心する必要があります。飛行機がゲートに戻されたことに感謝します。 後悔するより安全である方がいいです。 追加の遅延があることは、考えられる険しいまたは不利な飛行の旅に関連するリスクの推定される削減の価値が十分にあります。

そのような専門家の意見の不一致が生じる可能性があることに驚く人もいるかもしれません。

コックピットで発生するすべてのことが完全に正確で、適切に記述されているという誤った印象を持っている可能性があります。 あらゆる形態の人間の裁量がプロセスから排除されたようです。 厳密で徹底的に計算されたチャートに基づいて、フライトは続行しても問題ないか、そうでないかのどちらかです。 キットとカブドル全体が事実と数字の反駁できない計算に基づいていると考えられる場合、意見の相違はあり得ません。

それは問題の完全な真実ではありません。 確かに、多数のプロトコルとあらゆる種類のチェックとバランスがありますが、これは人間の判断のすべてのイオタを絞り出すわけではありません。 パイロットと副操縦士はまだ人間の判断を行使します。 幸いなことに、この人間の判断は何年にもわたる飛行によって研ぎ澄まされています。 民間旅客機のパイロットと副操縦士は、以前の飛行経験の塊を持っており、飛行制御にいることに関連する長年の詳細な推論と判断を容易に活用する可能性があります。

人間の判断の注目すべき役割を考えると、パイロットと副操縦士が専門家の意見の不一致を起こすことがあると論理的に予想するかもしれません。 ほとんどの場合、おそらくそのような不一致はほとんどありません。 毎日のフライトのパイロットと副操縦士は、時間の優勢とうまく調和している可能性があります。 飛行シナリオが従来の範囲を超える可能性がある場合にのみ、より緊張した摩擦が発生すると予想されます。

両者の意見に大きな違いがあるのなら、あえてハッシュ化してほしいと思います。

パイロットが熱心に進みたいが、副操縦士がリスクが高すぎると感じている状況を想像してみてください。 副操縦士の叩頭をパイロットに与えるだけでは望ましくないように思われます。 副操縦士は、パイロットがやろうと考えていることに対するチェックアンドバランスです。 副操縦士が黙って、パイロットが命じたものに無意識に行動することを望んでいる人にとっては、まあ、それはあまり安心ではありません。 副操縦士は、パイロットが完全に無能力である場合にのみ画像に入る予備の「パイロット」ではありません。 これは、コックピットにパイロットと副操縦士を配置することの価値についての誤った理解です。

これには別の角度があります。

飛行が進むべきだと信じていないパイロットの場合を考えてみてください。その間、副操縦士は空中に起き上がることについてガンホーです。 では、どうしますか? 予想される階層により、パイロットは通常、副操縦士よりも優先されることになっています。 主な責任者であるという指定された役割は、パイロットを他の点ではいくらか等しいものよりも大きくします。 通常、パイロットは副操縦士よりも全体的な飛行時間の調味料が多く、副操縦士は(合理的な範囲内で)パイロットの希望に階層的に従うことになっています。

いずれにせよ、飛ばないことを選択することは、飛ぶことを決定するよりも確実にリスクの少ない選択であることに私たちは皆同意できると思います。 飛行機が空中に上がると、通常の安定した地面にいる場合と比較して、リスクレベルは非常に大きくなります。 空中に出ることなく単にタクシーでターミナルに戻る通常の商用飛行は、飛行に入るという激しい激しい議論に対するかなり友好的な解決策になるでしょう。

ギアをシフトして、まったく異なるが関連性のある目的のためにこの派手なニュースアイテムを使用しましょう。

私たちは徐々にAIベースの自律システムの普及を遂げています。 AIがショーを実行することもあります。 AIはAからZまですべてを実行します。これは、完全に自律的またはほぼ自律的なAIと解釈される可能性があります。 他のケースでは、ヒューマン・イン・ザ・ループと相互作用し、ある程度はヒューマン・イン・ザ・ループに依存するようにプログラムされたAIを持つことができます。

AIベースの自律システムまたは半自律システムの問題に集中したいと思います。最初から人間がループしているのです。 AIと人間は意図的に突き合わせられ、互いに連携して動作することになっています。 彼らは、目前の特定のタスクを実行するコホートです。 AIだけがタスクに作用することは想定されていません。 AIは、指定されたヒューマンインザループと対話する必要があります。

ヒューマン・イン・ザ・ループがオプションのファセットと見なされる状況と区別するために、この特性を取り上げます。 本質的に、AIには自由な支配が与えられます。 AIが人間を利用することを選択した場合は、そうすることを選択します。 AIが指定された人間とベースに接触したり、連携して作業したりする必要はありません。 私がこれから説明しようとしている分析は、確かにその種の分析に関連しています。 任意 相互作用の取り決めですが、この特定の議論で私が具体的に推進しているのはそれではありません。

さて、人間とAIが互いに切り離せない形で一緒に取り組む、ある種のタスクがあります。 抽象的な意味で、私たちは一方の座席に人間が座っており、もう一方の座席にAIシステムが座っています。 たとえば、実際に座席に座っている可能性のあるロボットにこの議論を限定していないので、私はこれを生意気に言います。 私は、AIがどこかでタスクに参加しており、人間も参加しているという概念を比喩的にほのめかしています。 物理的には、彼らの所在は議論にとって特に重要ではありません。

このような状況がいつ発生するかわからない場合があります。

簡単です。

後で、自動運転車と自動運転車の出現について説明します。 自律性の特定のレベルでは、AIと人間は協力することになっています。 AIが車を運転していて、人間が運転制御を引き継ぐように要求している可能性があります。 人間が車を運転し、AIをアクティブにして制御を引き継ぐ可能性があります。 彼らは運転制御で交代しています。

さらに、一部の設計では、AIが常に準備ができているように、AIが本質的に常に(またはオフにされていない限り)アクティブになっています。 さらに、展開している状況によっては、人間が尋ねなくてもAIが直接介入する場合があります。 たとえば、人間がハンドルを握って眠りに落ちたようだとします。 人間はAIをアクティブにできないように見えるため(人が眠っているため)、AIは人間からの制御を引き継ぐようにプログラムされている可能性があります。

一部の設計では、AIと人間をデュアルドライビングアプローチにします。 AIが運転していて、人間が運転しています。 または、必要に応じて、人間が運転していて、AIも運転しています。 彼らはそれぞれ車両を運転しています。 私はこれを、ドライバーのトレーニングを受けるときに使用した可能性のある特別に装備された車に例えます。車両には、学生ドライバー用とドライビングインストラクター用のXNUMXセットの運転制御装置がありました。

これは、AIと人間が共同でタスクに取り組んでいる可能性がある設定の一例にすぎません。 あらゆる可能性が存在します。 飛行機、ドローン、潜水艇、水上艦、電車など、他の種類の自動運転車も同様に考案される可能性があります。 車両や交通機関の設定だけを考慮する必要はありません。 医師とAIシステムが共同で行っている医療領域と手術を想像してみてください。 リストは無限大です。

人間とAIが一緒にバーに足を踏み入れるという古典的な騒々しいジョークに言及したい気がします。 AIに興味がある人にとってはかなり笑いです。

真剣に、与えられたタスクで一緒に働いている人間とAIシステムの焦点に戻りましょう。 まず、AIの擬人化は避けたいと思います。これは、全体を通して強調しておきます。 AIは知覚力がありません。 それを覚えておいてください。

これが熟考すべきことです: 指定されたヒューマンインザループは、常に共同チーム化されたAIと完全に一致しますか?

複雑なタスクの場合、人間とAIが完全に常に完全にロックされてステップに入る可能性は低いと思われます。 人間は場合によってはAIに同意しない可能性があります。 私たちはその仮定を銀行までずっと取ることができます。

このおそらく驚くべき可能性についても検討していただきたいと思います。 AIは、指定されたヒューマンインザループと常に完全に一致しますか?

繰り返しになりますが、複雑なタスクの場合、AIが人間と一致しない場合があることは非常に考えられます。 AIは常に間違っている必要があり、人間は常に正しい必要があるという考えにすでに傾いている場合は、その急いでの結論を再考するのが賢明です。 人間とAIが共同で半自動運転車を運転する車を想像してみてください。 人間はレンガの壁に向かって操縦します。 なんで? おそらく人間が酔っ払っていたり、眠りに落ちたりしたのかどうかはわかりませんが、レンガの壁にぶつかるのは良い考えではなく、他のすべてが同じであることはわかっています。 AIは、今後の災害を検出し、差し迫った障壁から離れようとする可能性があります。

とにかく、AIと人間が互いに意見を異にするという明確な可能性があります。 同じことを言う別の言い方は、人間とAIは お互いに意見が合わない。 AIと人間と人間とAIの順序付けが、不一致の方向性や妥当性について何かを示唆することを望まないことに注意してください。

XNUMX人は人間でもうXNUMX人はAIである、XNUMX人の労働者は互いに意見が一致していません。

特定のAIと特定の人間の間で不一致が発生した場合は常に、人間がAIよりも優勢であることを事前に宣言することができます。 そうは言っても、レンガの壁に向かっている車についての私の実例は、人間が常に正しいことになるだろうと私たちを思いとどまらせるように思われるでしょう。

対照的に、意見の不一致が生じた場合は常に、AIが正しく、人間が間違っていることを事前に確立していることを事前に宣言することを選択できます。 これも、賢明に一般化できる規定ではありません。 AIにソフトウェアのエラーやバグが埋め込まれていて、AIが車両を道路から離れて溝に誘導しようとしている車を想像してみてください。 他のすべてが等しいと仮定すると、人間はこのAI運転動作を克服し、車両がガリーに着陸するのを防ぐことができるはずです。

これを簡単に要約してみましょう。

  • ヒューマンインザループは常にAIと完全に一致しますか? 回答: いいえ。
  • AIは常にヒューマンインザループと完全に一致しますか? 回答: いいえ.
  • ヒューマンインザループはAIと比較して常に正しいのでしょうか? 回答: 必ずしも。
  • AIは、ヒューマンインザループと比較して常に正しいのでしょうか? 回答:必ずしも.

確かに、AIをデフォルトで「間違った」または弱いパーティと見なされるように設定できるため、意見の不一致が発生した場合は常に人間に任せます。 同様に、人間がAIに同意しない場合は常に、AIが「正しい」と見なされるようにAIを設定できます。 必要に応じて、プログラムでそれを実行できることを明確にしたいと思います。 私は、一般的に、これが常に当てはまるとは限らないと主張しています。 特定のタスクに関連する不一致について、AIが「正しい」か、人間が「正しい」かを事前に知らない設定が確実にあります。

私はあなたを非常に重要で非常に複雑な質問に導きました。

ヒューマンインザループとAIの間で専門家の意見の不一致が発生した場合(または、同等に、これをAIとヒューマンインザループの間にあると表現できます)、どうすればよいですか?

質問をかわそうとしないでください。

これは決して起こらないと主張する人もいるかもしれませんが、私の例で車について説明したように、確かに起こる可能性があります。 人間は明らかに優れており、意見の不一致の勝者でなければならないと主張する人もいるかもしれません。 車とレンガの壁の私の例はそれをノックダウンします。 表面上は人間の感情を克服し、それらの無計画な曖昧な思考の人間による欲求不満のために、AIが勝者でなければならないと主張するかもしれないAI支持者がいます。 繰り返しになりますが、溝に向かう車を伴う私の別の例は、その主張をアンダーカットします。

現実の世界では、AIと人間は、共同で行われるタスクを実行するために意図的にチーム化された状況になったとしても、意見が一致しなくなります。 それは起こります。 私たちは頭を砂に入れて、それが起こらないふりをすることはできません。

飛行機を操縦している人間が明らかに意見の相違に陥っているのを見ました。 ありがたいことに、彼らは同意しないことに同意したので、そう思われます。 彼らは飛行機をターミナルに戻した。 彼らは意見の不一致に対処する手段を見つけました。 彼らの意見の不一致に対する解決策は、おそらく彼らがコックピットで殴り合いに行った場合や、空中に飛んで互いに戦闘を続けた場合と比較して、うまくいきました。 それは耐え難い悲しみのシナリオであり、私たちはありがたいことが起こらなかったことに感謝することができます。

AIとヒューマンインザループ(またはヒューマンインザループとAI)の不一致を解決する可能性のあるさまざまな方法のリストを提供させてください。

  • AIとチーム化された人間は(友好的かどうかにかかわらず)物事を解決します
  • デフォルトでは、人間がAIに勝っています
  • デフォルトでは、AIは人間よりも優勢です
  • デフォルトでは、他のいくつかの所定の固定解像度が優先されます
  • サードパーティの人間がループインし、その兆候がパーティよりも優先されます
  • サードパーティのAIはループインされており、その表示はパーティよりも優先されます
  • サードパーティの人間が既存の人間に取って代わり、物事は新たに進行します
  • サードパーティのAIが既存のAIに取って代わり、物事は新たに進行します
  • サードパーティの人間が既存のAIに取って代わり、物事は新たに進行します(現在は人間から人間へ)
  • サードパーティのAIが既存の人間に取って代わり、物事は新たに進行します(現在はAIからAIへ)
  • その他

それらは開梱する価値が豊富にあります。

AIと人間の意見の不一致に対処する方法の根底にある、野生と羊毛の考慮事項についてさらに肉とジャガイモに入る前に、非常に重要なトピックに関するいくつかの追加の基礎を説明しましょう。 AI倫理、特に機械学習(ML)とディープラーニング(DL)の登場について簡単に説明する必要があります。

最近のAIの分野で、そしてAIの分野の外でさえ、最も大きな声のXNUMXつが、倫理的なAIのより優れた類似性を求める声で構成されていることを漠然と知っているかもしれません。 AI倫理と倫理AIを参照することの意味を見てみましょう。 その上で、機械学習とディープラーニングについて話すときの意味を探ります。

多くのメディアの注目を集めているAI倫理のXNUMXつの特定のセグメントまたは部分は、不利な偏見や不平等を示すAIで構成されています。 AIの最新の時代が始まったとき、今では何人かが呼んでいるものに対する熱意が爆発的に高まったことをご存知かもしれません。 AI For Good。 残念ながら、その噴出する興奮に続いて、私たちは目撃し始めました 悪い人のためのAI。 たとえば、さまざまなAIベースの顔認識システムには、人種的バイアスや性別バイアスが含まれていることが明らかになっています。 ここのリンク.

反撃するための努力 悪い人のためのAI 活発に進行中です。 声高に加えて 法的 不正行為を抑制することを追求する一方で、AIの卑劣さを正すためにAI倫理を採用することへの実質的な推進力もあります。 概念は、AIの開発とフィールド化のために、主要な倫理的AI原則を採用し、承認する必要があるということです。 悪い人のためのAI 同時に、好ましいものを告げると同時に促進する AI For Good.

関連する概念として、私はAIの問題の解決策の一部として、AIをそのような考え方で火と戦うことを試みることを提唱しています。 たとえば、倫理的なAIコンポーネントをAIシステムに組み込んで、AIの残りの部分がどのように動作しているかを監視し、差別的な取り組みをリアルタイムでキャッチする可能性があります。 ここのリンク。 また、一種のAI倫理モニターとして機能する別のAIシステムを用意することもできます。 AIシステムは、別のAIが非倫理的な深淵に入る時期を追跡および検出するための監督者として機能します(このような機能の分析を参照してください。 ここのリンク).

すぐに、AI倫理の根底にあるいくつかの包括的な原則をあなたと共有します。 あちこちに浮かんでいるこれらの種類のリストがたくさんあります。 あなたはまだ普遍的な魅力と同意の唯一のリストがないと言うことができます。 それは残念なニュースです。 幸いなことに、少なくともすぐに利用できるAI倫理リストがあり、それらは非常に似ている傾向があります。 とにかく、これは、ある種の合理的な収束の形によって、AI倫理が構成されているものの一般的な共通性に向けて私たちが道を見つけていることを示唆しています。

最初に、AIを作成、フィールド化、または使用する人にとって重要な考慮事項となるものを説明するために、倫理的なAIの全体的な原則のいくつかを簡単に説明しましょう。

たとえば、バチカンが ローマはAI倫理を求める そして、私が詳細にカバーしたように ここのリンク、これらは、特定されたXNUMXつの主要なAI倫理原則です。

  • 透明性: 原則として、AIシステムは説明可能でなければなりません
  • インクルージョン: すべての人間のニーズを考慮に入れて、すべての人が利益を得ることができ、すべての個人が自分自身を表現し、成長するための最良の条件を提供できるようにする必要があります
  • 責任: AIの使用を設計および展開する人は、責任と透明性を持って進めなければなりません
  • 公平性: 偏見に従って作成または行動しないでください。これにより、公平性と人間の尊厳が保護されます。
  • 信頼性: AIシステムは確実に機能する必要があります
  • セキュリティとプライバシー: AIシステムは安全に機能し、ユーザーのプライバシーを尊重する必要があります。

米国国防総省(DoD)が 人工知能の使用に関する倫理原則 そして、私が詳細にカバーしたように ここのリンク、これらはXNUMXつの主要なAI倫理原則です。

  • 責任者: DoDの担当者は、AI機能の開発、展開、使用に責任を持ちながら、適切なレベルの判断と注意を払います。
  • 衡平: 部門は、AI機能の意図しないバイアスを最小限に抑えるために慎重な措置を講じます。
  • 追跡可能: 部門のAI機能は、関連する担当者が、透過的で監査可能な方法論、データソース、設計手順とドキュメントなど、AI機能に適用可能なテクノロジー、開発プロセス、運用方法を適切に理解できるように開発および展開されます。
  • 信頼性のある: 部門のAI機能には明確で明確な用途があり、そのような機能の安全性、セキュリティ、および有効性は、ライフサイクル全体にわたってそれらの定義された用途内でテストおよび保証の対象となります。
  • 統治可能: 部門は、意図しない結果を検出して回避する機能と、意図しない動作を示す展開済みシステムを非アクティブ化または非アクティブ化する機能を備えながら、意図した機能を実行するAI機能を設計および設計します。

また、AI倫理の原則のさまざまな集合的分析についても説明しました。これには、「AI倫理ガイドラインのグローバルランドスケープ」というタイトルの論文(公開の 自然)、そして私の報道はで探求していること ここのリンク、このキーストーンリストにつながった:

  • 透明性
  • 正義と公正
  • 非有害
  • 責任
  • 個人情報保護
  • 善行
  • 自由と自律
  • 信頼
  • 3つの柱
  • 尊厳
  • 連帯

ご想像のとおり、これらの原則の根底にある詳細を特定しようとすると、非常に困難になる可能性があります。 さらに言えば、これらの幅広い原則を完全に具体的で詳細なものに変えて、AIシステムを作成するときに使用できるようにする努力も、難しい問題です。 AI倫理の原則が何であるか、そしてそれらが一般的にどのように守られるべきかについて全体的に手を振るのは簡単ですが、AIコーディングでは、道路に出会う真のゴムでなければならないというより複雑な状況です。

AI倫理の原則は、AI開発者、AI開発の取り組みを管理する開発者、さらにはAIシステムのフィールド化と維持を最終的に実行する開発者によっても利用されます。 開発と使用のAIライフサイクル全体にわたるすべての利害関係者は、倫理的AIの確立された規範に従う範囲内であると見なされます。 通常の想定では、「コーダーのみ」またはAIをプログラムするものは、AI倫理の概念に準拠する必要があるため、これは重要なハイライトです。 先に述べたように、AIを考案してフィールド化するには村が必要であり、村全体がAI倫理の原則に精通し、それを遵守する必要があります。

また、今日のAIの性質について同じページにいることを確認しましょう。

今日、感性のあるAIはありません。 これはありません。 感性AIが可能かどうかはわかりません。 私たちが感性AIを達成するかどうか、また感性AIが何らかの形で奇跡的に自発的に計算認知超新星(通常は特異点と呼ばれる、で私の報道を参照)で発生するかどうかを適切に予測することはできません ここのリンク).

私が焦点を当てているタイプのAIは、現在私たちが持っている無感覚なAIで構成されています。 乱暴に推測したい場合 衆生 AI、この議論は根本的に異なる方向に進む可能性があります。 感性のAIはおそらく人間の品質のものでしょう。 感性AIは人間の認知的同等物であると考える必要があります。 さらに言えば、私たちが超知能AIを持っているかもしれないと推測する人もいるので、そのようなAIは人間よりも賢くなる可能性があると考えられます(可能性としての超知能AIの探求については、を参照してください)。 ここでの報道).

物事をより現実的に保ち、今日の計算上の非感覚的なAIについて考えてみましょう。

今日のAIは、人間の思考と同等の方法で「考える」ことができないことを認識してください。 AlexaやSiriとやり取りするとき、会話能力は人間の能力に似ているように見えるかもしれませんが、現実にはそれは計算であり、人間の認識が欠けています。 AIの最新の時代では、計算パターンマッチングを活用する機械学習(ML)とディープラーニング(DL)が広く利用されています。 これにより、人間のような傾向のように見えるAIシステムが生まれました。 一方、今日、常識に似たAIはなく、人間の強い思考の認知的驚異もありません。

ML / DLは、計算パターンマッチングの形式です。 通常のアプローチは、意思決定タスクに関するデータを収集することです。 データをML/DLコンピューターモデルにフィードします。 これらのモデルは、数学的パターンを見つけようとします。 そのようなパターンを見つけた後、そのように見つかった場合、AIシステムは新しいデータに遭遇したときにそれらのパターンを使用します。 新しいデータが表示されると、「古い」データまたは履歴データに基づくパターンが適用され、現在の決定が行われます。

これがどこに向かっているのか推測できると思います。 意思決定に基づいてパターン化された人間が不利なバイアスを取り入れている場合、データはこれを微妙ではあるが重要な方法で反映している可能性があります。 機械学習またはディープラーニングの計算パターンマッチングは、それに応じてデータを数学的に模倣しようとします。 AIで作成されたモデリング自体には、常識やその他の感覚的な側面の類似点はありません。

さらに、AI開発者も何が起こっているのか理解していない可能性があります。 ML / DLの難解な数学は、現在隠されているバイアスを見つけるのを困難にする可能性があります。 AI開発者が潜在的に埋もれているバイアスをテストすることを当然期待し、期待するでしょうが、これは見た目よりも難しいです。 比較的大規模なテストを行っても、ML/DLのパターンマッチングモデルにバイアスが埋め込まれている可能性は十分にあります。

有名な、または悪名高いガベージインガベージアウトの格言をいくらか使用できます。 重要なのは、これはバイアスに似ているということです。つまり、バイアスがAI内に沈むと、知らぬ間に注入されてしまいます。 AIのアルゴリズムの意思決定(ADM)は、公理的に不平等に満ちています。

良くない。

AIと人間の間の不一致に焦点を当ててみましょう。

私は以前、これらが不一致を解決する戦略のいくつかであることを示しました:

  • AIとチーム化された人間は(友好的かどうかにかかわらず)物事を解決します
  • デフォルトでは、人間がAIに勝っています
  • デフォルトでは、AIは人間よりも優勢です
  • デフォルトでは、他のいくつかの所定の固定解像度が優先されます
  • サードパーティの人間がループインし、その兆候がパーティよりも優先されます
  • サードパーティのAIはループインされており、その表示はパーティよりも優先されます
  • サードパーティの人間が既存の人間に取って代わり、物事は新たに進行します
  • サードパーティのAIが既存のAIに取って代わり、物事は新たに進行します
  • サードパーティの人間が既存のAIに取って代わり、物事は新たに進行します(現在は人間から人間へ)
  • サードパーティのAIが既存の人間に取って代わり、物事は新たに進行します(現在はAIからAIへ)
  • その他

これらを開梱する時が来ました。

まず、これがすべてだと考えてください プロ 意見の相違。

専門家の不一致は、仕事関連のタスクに関連する不一致として大まかに定義されます。

たとえば、嵐に直面しているフライトを続行するかどうかについてパイロットと副操縦士の間で生じる不一致は、専門家の不一致として合理的にラベル付けされる可能性があります。 対照的に、パイロットが提唱するコーヒーのブランドと副操縦士が好むブランドについての激しい意見の不一致は、この特定の状況では専門家以外の意見の不一致として容易に分類されます。

もちろん、非専門家の意見の不一致が専門家の意見の不一致につながる場合、私たちは最終的に、専門家の意見の不一致の推定源または火付け役として非専門家の意見の不一致に関心を持つ可能性があります。 パイロットと副操縦士が、どのブランドのコーヒーが最適かについて激しく議論し、残念ながら、離陸するかどうかなど、フライト固有の懸念事項(しゃれ!)に波及することを想像してみてください。

第二に、専門家の意見の不一致の大きさを覚えておく必要があります。

おそらく、パイロットと副操縦士、または飛行を進めることについての軽度の意見の不一致。 彼らはアカウミガメではなく、離陸するかどうかの賛否両論を考えているだけです。 これは、私たちがここで慣習的に検討している専門家の意見の不一致の口径や大きさではありません。 問題は、専門家の意見の不一致が一時的なものであり、両当事者が心を込めて、または少なくともタイムリーに解決策を検討している可能性があるということです。 一般的に、範囲内の専門家の意見の不一致の焦点は、一見手に負えないものであり、両者は着実に意見の相違を続けています。

第三に、これらのガイドラインが機能するためには、通常、真剣に何かが必要です。

嵐のために飛行が危険にさらされている場合、または飛行機がそのような旅の準備が整っていないと見なされる場合、飛行するかしないかを選択することは、明らかに生死にかかわる種類の決定です。 これは深刻なビジネスです。 影響の少ない専門家の意見の不一致にもガイドラインを適用できますが、それは価値があるよりも面倒かもしれません。

さて、私たちの考慮事項は次のとおりです。

  • 意見の不一致は、専門家ではないものではなく、主に専門家を対象としています。
  • 意見の不一致は持続的な性質のものであり、単なる一時的なものではなく、さもなければ容易に解決されるものでもありません。
  • 意見の不一致は深刻な結果を予見し、通常は影響力のある結果になります
  • パーティーはアカウミガメにいて、手に負えないようです

ここで、そのような専門家の意見の不一致に対処する方法に関して、私の提案されたガイドラインまたはアプローチのそれぞれを詳しく見てみましょう。

AIとチーム化された人間は(友好的かどうかにかかわらず)物事を解決します

私は、AIとヒューマン・イン・ザ・ループが専門家の意見の不一致を解決できるという単純な可能性からリストを始めます。 おそらく、パイロットと副操縦士のXNUMX人の実例が、この種の状況を示しているようです。 彼らはどういうわけかターミナルに戻って別々の道を進むことを決心しました。 AIシステムと人間は、両者にとって一般的に満足のいく解決アプローチを理解することができ、問題は十分に結論付けられている可能性があります。

デフォルトでは、人間がAIに勝っています

AIを設定するときに、専門家の意見の不一致が生じた場合は常にヒューマンインザループが優先されるというルールをプログラムする場合があります。 これは、明示的にコード化されたデフォルトになります。 万が一の場合に備えて、何らかの形のオーバーライドを許可することもできますが、常識的なルールは人間が優勢であるということです。

デフォルトでは、AIは人間よりも優勢です

AIを設定するときに、専門家の意見の不一致が生じた場合は常にAIがヒューマンインザループよりも優先されるというルールをプログラムする場合があります。 これは明示的にコーディングされたデフォルトです。 念のため、何らかの形のオーバーライドを許可することもできますが、AIが優先されるという常識的なルールがあります。

デフォルトでは、他のいくつかの所定の固定解像度が優先されます

AIを設定するときに、ヒューマン・イン・ザ・ループで専門家の意見の不一致が生じた場合は常に、他の所定の固定解像度が優先されるというルールをプログラムする場合があります。 ヒューマンインザループはデフォルトでは優先されません。 AIはデフォルトでは優先されません。 他にもいくつかの事前に特定された解決策があります。 たとえば、おそらく、XNUMXつの当事者のどちらが正しい道と見なされるかを決定するために使用されるコインを投げることがあります。 それは明らかにかなり恣意的に見えるでしょう。 したがって、別のアプローチ例は、XNUMXつのパーティからの入力に基づいて値を計算し、タイブレーカーとして結果に到達する特殊なルールが開始されることです。

サードパーティの人間がループインし、その兆候がパーティよりも優先されます

専門家の意見の不一致がある場合、人間である第三者が呼び出され、設定にループして、不一致の解決について決定を下すという規則が考えられます。 AIは、サードパーティの人間が決定するものは何でも延期するようにプログラムされています。 すでにヒューマン・イン・ザ・ループにいる人間は、そのような状況が発生した場合、彼らも第三者の人間に任せるように事前に指示されています。 余談ですが、ヒューマン・イン・ザ・ループの姿勢がヒューマン・イン・ザ・ループの姿勢と一致しない場合、サードパーティの人間が決定したものに同意することに不安を感じる可能性があります。

サードパーティのAIはループインされており、その表示はパーティよりも優先されます

専門家の意見の不一致がある場合、異なるAIシステムであるサードパーティが呼び出され、設定にループして、不一致の解決について決定を下すというルールが考えられます。 元のAIは、サードパーティのAIが決定したものに従うようにプログラムされています。 すでにヒューマンインザループにいる人間は、そのような状況が発生した場合、彼らもサードパーティのAIに任せるように事前に指示されています。 余談ですが、ヒューマン・イン・ザ・ループの姿勢と一致しない場合は、サードパーティのAIが決定したものに、ヒューマン・イン・ザ・ループが同意することに不安を感じる可能性があります。

サードパーティの人間が既存の人間に取って代わり、物事は新たに進行します

専門家の意見の不一致により、ヒューマンインザループは、人間であり、今後はヒューマンインザループとなるサードパーティに置き換えられます。 タスクの元のヒューマンインザループであった人間は、現在のタスクの一部とは見なされなくなりました。 これは、現在置き換えられているヒューマン・イン・ザ・ループで他の方法で何が発生するかについてはオープンな側面ですが、確かに、彼らはもはや作業タスクで継続的な役割を果たしていないと言っています。

サードパーティのAIが既存のAIに取って代わり、物事は新たに進行します

専門家の意見の不一致により、AIはサードパーティのAIに置き換えられ、それ以降、手元の作業タスクに使用されるAIになります。 もともとタスクに使用されていたAIは、現在のタスクの一部とは見なされなくなりました。 これは、現在置き換えられているAIで何が発生するかについてはオープンな側面ですが、確かにAIは作業タスクで継続的な役割を果たしていないと言っています。

サードパーティの人間が既存のAIに取って代わり、物事は新たに進行します(現在は人間から人間へ)

専門家の意見の不一致により、AIはサードパーティの人間に置き換えられ、その人間は現在、目前の作業タスクに使用される共同チームと見なされるパーティになります。 もともとタスクに使用されていたAIは、現在のタスクの一部とは見なされなくなりました。 これは、現在置き換えられているAIで何が発生するかについてはオープンな側面ですが、確かにAIは作業タスクで継続的な役割を果たしていないと言っています。 つまり、これはXNUMX者間で実行されるタスクになります。

サードパーティのAIが既存の人間に取って代わり、物事は新たに進行します(現在はAIからAIへ)

専門家の意見の不一致により、ヒューマンインザループはサードパーティのAIに置き換えられ、このAIは、これ以降、先行するヒューマンインザループのフィルインになります。 タスクの元のヒューマンインザループであった人間は、現在のタスクの一部とは見なされなくなりました。 これは、現在置き換えられているヒューマン・イン・ザ・ループで他の方法で何が発生するかについてはオープンな側面ですが、確かに、彼らはもはや作業タスクで継続的な役割を果たしていないと言っています。 つまり、これはタスクを実行するためのXNUMX者間AI-to-AIになります。

その他

専門家の意見の不一致に対処するために他のバリエーションを考案することもできますが、ここではいくつかの重要な要素について説明しました。

これらのアプローチのどれが特定の状況に適しているかをどのように決定するのでしょうか。

このような選択を行うには、さまざまな問題が発生します。 技術的な考慮事項があります。 ビジネス上の考慮事項があります。 法的および倫理的な考慮事項があります。

ある程度、それがAI倫理と倫理的AIが非常に重要なトピックである理由です。 AI倫理の教訓により、私たちは警戒を怠らないようになります。 AI技術者は、テクノロジー、特にハイテクの最適化に夢中になっていることがあります。 彼らは必ずしもより大きな社会的影響を考慮しているわけではありません。 AI倫理の考え方を持ち、AIの開発とフィールド化に統合的にそれを行うことは、AI倫理が企業にどのように採用されるかを評価することを含め、適切なAIを作成するために不可欠です。

一般にAI倫理の原則を採用することに加えて、AIのさまざまな使用を管理する法律を設ける必要があるかどうかという対応する質問があります。 AIの考案方法の範囲と性質に関係する新しい法律が、連邦、州、地方のレベルで広まっています。 そのような法律を起草して制定する努力は段階的なものです。 AI倫理は、少なくとも、考慮された一時的なギャップとして機能し、ほぼ確実に、ある程度、これらの新しい法律に直接組み込まれます。

AIをカバーする新しい法律は必要なく、既存の法律で十分であると断固として主張する人もいることに注意してください。 実際、彼らは、私たちがこれらのAI法のいくつかを制定すれば、莫大な社会的利点をもたらすAIの進歩を抑制して、金のガチョウを殺すことになるだろうと警告しています。

この重要な議論のこの時点で、あなたはこのトピックを紹介するかもしれないいくつかの実例を望んでいるに違いありません。 私の心に近い特別で確実に人気のある例のセットがあります。 倫理的および法的な影響を含むAIの専門家としての私の立場では、トピックのやや理論的な性質をより簡単に把握できるように、AI倫理のジレンマを示す現実的な例を特定するように頻繁に求められます。 この倫理的なAIの難問を鮮明に表現する最も刺激的な分野のXNUMXつは、AIベースの真の自動運転車の登場です。 これは、このトピックに関する十分な議論のための便利なユースケースまたは模範として役立ちます。

次に、検討する価値のある注目すべき質問を示します。 AIベースの真の自動運転車の出現は、AIと人間の不一致の解決について何かを明らかにしますか?もしそうなら、これは何を示していますか?

質問を解くために少し待ってください。

まず、真の自動運転車には人間のドライバーが関与していないことに注意してください。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手が運転する必要はなく、人間が車両を運転するための設備もありません。 Autonomous Vehicles(AV)、特に自動運転車に関する広範囲にわたる継続的な報道については、を参照してください。 ここのリンク.

真の自動運転車とはどういう意味かをさらに明確にしたいと思います。

自動運転車のレベルを理解する

明確にするために、真の自動運転車とは、AIが完全に自力で車を運転し、運転タスク中に人間の支援がない車のことです。

これらの自動運転車はレベル4およびレベル5と見なされます(私の説明を参照してください) ここでは、このリンク)、一方、人間の運転手が運転努力を共有する必要がある車は、通常、レベル2またはレベル3と見なされます。運転タスクを共有する車は、半自律的であると説明され、通常、さまざまなADAS(先進運転支援システム)と呼ばれる自動化されたアドオン。

レベル5にはまだ真の自動運転車はなく、これを達成できるかどうか、またそこに到達するまでにどれくらいの時間がかかるかはまだわかりません。

一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路や小道で行われている、いくつかの主張、で私の報道を参照してください ここでは、このリンク).

半自律型の車には人間のドライバーが必要であるため、これらのタイプの車の採用は、従来の車の運転とそれほど変わりません。そのため、このトピックについてそれ自体をカバーすること自体はそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。

半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。

レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。

自動運転車とAI-対人間の不一致

レベル4とレベル5の真の自動運転車両の場合、運転タスクに人間のドライバーは関与しません。

乗客はすべて乗客となります。

AIが運転を行っています。

すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。

AIが知覚力を持たないことを強調しているのはなぜですか?

AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。

その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。

このトピックで遊びに来る無数の側面に飛び込みましょう。

まず、すべてのAI自動運転車が同じであるとは限らないことを認識することが重要です。 各自動車メーカーと自動運転技術会社は、自動運転車を考案するためのアプローチを取っています。 そのため、AI駆動システムが何をするか、何をしないかについて、大胆な発言をすることは困難です。

さらに、AI駆動システムが特定のことを行わないと述べるときはいつでも、これは後で、実際にそのことを行うようにコンピューターをプログラムする開発者によって追い抜かれる可能性があります。 AI駆動システムは段階的に改善され、拡張されています。 現在の既存の制限は、システムの将来のイテレーションまたはバージョンでは存在しなくなる可能性があります。

それが、私がこれから関わろうとしていることの根底にある十分な警告を提供することを願っています。

完全自動運転車の場合、最初からヒューマン・イン・ザ・ループが存在しない可能性があるため、人間とAIの間に専門家の意見の不一致が生じる可能性はありません。 今日の自動運転車メーカーの多くの願望は、人間のドライバーを運転タスクから完全に排除することです。 車両には、人間がアクセスできる運転制御さえ含まれていません。 その場合、人間の運転手は、存在する場合、運転制御へのアクセスがないため、運転タスクに参加できません。

一部の完全自動運転車の場合、一部の設計では、人間がループ内にいることができますが、人間が利用可能である必要はなく、運転プロセスに参加する必要もありません。 したがって、人がそうすることを望むならば、人間は運転に参加することができる。 ただし、AIは、運転タスクの実行を人間に依存しているわけではありません。

半自動運転車の場合、人間のドライバーとAIの間には密接な関係があります。 人間のドライバーは運転制御を完全に引き継ぐことができ、本質的にAIが運転に参加するのを防ぐことができます。 人間の運転手がAIを運転の役割に戻すことを望む場合、彼らはそうすることができますが、これは時々人間に運転制御を放棄することを強制します。

半自律的な操作の別の形式では、人間のドライバーとAIがチームを組んで連携する必要があります。 AIが運転していて、人間が運転しています。 彼らは一緒に運転しています。 AIは人間に任せるかもしれません。 人間はAIに従うかもしれません。

ある時点で、AI駆動システムとループ内の人間のドライバーは、目前の運転タスクに関して「専門家の意見の不一致」の分岐点に達する可能性があります。

専門家の意見の不一致に対処する前述のルールのいくつかを実装するのがいかに難しいかを説明するために、サードパーティの人間を呼び出して問題を解決し、未解決の問題を解決する決定を下す例を考えてみましょう。

自動車メーカーまたは自動運転技術会社が、遠隔地の人間のオペレーターがフリート内の車両の運転制御にアクセスできるように手配したとします。 人間のオペレーターは、遠く離れたオフィスまたは同様の環境に座っています。 自動運転車に搭載されたカメラやその他のセンサーデバイスにアクセスすることで、コンピューターシステムを介して運転シーンを見ることができます。 彼らにとって、これはオンラインビデオゲームをプレイするのとほとんど同じですが、もちろん、実際の状況は潜在的に悲惨な結果をもたらします。

AIシステムと車内の人間の運転手が、長い高速道路を半自動運転車で運転しています。 突然、AIは溝に舵を切りたいと思っています。 人間の運転手はこれをしたくありません。 二人は運転制御をめちゃくちゃにしています。

これはどのように解決されますか?

人間が常に勝つことを事前に確立することもできたでしょう。 しかし、そうしないことを選択したと仮定します。

AIが常に勝つことを事前に確立することもできました。 そうしないことを選択したと仮定します。 全体として、私たちは、第三者の人間が介入し、実質的な性質の専門家の意見の不一致を解決することを許可することを決定したことを除いて、これらの規則のいずれも採用しませんでした。

このユースケースでは、AIとハンドルを握っている人間のドライバーが運転制御のために戦っています。 これは、リモートの人間のオペレーター(サードパーティの人間)に伝えられたとしましょう。 リモートの人間のオペレーターは、何が起こっているのかを調べ、AIがやろうとしていたことを回避しているように見えて、溝から離れるように操縦することを決定します。 同時に、リモートの人間のオペレーターが対向車に誘導するとします。これはおそらくAIも車内の人間のドライバーも望んでいなかったものです。

重要なのは、このルールが実装されている方法は、サードパーティの人間のオペレーターがAIとヒューマンインザループの両方を完全にオーバーライドできるということです。 これが良い結果を生むかどうかは確かではありません。

この例を使用して、これらの問題に関するいくつかの追加の洞察を強調します。

これらの規則のXNUMXつが実施されたからといって、解決された不一致の結果が必ずしも良い結果であるとは限らないという勇敢な仮定を立てることはできません。 そうではないかもしれません。 選択できる鉄壁の常に正しい種類のルールはありません。

次に、これらのルールのいくつかは実行可能に実装できない可能性があります。

AIと人間のドライバーが運転制御を乱闘しているときに、リモートの人間のオペレーターが介入する例を考えてみましょう。 リモートの人間のオペレーターが何が起こっているのかを理解するのに何秒もかかるかもしれません。 その時までに、車両はすでに溝に落ちているか、他の何らかの不利な結果をもたらしている可能性があります。 また、車両の場所によって、ネットワークの電子接続がない場所にいるなどのリモートアクセスが不可能であるとします。 または、車両のネットワーク機能がその特定の瞬間に機能していない可能性があります。

ご覧のとおり、ルールは紙の上ではダンディに見えるかもしれませんが、ルールを実際に使用することは非常に難しいか、非常に偶然のアプローチかもしれません。 自動運転車と自動運転車のリモートオペレーターに関する私の批判的な報道をご覧ください。 ここのリンク.

今後の分析でさらに詳しく取り上げる、もうXNUMXつの関連トピックについて簡単に説明したいと思います。

半自律型の自動運転車や自動運転車に関する懸念が高まっているのは、いわゆる自動運転車です。 ホットポテト症候群.

ここでは取引があります。

AI駆動システムと人間がコ・ドライブしています。 悲惨な苦境が発生します。 AIは、運転タスクから脱落し、悲惨な瞬間が発生したときに物事を人間に引き渡すようにプログラムされています。 これは、潜在的な専門家の意見の不一致において、人間がデフォルトの「勝者」であるという規則を呼び出しているように見えるという点で、おそらく「賢明」に思えます。

しかし、AIの脱落は、より悪質な目的であるか、陰湿な目的であると見なされる可能性があります。 自動車メーカーや自動運転技術会社は、自動車事故が発生したときにAIが「過失当事者」と見なされることを望んでいない可能性があります。 そのように固定されるのを避けるために、AIは突然コントロールを人間に渡します。 出来上がり、人間はおそらく完全に車両に責任があります。

キッカーは、AIがこのハンドオフを実行し、クラッシュが発生する前に残りXNUMX秒としましょう。

人間は本当にクラッシュを回避するために利用可能な時間があるでしょうか?

おそらくそうではありません。

AIが残り数ミリ秒またはナノ秒でハンドオフを実行するとします。 私はあえて、人間が墜落を回避するために何かをする可能性は本質的にゼロだと言います。

自動車メーカーや自動運転車会社の観点からは、このような自動車事故が発生したときに、手がきれいであるかのように振る舞うことができます。 車は人間によって運転されていました。 AIは車を運転していませんでした。 唯一の「論理的な」結論は、人間は過失であり、AIは完全に非難されていなければならないということのように思われます。

それはクロックです。

これについては、次のコラムでさらに詳しく説明します。

まとめ

専門家の意見の不一致が発生します。

XNUMXつの当事者がタスクを共同で実行し、専門家の意見の不一致が発生することは決してないような複雑なタスクを想像するのは困難です。 これはファンタジーランドか、少なくとも壮大な希少性のようです。

今日、私たちは専門家の意見の不一致の多くの人から人への事例を持っており、そのための解決策は日常的に平和的かつ賢明に何らかの方法で理解されています。 実際、私たちはしばしば、専門家の意見の不一致を助長し、表面化するために意図的に状況を設定します。 これは、XNUMXつの頭がXNUMXつよりも優れていることがあるという有名な知恵を示していると主張するかもしれません。

AIが普及するにつれ、AIから人間へ、または人間からAIへのXNUMX者間タスクパフォ​​ーマーが多数存在するようになります。 専門家の意見の不一致 それが発生します。 怠惰なアプローチは、常に人間に従うことです。 これは最適なアプローチではないかもしれません。 AIがより良い選択かもしれません。 または、前述の他のルールのXNUMXつは、より適切なアプローチである可能性があります。

賢明な言い回しが繰り返され、私たち全員が一般的に同意できないことに同意できるはずですが、それが問題になると、不一致を明確に解決しなければならない場合があります。そうしないと、目前の問題が計り知れない災難につながります。 ぶどうの木で意見の不一致を和らげることはできません。 時間は重要であり、生命は危機に瀕しているかもしれません。

AIとヒューマン・イン・ザ・ループが目と目、またはバイトとバイトを認識していない場合など、必ずしも同意できるとは限らない場合でも、不一致を解決するための慎重な手段には明確な要件があります。

私はあなたがその完全に賛成の論争に反対しないと信じています。

出典:https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- the-pilot-and-co-pilot-disagreed-preor-to-takeing-off-and-突然-opted-to-taxi-back-to-the-terminal-and-go-their-separate-ways/