ジェネレーティブ AI ChatGPT へのアクセスを禁止している学校は、針を動かすつもりはなく、船に乗り遅れている、と AI 倫理と AI 法は述べています

禁止するか禁止しないか、それが問題だ。

シェイクスピアが現代にいたとしたら、彼は最近の AI の使用を禁止する取り組みについて、そのようなことを言ったかもしれません。 生成AI、ChatGPT と呼ばれる AI アプリにより、特に例証され普及しています。

ここでは取引があります。

一部の著名なエンティティは、ChatGPT の使用を禁止しようとしています。

たとえば、ニューヨーク市 (NYC) の教育省は最近、さまざまなネットワークと接続されたデバイスで ChatGPT へのアクセスをブロックすることを進めていると発表しました。 報告された禁止の根拠は、この AI アプリとジェネレーティブ AI の全体的な使用が、学生の学習に悪影響を与える可能性があることを示すものでした。 ChatGPT を使用することを選択した学生は、重要な批判的思考スキルの開発を妨げ、問題解決能力の成長を損なっていると言われています。

これらの非常に気になる懸念に加えて、そのような AI がエラーやその他の事実上の問題を含む不正確な出力を生成する可能性があるという議論の余地のない事実があります。 それは良くないね。 ケーキの危険なアイシングは、無意識のうちに上記の虚偽に依存している学生によって、出力が安全でない方法で使用される可能性があるという想像上の可能性です。 私が見たような文書化された害はまだ表面化していないので、これが起こる可能性があることを額面通りに受け止める必要があります (私は投稿でさまざまな可能性について議論しました。たとえば、生成 AI がエッセイは、服用すべきではない薬を服用するよう誰かに伝えたり、人間のメンタルヘルスの専門家によって提供されるべきメンタルヘルスのアドバイスを提供したりする可能性があります.

今日のコラムでは、最近制定された禁止令の性質を調べ、それらが理にかなっているのかどうかを確認します。 考慮すべき質問がたくさんあります。 そのような禁止は何の役にも立ちませんか。 これらの禁止は強制力がありますか? そのような禁止がさらに発生した場合、私たちは人類を助けることになりますか、それともうっかりして自分の足を撃ちますか?

ご想像のとおり、これは表面に見えるほどカットされて乾燥したものではありません.

これらすべてに、多数の AI 倫理と AI 法の考慮事項が含まれます。 AI アプリの開発と運用に倫理的な AI の原則を浸透させるための継続的な取り組みがあることに注意してください。 関心を持っていたかつての AI 倫理学者の増加する部隊は、AI を考案して採用する取り組みが、実行の観点を考慮に入れることを確実にしようとしています。 AI For Good と回避 悪い人のためのAI. 同様に、AI の取り組みが人権などで暴走するのを防ぐための潜在的な解決策として、新しい AI 法が提案されています。 AI 倫理と AI 法に関する私の継続的かつ広範な報道については、以下を参照してください。 ここのリンク & ここのリンクちょうど少数の名前を挙げる。

一部の種類の AI を禁止するという考えは、新しい概念ではありません。

私のコラムの XNUMX つで、自律型兵器システムへの AI の使用に関連する禁止案を詳細に分析しました。 ここのリンク. AIを搭載した兵器開発は各国で行われています。 それはことわざのように、発射して忘れる種類の武器です。 武器を解き放つだけで、そこから先は AI が引き継いでくれます。 願わくば、AI が兵器を適切な目的地に誘導し、適切に起爆または配送します。 プロセスは人間が反応するよりも速く発生する可能性があるため、ループ内の人間によるオーバーライドはほとんどありません。または、敵がシステムをハッキングして武器がそのビジネスを行うのを妨げる可能性は、他のことを防ぐことによって減少または削減されます。 AIが兵器を運転するよりも。

明らかに、これは AI が生死に関わる結果を伴う例です。 このような悲惨な AI の影響について熟考すべきだと説得力を持って主張するかもしれません。 AI を自律型兵器の具体的な形にする前に、すべての石をひっくり返すのが賢明です。 多くの命がかかっています。

ChatGPT を含む生成ベースの AI の使用にも、同じ予感と厳粛さが適用されますか?

このタイプの AI が、致命的なミサイルやその他の弾薬を誘導する他のタイプの AI と同じレベルにあるとは言い難いでしょう。 そうは言っても、生死がかかっていなくても、ジェネレーティブベースの AI がもたらす悪影響を十分に検討できないわけではありません。 賭け金は同じではないかもしれませんが、ジェネレーティブベースの AI について真の関心を持つことにはメリットがあります。

私はさまざまな AI 関連の禁止を次の範囲に階層化する傾向があります。

  • 絶対禁止
  • 部分禁止
  • 弱い禁止
  • 禁止禁止

コインの反対側にもあります。つまり、次のスペクトルで表されるように、AI を有効化またはサポートしようとしています。

  • 謝辞
  • 軽度の受容
  • 完全受け入れ
  • 必須要件

ChatGPT の使用を禁止するための最近の取り組みを検討する際に、さまざまな範囲の禁止と受け入れ期間を考慮すると便利です。

まず、ジェネレーティブ AI の構成要素と ChatGPT の概要について、全員が同じページにいることを確認しましょう。 その基本的な側面をカバーしたら、ChatGPT の禁止が実りあるものになるかどうかについて説得力のある評価を行うことができます。

Generative AI と ChatGPT についての簡単な入門書

ChatGPT は、汎用の AI 対話型会話指向システムであり、本質的には無害な一般的なチャットボットに見えますが、後で詳しく説明するように、多くの人が完全に不意を突くような方法で積極的かつ熱心に使用されています。 この AI アプリは、よく呼ばれる AI 領域の技術とテクノロジーを活用しています。 生成AI. AI はテキストなどの出力を生成しますが、これは ChatGPT が行うことです。 写真やアートワークなどの画像を生成するジェネレーティブ ベースの AI アプリもあれば、オーディオ ファイルやビデオを生成するものもあります。

ChatGPT が行っていることなので、このディスカッションではテキストベースの生成 AI アプリに焦点を当てます。

ジェネレーティブ AI アプリは非常に使いやすいです。

プロンプトを入力するだけで、AI アプリがプロンプトに応答しようとするエッセイを生成します。 構成されたテキストは、エッセイが人間の手と心によって書かれたかのように見えます。 「エイブラハム リンカーンについて教えてください」というプロンプトを入力すると、生成 AI がリンカーンに関するエッセイを提供します。 これは一般的に、以下を実行するジェネレーティブ AI として分類されます。 テキストからテキストへ または、それを呼び出すことを好む人もいます テキストからエッセイへ 出力。 前述のように、テキストからアート、テキストからビデオなど、ジェネレーティブ AI の他のモードがあります。

あなたの最初の考えは、この生成能力は、エッセイを作成するという点ではそれほど大したことではないように思えるかもしれません. インターネットで簡単にオンライン検索を行い、リンカーン大統領に関する膨大な量のエッセイを簡単に見つけることができます。 ジェネレーティブ AI の場合のキッカーは、生成されたエッセイが比較的ユニークであり、模倣ではなく独自の構成を提供することです。 AI が作成したエッセイをオンラインでどこかで見つけようとしても、それを見つけることはまずありません。

ジェネレーティブ AI は事前にトレーニングされており、ウェブ全体で書かれた言葉や物語のパターンを調べることによって設定された複雑な数学的および計算式を利用します。 何千、何百万もの文章を調べた結果、AI は見つかったものの寄せ集めである新しいエッセイやストーリーを吐き出すことができます。 さまざまな確率的機能を追加することにより、結果として得られるテキストは、トレーニング セットで使用されたものと比較して非常にユニークです。

そのため、学生が教室の外でエッセイを書くときにカンニングできるという騒動が起こっています。 教師は、欺瞞的な生徒が自分の書いたものだと主張するエッセイを単に取り上げて、それが他のオンライン ソースからコピーされたものかどうかを調べようとすることはできません。 全体として、AI によって生成されたエッセイに適合する決定的な既存のエッセイはオンラインに存在しません。 結局、教師は生徒がエッセイをオリジナルの作品として書いたことをしぶしぶ受け入れなければならないでしょう。

ジェネレーティブ AI に関する追加の懸念事項があります。

重大な欠点の XNUMX つは、ジェネレーティブ ベースの AI アプリによって作成されたエッセイには、明らかに事実と異なる事実、誤解を招くように描写された事実、完全に捏造された明らかな事実など、さまざまな虚偽が埋め込まれている可能性があることです。 これらの捏造された側面は、しばしば AIの幻覚、私が嫌いなキャッチフレーズですが、残念なことに、とにかく人気が高まっているようです(なぜこれがお粗末で不適切な用語であるかについての私の詳細な説明については、次の記事を参照してください ここのリンク).

このトピックの詳細に入る前に、XNUMX つの重要な側面を明確にしたいと思います。

ソーシャル メディアでは、 生成AI この最新バージョンの AI が実際にあると主張する 知覚力のある AI (いいえ、彼らは間違っています!)。 AI 倫理と AI 法に携わる人々は、主張の幅が広がる傾向が急速に高まっていることを特に懸念しています。 今日の AI が実際にできることを誇張している人がいると、丁寧に言うかもしれません。 彼らは、AI には私たちがまだ達成できていない機能があると想定しています。 それは残念です。 さらに悪いことに、AI は感覚を持っている、または人間のように行動できると思い込んでいるため、自分自身や他の人が悲惨な状況に陥る可能性があります。

AI を擬人化しないでください。

そうすることで、AI が実行できないことを AI が実行することを期待するという、厄介で不機嫌な依存の罠にはまります。 そうは言っても、最新のジェネレーティブ AI は、それができることに関して比較的印象的です。 ただし、ジェネレーティブ AI アプリを使用する際には、常に留意しなければならない重大な制限があることに注意してください。

ChatGPT とジェネレーティブ AI に関する急速に拡大している騒ぎに興味があるなら、参考になるかもしれない私のコラムで焦点を絞ったシリーズを行ってきました。 これらのトピックのいずれかがあなたの気になった場合に備えて、ここで一目でわかります:

  • 1) ジェネレーティブ AI の進歩の予測。 ジェネレーティブ AI と ChatGPT の今後の進歩を含め、2023 年以降に AI について何が展開される可能性があるかを知りたい場合は、2023 年の予測の包括的なリストを参照してください。 ここのリンク.
  • 2) ジェネレーティブ AI とメンタルヘルスのアドバイス。 私はジェネレーティブ AI と ChatGPT がメンタルヘルスのアドバイスにどのように使用されているかを確認することにしました。 ここのリンク.
  • 3) コンテキストとジェネレーティブ AI の使用。 また、ChatGPT とジェネレーティブ AI を含むサンタ関連のコンテキストについて、季節に合わせた皮肉な調査も行いました。 ここのリンク.
  • 4) ジェネレーティブ AI を使用する詐欺師. 不吉なことに、一部の詐欺師は生成 AI と ChatGPT を使用して、詐欺メールの生成やマルウェアのプログラミング コードの作成などの不正行為を行う方法を見つけました。 ここのリンク.
  • 5) ジェネレーティブ AI を使用した初歩的なミス. 多くの人々は、ジェネレーティブ AI と ChatGPT ができることをオーバーシュートしており、驚くほどアンダーシュートしています。 ここのリンク.
  • 6) ジェネレーティブ AI プロンプトと AI 幻覚に対処する. AI アドオンを使用して、生成 AI に適切なプロンプトを入力しようとすることに関連するさまざまな問題に対処するための最先端のアプローチについて説明します。また、いわゆる AI の幻覚出力や虚偽を検出するための追加の AI アドオンもあります。でカバー ここのリンク.
  • 7) ジェネレーティブ AI によって生成されたエッセイの検出に関する Bonehead の主張を暴く. 任意のエッセイが人間によって作成されたものか、AI によって生成されたものかを確認できると宣言する AI アプリの誤ったゴールド ラッシュがあります。 全体として、これは誤解を招くものであり、場合によっては骨の折れる支持できない主張です。 ここのリンク.
  • 8) ジェネレーティブ AI によるロールプレイングは、メンタルヘルスの欠点の前兆となる可能性がある. ChatGPT などのジェネレーティブ AI を使用してロールプレイングを行うものもあり、AI アプリはファンタジーの世界やその他の架空の世界に存在するかのように人間に反応します。 これはメンタルヘルスに影響を与える可能性があります。 ここのリンク.
  • 9) 出力されたエラーと虚偽の範囲を明らかにする。 ChatGPT によって生成されたエラーと虚偽の性質を紹介するために、さまざまな収集リストがまとめられています。 これが不可欠であると信じている人もいれば、この演習は無駄だと言う人もいます。 ここのリンク.

ChatGPT が、GPT-3 として知られる前身の AI アプリのバージョンに基づいていることに興味があるかもしれません。 ChatGPT は、GPT-3.5 と呼ばれる少し次のステップと見なされます。 GPT-4 は 2023 年の春にリリースされる可能性が高いと予想されます。おそらく、GPT-4 は、一見より流暢なエッセイを作成できるようになり、より深くなり、畏敬の念を抱くようになるという点で、印象的な前進になるでしょう。 -それが作り出すことができる構成に関して感動的な驚異。

春が訪れ、最新のジェネレーティブ AI がリリースされると、新たな驚きの表現が見られることを期待できます。

私がこれを持ち出すのは、これらのより優れた、より大きなジェネレーティブ AI アプリの潜在的なアキレス腱からなる、心に留めておくべき別の角度があるからです。 AI ベンダーが汚物を泡状に吐き出すジェネレーティブ AI アプリを利用可能にすると、AI メーカーの希望が打ち砕かれる可能性があります。 社会的なスピルオーバーは、すべての生成 AI に深刻な問題を引き起こす可能性があります。 人々は間違いなく、不正な出力にかなり動揺するでしょう。これはすでに何度も起こっており、AI に対する激しい社会的非難の反発につながっています。

とりあえず最後の予告。

ジェネレーティブ AI の応答で見たり読んだりしたものは何でも、 と思われる 純粋に事実 (日付、場所、人物など) として伝えられるようにするには、懐疑的な姿勢を保ち、目にしたものを再確認してください。

はい、日付をでっち上げたり、場所をでっち上げたりすることができます。 疑惑の対象。 生成 AI のエッセイや出力を調べるときは、読んだ内容を信じず、懐疑的な目を向けてください。 ジェネレーティブ AI アプリが、エイブラハム リンカーンが自分のプライベート ジェットで国中を飛び回ったと伝えたら、これは間違いなく悪意があるとわかるでしょう。 残念なことに、彼の時代にジェット機が存在しなかったことを認識していない人もいれば、エッセイがこの厚かましくとんでもない虚偽の主張をしていることを知っていても気付かない人もいるかもしれません。

ジェネレーティブ AI を使用する際には、健全な懐疑心と不信感を持ち続ける姿勢が最大の武器となります。

この解明の次の段階に進む準備ができています。

禁止があまり禁止されなくなったとき

基礎が確立されたので、ChatGPT を禁止する問題に飛び込むことができます。 私たちは、実際の現実から始めます。

ニューヨーク市教育省の場合、内部ネットワークと接続されたデバイスで ChatGPT へのアクセスをブロックしたようです。

明らかな抜け穴は、学生がスマートフォンや他のオンライン プロバイダーを介して別の Wi-Fi ネットワークを使用し、キャンパスの電子ネットワークで発生しているブロックを簡単に回避できる可能性があることです。 何らかの理由で ChatGPT を使用することを決定した教室に座っている学生を想像してみてください。 スマートフォンの設定に移動し、キャンパス提供のインスタンス以外の Wi-Fi ネットワークを選択できます。 ほら、学生は机に座って、おそらく学校関連の仕事をしているときにChatGPTを使用できます.

禁止は影を潜めた。

一部の人が言及したもうXNUMXつの懸念は、自宅にいる間はキャンパスネットワークを使用しないため、自宅にいる学生は明らかにChatGPTを好きなだけ使用できるということです. この禁止が行っているように見えるのは、キャンパス内またはキャンパスが提供するネットワークを直接使用するときの使用を削減しようとすることだけです (リモート アクセス経由の可能性もあります)。

さらに悪いことに、自宅でインターネットにアクセスする余裕がない学生は、他のより裕福な学生が利用できるものを (ある意味で) 拒否されているという嘆きもあります。 影響を受けた生徒は、学校で ChatGPT を使用できたはずですが、そうすることが許可されていません。 おそらく、これは学生を持てる者と持たざる者に分けているのかもしれません。

不注意による悪影響を伴う政策であると示唆する人もいるかもしれません。

この試みられた禁止の薄く支持された背中にもっと積み上げることができます.

ChatGPT だけが町のゲームではありません。 他にも多数のジェネレーティブ AI アプリがあります。 禁止がChatGPTアプリのスキャンのみに基づいている場合、他のすべてのジェネレーティブAIアプリは明らかに自由にローミングできます. 学生はキャンパス ネットワークを使用して、別のジェネレーティブ AI アプリを選択することができます。 概して、他のそのような AI アプリは同等であり、ChatGPT とほぼ同じことを行います。

このラクダが崩壊するかどうかを確認するために、さらにいくつかのストローを追加します。ChatGPT の AI メーカーは、API (アプリケーション プログラミング インターフェイス) が AI アプリですぐに利用できるようになることを示しています。 簡単に言えば、API は、他のプログラムが先に進み、特定のアプリケーションへのポータルを利用できるようにするプログラムを使用できるようにする手段です。 これは、この地球上のほぼすべてのプログラムが ChatGPT の使用を潜在的に活用できることを意味します (ChatGPT の AI メーカーによるライセンスおよび承認があれば)。

ある企業が、学生が時間管理を行うのに役立つ教育アプリを作成するとします。 素晴らしい、おそらくほとんどの学区で予告されています。 教育アプリの作成者は、ChatGPT API を使用することを決定し、アプリ内でジェネレーティブ エッセイ機能を提供します。 ご覧のとおり、彼らの教育アプリは学生が見るものであり、その間、アプリはバックグラウンドで ChatGPT を呼び出してプロンプトを渡し、生成されたエッセイを収集し、それらを学生に表示します。

ChatGPT アプリをスキャンしているだけの学区は、教育アプリのバックエンドで ChatGPT が使用されていることを認識または発見する可能性はほとんどありません。 ChatGPT は非表示になっていると言えます。 教育アプリが ChatGPT を呼び出していることを知っている学生は、簡単に教育アプリを起動して、禁止を覆すでしょう。 簡単です。

この特定の禁止がやや不安定な理由については、おそらくこれで十分だと思います.

少し待ってください。ChatGPT が学生にとって悪いものである場合、その使用を禁止する努力は賞賛に値するものであり、これらのポリシーを称賛する必要があります。 キャンパス内であろうとキャンパス外であろうと、禁止を覆すことを選択した学生は、学生の学習に悪影響を与えるものを利用することで自分自身を傷つけているだけです. 彼らは自分たちの教育を覆そうとしています。

弱い禁止は、少なくともこの不都合な状況を正すための試みであると、彼らは勧めています. 確かに、禁止には大きな穴があるかもしれませんが、管理者が試したことを認めなければなりません. たぶん、彼らは禁止を強化することができます. おそらく、彼らは禁止を強化するための追加規定を見つけ出すでしょう。

さらに、この禁止には重要な象徴的価値があります。 エンティティは、ChatGPT が今日の学生の教育に嫌悪感を抱いていることを皆に伝えています。 保護者に警告される可能性があります。 同様のアプリを提供する AI メーカーは通知されます。 つまり、私たちの最愛の生徒たちにこの醜いものを行商しようとしないでください.

おそらく、キャンパス内かキャンパス外かを問わず、いかなる学生もいつでもジェネレーティブ AI を使用することは許可されないことを豊富に宣言する厳格なポリシーが起草され、実施される可能性があります。 このようなジェネレーティブ ベースの AI アプリを使用していることが発覚した生徒は、学校からの退学を含む厳しい罰則の対象となる可能性があります。 ポリシーの違反者には厳しく対処してください。 あなたがビジネスを意味することを彼らに示してください。

物事はさらに一歩進むかもしれません。 学生がジェネレーティブ ベースの AI を使用し、それをこっそりと回避しようとすると、彼らには永遠に迫り来る影が残ります。 ある時点で、ある学生がジェネレーティブ AI を使用したことが判明し、使用したことを伝えなかった場合、学位が取り消されるか、学業成績に不利な点が付けられる可能性があります。 ジェネレーティブ AI の使用を検討している人々に蓋を閉めます。 彼らは、ルールを破ることに非常に恐れ、神経質になり、そうするために一イオタの努力を払うことができなくなるはずです. 彼らは極度の恐怖で凍りつくでしょう。

これらの反論に対する正当な議論は、問題全体が不釣り合いに吹き飛ばされているように見えるということです. 厳しい罰則は通用しません。 モグラ塚から山を作っています。 そして、ジェネレーティブ AI を使用する利点とメリットを十分に理解していません。

言及されているさまざまな利点が何であるかを説明させてください.

ジェネレーティブ AI は、学生がより優れたエッセイを考案するのに役立つと考える人もいます。 学生は、ChatGPT などのアプリを使用して、提出するつもりのないエッセイを準備する場合があります。代わりに、生成されたエッセイを学習することを目的としています。 エッセイは通常よく書かれているので、生徒は文言、構造、およびその他の顕著な側面を綿密に調べることができます。 したがって、これは役立つ学習ツールであると断言できます。

ジェネレーティブ AI を使用するもう XNUMX つの利点は、学生がエッセイを AI アプリに提出し、エッセイのレビューを依頼できることです。 ChatGPT などのアプリは通常、提供されたエッセイを分析するという驚くほどまともな仕事をします。 教師によるレビューほど洞察に富むものではないかもしれませんが、使いやすさと AI アプリを好きなだけ繰り返し使用できることから、これは有用なアプローチになります (おそらく、教師の代わりではなく、教師と彼らの限られた利用可能性)。

続けることができます。

多くの場合、学生は、割り当てられたエッセイ プロジェクトをどのように進めるかを考え出そうとするときに、確信が持てなかったり、表向きは戸惑ったりすることがあります。 彼らは白紙をじっと見つめます。 彼らは何をするのですか? 絶望感と絶望感が彼らの精神を襲います。 多分彼らは努力を放棄し、不合格を取ることを決心します. 悲しみが襲います。

学生は、ChatGPT などの生成型 AI に、提案されたアウトラインまたはエッセイの少なくともいくつかのポイントメア提案を生成するように依頼できます。 出力されたアイデアに基づいて、学生は構造を作り直し、エッセイを書きます。 自分自身で。 スターターまたはエンゲージャーとしての AI のこの使用が「不正行為」であるかどうかは、あなたの見方に依存します。 確かに、AI アプリは学生を進行させましたが、学生がエッセイを書いている限り、AI は進行方法の手がかりを提供しただけで、これは支払うべき小さな代償であると主張することができます.

ジェネレーティブ AI が虚偽やエラーを含む出力を生成することへの懸念については、少し話が変わりますが、学生は、インターネットで見つけたものであろうと他の場所で見つけたものであろうと、何を読んでも誤った情報や偽情報が含まれている可能性があることをすでに認識しておく必要があるということです。 私たちは、学生が、読んだ内容に関して何が有効で何が疑わしいかを識別するために必要な適切なスキルを確実に身につけられるようにしなければなりません。

精査するソースのリストにジェネレーティブ AI を追加します。

要点は、生成 AI の出力を注意深い解釈で観察し、読んだ内容に率直に質問する方法を生徒に示す必要があるということです。 これにより、大きな飛躍を遂げることができます。 ジェネレーティブ AI を使用して意図的に AI アプリに嘘をつくように仕向ける課題を生徒に与えます。 あなたはツーファーを取得しています。 XNUMX つは、この AI が誤った出力を生成する方法を生徒に示し、誤報や偽情報を検出して対処するスキルを向上させることです。 生成型 AI の問題を学習ツールとして使用することで、現代の世界と不吉な情報の大洪水に対処するための幅広い基礎を築くことができれば、マイナス面を一種のプラス面に変えることができると主張するかもしれません。

正真正銘の教育目的のためにジェネレーティブ AI を使用する別の方法を続けることができます。 追加のカバレッジについては、次を参照してください。 ここのリンク.

要するに、ジェネレーティブ AI を採用すべきだと主張する陣営は、とにかく時計を戻すつもりはないと指摘するに違いありません。 ChatGPT のようなアプリは木工品から生まれます。 時流を止める方法を見つけることは不可能です。 乗船することもできます。

そういうわけで、混沌が蔓延するのを許す必要はありません。 このキャンプは、学校が小論文生成の悪い点とこれらの AI アプリが提供できる利点とのバランスを取るためのポリシーを策定する必要があることを強く求めています。 これらのジェネレーティブ AI アプリを正しい方法で使用する方法と、間違った方法を回避する方法を生徒に示します。

何をするにしても、ジェネレーティブ AI の使用をやみくもに解き放ってはいけません。 教師と協力してポリシーを設定します。 教師がこれらの AI アプリを快適に使用できるようにしてください。 学生にジェネレーティブ AI アプリを紹介し、許可されていることと許可されていないことを説明します。

ジェネレーティブ AI 船はすでに出航しています。

魔神は瓶から出ています。

これらの AI アプリの禁止に対するお決まりの対応は、最終的には無駄になります。 もうXNUMXつの懸念は、あなたが学生をいくらか刺激していることです. このテクノロジーを使用できないことを彼らに伝えることで、それを使用することへの関心の波が押し寄せてくる可能性があります。 主に学校が禁止令の発動について大きなことをしたため、正直で公平な生徒を盗賊に変える危険があります。

禁断の果実がさらに魅力的になることは誰もが知っています。 これらの弱い禁止は、他の方法で行われた可能性をはるかに超えて、学生の使用に拍車をかける可能性があります.

禁止の層別化についての私の以前の指摘に戻ると、ChatGPT を禁止するこれらの最近の取り組みの場合、物事は次のようになります。

  • ジェネレーティブ AI の絶対禁止: それ自体は実行可能ではなく、まだ特に試していません
  • ジェネレーティブ AI の部分的な禁止: ほとんど試されたものですが、大きな穴がたくさんあります
  • ジェネレーティブ AI の弱い禁止: 試されているように見えるもの、横行するほど弱く、おそらく効果がないもの
  • ジェネレーティブ AI の禁止なし: 何が起こるか、何をすべきかを待っている他のすべての人

コインの反対側にもあります。つまり、次のスペクトルで表されるように、ジェネレーティブ AI を有効化またはサポートしようとしています。

  • ジェネレーティブ AI の承認: 学校は少なくともジェネレーティブ AI の存在を認める必要があると主張
  • ジェネレーティブ AI の穏やかな受容: 学校は、ジェネレーティブ AI の使用を限定的に許可する必要があります
  • ジェネレーティブ AI の完全な受け入れ: 学校は包括的な方法でジェネレーティブ AI を採用する必要があります
  • ジェネレーティブ AI の必須要件: 学校はジェネレーティブ AI の使用をあからさまに要求し、それをカリキュラムと教育方法の一部にする必要があります。

まとめ

の有名な編集者 全地球カタログ、スチュワート ブランドは、次の注目すべき言葉を述べています。

生成ベースの AI を禁止しようとしている学校は見当違いであると強く信じている人もいます。 彼らは、この AI で何ができるのか、良い面だけでなく悪い面も利用する方法について混乱しています。 彼らは目を覚まして蒸気ローラーの一部にならなければなりません。

生成ベースの AI ブームに飛びつくのは時期尚早だと主張する人もいます。

今すぐ行動を起こさないか、穏やかな行動をとってください。 待って、何が起こるか見てください。 これらの AI アプリの有効な用途と必要性がある場合は、これを研究して、教育環境でそれらを伴う最善の行動方針を体系的かつ慎重に見つけ出しましょう。

擁護者による反論は、このように何年もかかる可能性があるのを待っていると、問題全体が混乱した状態になるということです. 明確なガイダンスがない場合、あらゆる種類の厄介な問題が間違いなく発生します。 学生は突然、これらの AI アプリを使用することになっていないことに驚き、不意を突かれるでしょう。 ジェネレーティブ AI アプリを使用していないのに使用していると非難される人もいます。 泥沼はどんどん広がっていきます。

何をすべきだと思いますか?

これを冷静に考えてください。 はい、気をつけてください。 私たちは今日の学生と彼らの将来、そして私たちの未来についても話しています。 エイブラハム・リンカーンの適切な発言は有益かもしれません。

そうしましょう。

ソース: https://www.forbes.com/sites/lanceeliot/2023/01/20/those-schools-banning-access-to-generative-ai-chatgpt-are-not-going-to-move-the-ニードルアンドアーミッシングザボートセイズアイエシックスアンドアイロー/