誰も求めていないAIネイティブキャンパス これをイメージしてください: 学生が講義ホールにシャフリングし、神経関連のヘッドセットがフラワーライトの下で輝いています。 彼らのコースワーク? 大きな言語モデルによって生成されます。 彼らのレート? バイオメトリックフィードバックとキーショックパターンを通じて関与を測定する独自のAIダッシュボードによって割り当てられています。 教授はアルゴリズムコンテンツ配信の促進者になります。 学習は最適化になります。 楽天!楽天!楽天!楽天! もしこの未来が教育を修復しないならば、それはそれを埋めるのだろうか。 , UC Berkeleyのベテランのコンピュータサイエンス教育者は、AIの福音主義を特徴的な率直さでカットします: ブライアン・ハーヴェイ AIは潜在的に有用なテクノロジーの一部ですが、それは宇宙の中心ではありませんし、大学の中心でもありません。 AIは潜在的に有用なテクノロジーの一部ですが、それは宇宙の中心ではありませんし、大学の中心でもありません。 彼の言葉は、エドテックの起業家の熱い夢に冷たい水のボウルのように降り注ぐが、ハーヴェイはルディトではない――彼は何十年もの間、教育のモードが来て行くのを観察してきた実践主義者だ。 Curriculum Kill Switch: What We Should Retire (and What to Replace It With) 標準的な話は次の通りです:コンピュータサイエンスのカリキュラムは、AIのためのスペースを作るために削除されなければなりません. ダストアルゴリズムのコースを外します. スムートエンジニアリングのブートキャンプで入ります. 神経ネットワークアーキテクチャで分離した数学を置き換えましょう. トランスフォーマーの細かい調整のためのアセンブリ言語を交換してください。 ハーヴィーはこれを完全に振り回す。 AIを中心に置く代わりに、彼はより過激な何かを提唱している:ユーザーインターフェイスデザインをコンピュータサイエンス教育の中心に置く。 「誰かにコンピュータとの相互作用についてどう思っているかを尋ねれば、それがどれほど frustrating であるかを伝えるだろう」ハーヴェイは、彼は正しいと述べています。我々は博士レベルのAIが詩を書くことができる時代に生きていますが、我々は、ユーザーが部屋に携帯電話を投げたくない銀行アプリを設計することはできません。 平均的な大学のポータルを考慮してください。 学生は彼らの評価を見つけるために迷路メニューシステムを参照します。 教員は、委員会によって設計されたと感じる学習管理システムと戦います - 明らかに独自のソフトウェアを使用したことがない委員会です。 これらのインターフェイスは、90年代のウェブページを恥じるようなユーザー体験を提供する数十年の技術進歩を表しています。 修正はAIではなく、もっと人間性です。 簡単な例:AIチャットボットを構築してコース登録に関する学生の質問に答える代わりに、なぜ質問が不要になるように直感的な登録システムを設計しないのですか? 学生の苦情を解析するために自然言語処理を展開する代わりに、まず苦情を生成しないインターフェースを作成しないのですか? しかし、このような考え方は、会議のチケットを売るものではなく、ベンチャー資本のラウンドを売るものではありません。 The Automation Class Divide: MOOCs for the Masses, Mentorship for the Few これが、AIの約束が最も不安定な影響を明らかにする場所です:ハーヴェイが「デジタルクラスシステム」と呼ぶものの出現です。 経済学は魅力的です. なぜChatGPTが論文を評価し、質問に答えることができるのなら、人間のインストラクターを支払うのか? なぜAIが同時に何千人もの学生の学習を個人的化できるのなら、小規模なクラスを維持するのか? しかし、この効率性は、教育の質をはるかに超えるコストで発生します。学習の構造そのものに不平等を暗号化します。エリート機関は、ソクラテス対話、メンターシップ、何千年もの間教育を定義してきた知的親密さという人間の要素を維持します。 AIトレーニングシステムは個性化を約束しますが、標準化を提供します。彼らは学習スタイルに適応しますが、人間の好奇心の完全な複雑さに適応できません。彼らは質問に答えることができますが、彼らは学生が尋ねる必要があることを知らない質問を質問することはできません。 「デジタルクラスシステムはすでにここにあり、特権のある学生は教授から人間のメンテナンスを受け、他の学生はMOOCを受ける」 MOOCs(Massive Open Online Courses)は、教育を民主化することを目的としていたが、学習が実際にどのように機能するかについて不快なものを明らかにした。完成率は約10%だった。成功した学生は、すでに伝統的な教育環境で成功するための自律、背景知識、社会資本を持っている人々だった。 AIチュートリアルは、個性化と関与を通じてこれらの問題を解決することを約束しますが、彼らは基本的な洞察を欠いている:教育は単に情報の転送に関するものではありません。 The Tyranny of Grades: Why the System Is Already Broken グレードの暴政:なぜシステムはすでに壊れているのか これが不快な真実です:AIは学術的な評価を台無しにしませんでした。 ハーヴェイは言葉を軽くしない: 「レッスンは好奇心に導かれた学習をジャンプに変える...彼らは教育のすべてのレベルで明らかに傷ついている」彼は続けます: "あなたがレッスンを受けているときに勇敢であることは難しいです。 学生がAI駆動型のプラジアリズム検出器に遭遇したときに起こることを考えてみましょう。このツールは潜在的な詐欺を示すだけでなく、教育関係全体に毒を与える疑念の雰囲気を生み出します。学生は防御的に書き始め、偽ポジティブを引き起こす可能性のある創造的なリスクを回避します。彼らは自分のアイデアを第二に推測し、彼らの思考がAIが以前見たものとあまりに似ているかどうか疑問に思う。 監視装置は毎年高度に進化しています。プロクターリングソフトウェアは試験中に眼の動きを監視します。キーストローク解析器は、許可されていない援助を特定するための入力パターンを追跡します。バイオメトリックシステムはストレスレベルを測定して潜在的な詐欺を検出します。 われわれは学習を評価しているのか、それともますますパラノイドな制御システムの遵守を評価しているのか。 グレードは人間の学習の無限の複雑さを単一のスカラル値に減らす。彼らは知識が客観的に測定され、創造性が量子化され、知的成長が順位化されることを仮定している。 学生はこれらの仮定を内部化する。彼らは意味よりもメトリックのために最適化することを学びます。彼らは教育者たちが「戦略学習」と呼ぶものを開発します。 AI駆動型評価ツールは、より洗練された分析を通じてこれらの問題を解決することを約束します。彼らは学習の軌道を追跡し、知識のギャップを特定し、パーソナライズされたフィードバックを提供することができます。 AI as a Mirror, Not a Saviour(AIは鏡ではなく救世主) ハーヴェイの答えは「短い答えは「何もない」というわけではないが、盲点が存在しないというわけではないが、AIを必要とせずに知っていた人もいる。 これは、AI教育の会話全体で最も重要な洞察かもしれません。AIが解決する問題 - 学生の関与、パーソナライズされた学習、評価効率 - は新しい問題ではありません。 違いは、AIがこれらの問題を規模で見ることができるということです。何千人もの学生がほぼ同一のAI生成エッセイを提出すると、伝統的な評価方法が失敗していることを無視することは不可能になります。 しかし、視覚化は理解とは違います。AIのハイプサイクルは、多くの教育者に実践を完全に再構想する必要があると説得しました。実際には、ツールはすでに良い教師が知っていたことを単に明らかにしています:学習は個人的であり、フィードバックは重要であり、真の関与には真の人間の接続が必要です。 コンピュータサイエンス教育は長い間、機能的プログラミングを無視し、代わりに、ほとんどの商用ソフトウェアが構築される方法を反映するオブジェクト指向のアプローチに焦点を当てている。 AIはこのダイナミクスを変えていません。もし何かあれば、それを加速させました。大学は、AIのコースを追加するために急いでいますが、それはコンピュータサイエンスの根本的な進歩を表すためではなく、学生(そして雇用主)が要求しているからです。 結果は、ある種の教育劇場です。 学生は、グレディエンジニアリングを習得し、人間とコンピュータの相互作用の原則を把握することなく、スンプトエンジニアリングを習得します。 彼らは、彼らの出力を評価するための批判的思考のスキルを開発することなく、AIツールで流暢に学びます。 AIネイティブ大学を構築する:私たちが実際に残すべきこと 私たちが仮説を楽しなければならないならば、もし私たちが AI ネイティブの大学をゼロから構築しなければならなかったら、私たちは絶対に何を含まないべきでしょうか。 ハーヴェイの答えは「学術的誠実性についての心配を避ける方法は、評価をやめることだ」と明らかにした。 これは教育的アナーキズムではありません。それは教育的現実主義です。現在のシステムは、AIが単に強化する歪んだインセンティブを作り出します。学生は、彼らが学習よりもパフォーマンスで報われているため、詐欺します。 これらの基盤に基づいたAI原生の大学は、教育機関として仮装する監視国家になるだろう。自動プロクターニング、アルゴリズム的プライジアリズム検出、AI駆動の行動分析は、学習がコンプライアンスに次元的になる環境を作り出すだろう。 私たちは何を保ちますか?人間のメンターシップ、おそらく。倫理的監督、絶対に。ユーザー体験と人間中心のデザインに焦点を当てます。実際のコミュニティにとって重要なプロジェクト。AIによって遊べない評価方法は、真の人間の判断を必要とするからです。 我々は何を奪うだろうか? 自動評価と標準化テストの全機器. AI中心のカリキュラムは、基礎的な理解よりもツールのマスターを優先する。 区別は、ハイテクと低テクノロジーの間ではなく、教育に対する人間中心と機械中心のアプローチの間にある。 創造性対予測:AIがサプライズに失敗する場所 ハーヴェイは、彼が創造性をどのように見るかを変えた学生のAI強化された提出を読んだことがありますか? 「ノー」 現在のAIシステムは予測エンジンです。彼らはトレーニングデータのパターンに基づいて、最も可能性のある次の単語を予測することによってテキストを生成します。彼らは流暢で一貫した、さらには洗練された小説を生成することができます。しかし、彼らは真の創造性が驚くような方法で驚くことはできません。 人間の創造性は、しばしば制約から生まれ、私たちが言いたいことと私たちが言えることの間の生産的な摩擦から生まれる。 AIクリエイティブは、対照的に、インターポラティブです。既存のアイデア間のスペースを見つけて、それらを信頼できるコンテンツで満たします。それは新しい方法で要素を組み合わせることができますが、真に新しい要素を生成することはできません。 もし私たちが学生に「モデルのために」書くことを教えれば、AIシステムが理解して構築できるテキストを作成するならば、私たちは彼らに根本的に非創造的な方法で考えることを教えるかもしれません。 リスクはAIが人間の創造性を置き換えることではない、リスクは人間がAIシステムのように考えることを学ぶことだ:真に困難な質問に立ち向かうのではなく、予測可能な要請に対する信頼できる答えを生み出すことだ。 効率を超える教育 神経関連のヘッドセットの学生、アルゴリズムによって生成されたコース、AIダッシュボードによって割り当てられたレッスン。 それも不人道です。 真の教育は混乱するものであり、それは間違った始まり、死んだ終わり、アルゴリズムによって最適化できないような知的リスクを取ることです。 これらの資質は自動化されないが、ほとんど測定されないが、確かに同時に何百万もの学生にサービスを提供するためにスケール化されない。 大学は、AIツールを統合するにもかかわらず、教育の人間的要素を保存することを選択することができる。 選択は、AIと人間の教育の間にあるのではなく、効率性としての教育と変革としての教育の間にある。 AIは進化し続けますが、より洗練され、より有能で、より説得力のあるものになりますが、決して人間ではないでしょう。 アルゴリズムの時代では、人間だけが人類を教えることができる。 教育の未来は、より良いAIシステムを構築することではなく、まずなぜ私たちが教えるのかを覚えておくことである:結果を最適化するのではなく、私たちを最も完全に人間にする思考の種類を養うことである。 誰も求めていないAI系の大学は、これらの真理を忘れる大学であり、私たちが本当に必要としている大学は、これらの真理を覚えている大学である。