Zac is the Features Editor at ReHack, where he covers cybersecurity, AI and more.
The is an opinion piece based on the author’s POV and does not necessarily reflect the views of HackerNoon.
学校では人工知能が普及しているが、教育の専門家は倫理的な利用の重要性を学生に教えていない。問題は、それが複雑なテーマであり、教育者にはそれに取り組む時間もリソースもないということだ。
関連資料はどこで入手できるのでしょうか? 既存の授業計画にそれをどのように組み込むのでしょうか? このような疑問が AI 倫理の授業を妨げている理由と、意思決定者が問題を解決するために行っていることを紹介します。
AI 倫理とは、アルゴリズム ベースのツールの開発、展開、利用を規定する一連の原則です。これらの原則は、利害関係者を導き、こうしたテクノロジーが環境、社会、経済に及ぼす損害を最小限に抑えることを目的としています。より小規模なレベルでは、偏見、差別、誤報、乱用の防止に重点を置いています。
学校でAI倫理を教えることは不必要に思えるかもしれないが、その重要性は強調しすぎることはない。AIはすでに多くの業界で欠かせないものとなっている。マッキンゼー・アンド・カンパニーのレポートによると、
AI が新しいという理由で教室で AI について話すのを避けることは、不必要に歴史を繰り返すことになる。スマートフォンが発明された直後、学生たちはいつも後ろのポケットに電卓を持っているわけではないと言われたのと同じことだ。
このテクノロジーの人気は、個人および職業上の両方の領域で高まっています。学生は、業界と社会により良い結果をもたらすために、就職時に責任を持ってこのテクノロジーを使用する準備をする必要があります。
AI は強力です。高度なアルゴリズムは、人間よりも指数関数的に高速に膨大なデータセットを分析できます。パターン認識、トレンド予測、コンテンツ作成に優れています。教育者が好むと好まざるとにかかわらず、AI は世界を変える可能性があります。教育者が学生を適切に準備すれば、変化が前向きなものになることを保証できます。
AIを使用する際に学生が直面する典型的な倫理的リスクには、テクノロジーの悪用、嫌がらせ、盗作などがある。盗作は最も一般的なものの1つだ。生成ツールのおかげで、学術的な不正行為は簡単に逃れられる。Googleトレンドによると、「AIエッセイライティング」の検索は
残念ながら、盗作は最も重い犯罪ではない。最近では、大学生、高校生、さらには中学生までもが、生成ツールを使ってディープフェイク関連の性犯罪に加担しているところを捕まっている。韓国では、あるジャーナリストが
たとえ子供たちがクラスメートの普通の写真を使って露骨な素材を作らないとしても、AI の使用は同意に基づいて行われます。この概念は、データのプライバシーとセキュリティの原則を再考するものであり、エンドユーザーが入力するすべてのデータは非公開ではなくなります。プラットフォームまたはサービス プロバイダーは、それを使用してモデルをトレーニングしたり、マーケティング戦略を強化したりする場合があります。
今日の学生の多くは、生成モデルや機械学習モデルを、他人に実際に危害を加えている場合でも、楽しくて無害なツールと見なしています。教師には、このような行為の結果について早い段階で学生に教育し、このような容認できない行為を根源から阻止する絶好の機会があります。
教育委員会の基準、教室の方針、州法は大きく異なるため、AI の導入はせいぜい不安定な状態だ。AI を受け入れる人と受け入れない人の分裂により、標準化が停滞している。しかし、倫理コースに挑戦する人もいる。
さまざまな学者や業界の専門家が、倫理に関する議論は小学校から始めるべきだと主張している一方で、アルゴリズムベースのツールをその早い段階で使用している教育機関は比較的少ない。小学校の管理者が利用できる公開リソースは事実上存在しない。
多くの中学や高校では、AIの倫理的側面について議論されていません。その代わりに、AIの使用を厳しく取り締まっています。研究によると、AI検出ツールの精度は
幸いなことに、一部の意思決定者はAI倫理の必要性を認識している。例えば、カリフォルニア州知事ギャビン・ニューサム氏は
教育者全員が専門家から指導書を受け取るわけではない。セージクリーク高校の数学教師ジェフ・サイモンのように、この新しい分野を独力で切り開いている人もいる。サイモンは次のように語った。
AI 倫理の授業のほとんどは高等教育機関で提供されています。これは、そうした議論をデータ サイエンスやコンピューター エンジニアリングのコースに取り入れる方が簡単だからです。少なくとも、多くの機関が生成型 AI の使用に関するポリシーを策定しています。
AIは教育の分野に存在しているだけでなく、成長を続けています。参考までに、2024年には、
時間は主な制約の一つです。教育者は、より少ない時間でより多くのことを達成するという不可能な課題に直面しています。
AI の分野は複雑で、急速に進化しています。学区全体でサポートしても、教材はすぐに時代遅れになる可能性があります。多くの学校では、何十年も前の教科書をまだ使用しているため、どのようなソリューションでも大規模な改修が必要になります。
さらに、倫理の宿題はどのように家に持ち帰るのでしょうか? テストはどのように行われるのでしょうか? 公平な成績をどのように付けるのでしょうか?
教育者は、リソースが与えられれば倫理的な AI 授業という概念を受け入れる用意があるかもしれないが、それをどのように行うかについての明確な枠組みはない。小学校で教え始めるべきだろうか? 授業に取って代わるのか、選択科目として提供されるのか、それとも既存のカリキュラムに統合されるのか? 万能の解決策はない。
多くの教師は、こうした懸念に応えて「私の教室では禁止」という方針を採用しています。その結果、生徒たちはこれらのツールの正しい使い方を学ばない可能性が高くなります。多くの教師は、仲間や親、インターネットから集めた不正確で規制されていない知識を真実として受け入れることになり、それが広範囲に及ぶ影響を及ぼす可能性があります。
AI 倫理が学校で教えられていない理由について、教育専門家が対処できる方法はいくつかあります。
AI 倫理を授業に取り入れるには、新しい選択科目を作るか、授業の最後に詰め込むことになります。自然に出てくる場所に配置するのがベストです。たとえば、生徒に 8 ページのエッセイを課すと、責任ある生成 AI の使用について聞くことができます。
教師や管理者は、これらの新しいコースを生徒の学年、技術的専門知識、知識レベルに合わせて調整し、科目を年齢相応で魅力的なものにする必要があります。課題は比較的自由度の高いものにする必要がありますが、明確な倫理的枠組みに従う必要があります。
通常、倫理的な AI に関する会話は、データのプライバシーと出力の偏りに焦点を当てており、これらのツールを開発、展開、または管理する人々を中心に行われます。エンド ユーザーは、バックエンドではなくユーザー インターフェイスと対話するため、そのアプローチは若干異なる必要があります。
中核となる原則は、説明責任、価値観の一致、説明可能性、公平性、誠実性です。生徒は、偏見と闘うための批判的思考、過度の依存を防ぐための推論、誤った情報の拡散を軽減するための客観的な分析を学ぶ必要があります。
州法や教育委員会の方針により、教室で AI の倫理を教えることが困難な場合は、教育者は回避策を活用すべきです。責任ある、高潔な行動をモデル化することは、大きな効果があります。あるいは、ゲスト スピーカーを招待することもできます。
高校教師や大学教授は、授業でのディスカッション、討論、グループワークを促進するためにモデレーターとして行動することができます。AI に関連するデータの匿名化、著作権侵害、要約について質問することで、生産的な会話を始めることができます。
デジタル化の人気は飛躍的に高まっています。近い将来、AI は世界中のあらゆる産業の一部となるかもしれません。教育者がこの現代に合わせて授業を近代化すれば、今日の若者が就職したときに有利なスタートを切ることができるでしょう。
なぜ学校でAI倫理を教えないのか? | HackerNoon