paint-brush
死んだインターネット理論: AI 自動化のダークサイド@antonvoichenkovokrug
新しい歴史

死んだインターネット理論: AI 自動化のダークサイド

長すぎる; 読むには

featured image - 死んだインターネット理論: AI 自動化のダークサイド
Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture
0-item

私たちが知っていたインターネットは死につつあります。少なくとも、認識できないほど変化しています。人工知能の台頭により、デジタル空間は人間と機械の境界が曖昧になり、やり取りは本物らしさや「人間らしさ」が薄れつつあります。「インターネットの終焉説」は、陰謀説とみなされることも多いですが、驚くべきことに、こうした変化の一部を正確に捉えています。ほとんどのコンテンツが人間ではなくアルゴリズムによって作成されるウェブに私たちがすでに住んでいるとしたらどうでしょうか。そして、それは将来にとって何を意味するのでしょうか。

コンテンツのためのコンテンツ: AI のための AI ライティング

2010 年以前に生まれた方は、ほんの 10 年前のインターネットがどのようなものだったかを思い出してみましょう。フォーラム、ブログ、初期のソーシャル ネットワークなど、これらはすべて人間の参加に依存していました。人々は記事を書き、考えを共有し、コメントで議論していました。それは活気に満ちたアイデアのエコシステムでした。しかし、AI テクノロジーの発展により、このエコシステムは変化し始めました。今日、コンテンツはもはや人間だけで作成されるものではありません。テキスト、ニュース記事、ソーシャル メディアの投稿など、これらすべてが機械によって生成できるようになりました。

AI は、人間が書いた記事とほとんど区別がつかない記事を書くことができるようになりました。あなたも、気づかないうちにこうした記事のいくつかを読んだことがあるかもしれません。この記事自体が AI サービスによって書かれたものでしょうか。ニュース記事でしょうか。ソーシャルメディアの投稿でしょうか。動画のコメントでしょうか。これらはすべて、アルゴリズムの成果、つまり「コード」である可能性があります。


調査によると、Twitterアカウントの約15%はボットであり、実際のユーザーアクティビティのような錯覚を引き起こしています。これは特に政治討論で当てはまります。 AIは特定の視点を推進するために使用されるそして、それは私たちが特定できるものだけであり、実際の割合はもっと高い可能性があります。


LinkedIn や Facebook などの他のソーシャル ネットワークについてはどうでしょうか。残念ながら、現実はさらに心配なことです。この問題を完全に調査するのは不可能なので、この問題の本当の規模を完全に測定することはできません。ソーシャル メディアは、「死んだインターネット」が最もはっきりと現れる場所です。投稿に最後に「いいね」やコメントをもらったときのことを思い出してください。本当に実在の人物からのものだったのでしょうか。 エミリオ・フェラーラによる調査2016年の米国選挙中にTwitterで行われた政治関連の投稿の約19%はボットによるものだったことが判明した。これらのボットは情報を拡散したり、コメントに返信したり、さらには議論に参加したりすることができ、まるで本物の人間同士が交流しているかのような錯覚を生み出す。


さらに、企業は自動化を利用してソーシャルメディアのページを管理しています。AI は投稿を書き、エンゲージメントを追跡し、コンテンツを改善します。同時に、一般ユーザーも AI を使用してアカウントを自動化しています。つまり、私たち自身がこの状況を作り出しているのです。その結果、ソーシャルメディアはアルゴリズムが活動を模倣する場所になり、実際の人間によるコミュニケーションが消えつつあります。


AI モデルは投稿を作成するだけでなく、ユーザーとのあらゆるやり取りから学習します。いいね、コメント、または単なる閲覧から得られるデータを使用して、AI はユーザーの興味を引くものを把握します。アルゴリズムは、どのトピック、見出し、画像、またはフレーズが最もエンゲージメントを獲得するかを分析します。学習サイクルごとに、ユーザーの注意を引くように設計されたコンテンツの作成が上手になります。これにより、コンテンツはユーザーに情報を提供するだけでなく、ユーザーの感情、反応、行動を積極的に操作するツールになります。多くの場合、ユーザーが気付かないうちに、ユーザーがプラットフォームに長く留まったり、決定に影響を与えたりします。


政治に影響を与えるために AI 生成コンテンツを作成することは、インターネット自動化の最も危険な側面の 1 つです。これらのテクノロジーは、偽のニュースを作成したり、ボットで世論を操作したり、政治家が虚偽の発言をしている偽のビデオや音声を作成したりすることさえ可能です。

この問題がさらに悪化しているのは、特に一般ユーザーにとって、偽コンテンツと本物のコンテンツを区別することがほぼ不可能になりつつあるためです。偽コンテンツを検出するための明確なツールがなければ、社会は操作に対して脆弱なままになります。これにより、民主的なプロセスや制度への信頼が弱まり、自由選挙や政治の透明性に深刻な問題が生じる可能性があります。

ケーススタディ: 採用における AI – 機械の競争

採用プロセスは、AI システムにとってもう 1 つの戦場となっています。現代の雇用主は、履歴書やカバー レターをスキャンするためにアルゴリズムを使用することが増えています。これらのシステムは、キーワードを検索し、文章スタイルを分析し、経験が関連しているかどうかをチェックします。これらはすべて自動的に行われます。ハーバード・ビジネス・レビューのピーター・カペリ氏の記事によると履歴書の約 75% は AI によってフィルタリングされるため、採用担当者の目に留まりません。


しかし、ゲームはそこで終わりません。求職者は、これらのアルゴリズムの仕組みを理解しているため、「完璧な」文書を作成するために AI ツールも利用しています。これらのツールは、AI フィルターを通過し、理想的なカバーレターを書くように設計された履歴書を生成します。


その結果、1 つの AI がドキュメントを作成し、別の AI がそれをフィルタリングするという状況に陥ります。人間は方程式から除外され、アルゴリズムの戦いをただ見ている傍観者になります。

\ビジュアルコンテンツ: 現実か幻想か?

AIはテキストを書くだけでなく、画像を作成することも学習しました。This Person Does Not Existのようなサービス存在しない人物や物体のリアルな画像を生成することができる一見すると、これは単なるツールのように見えるかもしれませんが、深刻な疑問を提起します。AI によって生成された画像が実際の写真とまったく同じように見える場合、本物と偽物の境界線はどこに引くのでしょうか。


ビジュアルが大きな役割を果たすソーシャルメディアは、今やこの種の「人工アート」で溢れかえっている。人々はAIが生成した写真を投稿して反応を得ており、その視聴者もボットで構成されている可能性がある。


これらの例は、インターネットが人間のための場所ではなくなってきていることを示しています。インターネットは、AI が AI と対話する空間に変わりつつあります。1 つのアルゴリズムがコンテンツを作成し、別のアルゴリズムがそれを分析し、3 つ目のアルゴリズムがそれをフィルタリングし、4 つ目のアルゴリズムがコメントに返信します。人間の関与は縮小し、コミュニケーションは機械間で交換される一連の信号に過ぎなくなります。


これは進歩のように聞こえるかもしれないが、隠れた問題もある。オンライン コンテンツの大部分を機械が作成している場合、情報に対する信頼性は低下する。私たちはすでに、真実と操作の区別がつきにくい世界に生きている。特にソーシャル メディアでのコミュニケーションを自動化すると、インターネットが偽物のように感じられる。人々はオンラインで本物の人間関係を築く能力を失ってしまう。


AI が世論に影響を与えるコメントを生成すると、私たちは深い倫理的ジレンマに直面します。これらの行動の責任は誰にあるのでしょうか。アルゴリズムは単にその役割を果たしているだけです。AI を作成し、トレーニングした開発者でしょうか。それとも、プラットフォームで AI を使用している企業でしょうか。それとも、AI には自由意志や道徳的認識がないため、誰も責任を負わないのでしょうか。この不明確さは社会にリスクをもたらします。AI が生成した操作的なコメントは、誤ったトレンドを促進したり、誤った情報を広めたり、選挙に影響を与えたりする可能性があります。法律と倫理基準がこれらのテクノロジーに追いつくまで、AI の影響に対して誰も責任を負わない世界に住み、悪用される危険性があります。


「インターネット終焉説」は、陰謀論として始まったものの、それほど馬鹿げたものではないように思え始めています。コンテンツの作成と消費における人間の関与が減少し、自動化が進む兆候が見られます。ソーシャル メディア プラットフォームには AI が生成したコンテンツが溢れており、ユーザー インタラクションはボットによって変更または置き換えられることがよくあります。これにより、インターネットの性質が変化し、インターネットの将来について重要な疑問が生じています。


インターネットを「人間的」なものにするためには、いくつかのレベルでの行動が必要です。


  1. テクノロジー企業は、AI の使用方法について、より責任を負う必要があります。アルゴリズムの透明性、偽のコンテンツを検出するツール、実際のやり取りのサポートを優先する必要があります。たとえば、AI によって生成されたコンテンツにラベルを付けると、ユーザーは自分が誰と、または何とやり取りしているのかを知ることができます。

  2. ユーザーは、常に関与し、情報を得る必要があります。これは、デジタル リテラシーを向上させ、情報について批判的に考え、アルゴリズムの仕組みを理解することを意味します。私たちは、本物と偽物を見分けること、操作的なコンテンツに騙されないこと、そしてオンラインでの真の人間関係を維持することを学ぶ必要があります。

  3. 規制と倫理ガイドラインは、ユーザーと企業の両方を保護するために必要です。これは単にデータ保護に関することだけではなく、社会や政治のプロセスで AI がどのように使用されるかを制御することにも関係しています。規制は、インターネットが人間の空間であり続けることを保証し、乱用を防ぎ、テクノロジーへの平等なアクセスを促進する必要があります。


しかし、それだけでは十分ではありません。インターネットを「人間的」なものにするためには、インターネットが再び創造性、オープンな対話、そして真のコミュニケーションの場になる必要があります。私たちは、アルゴリズムよりも人間の声が重視される、誠実さと信頼性に基づいたコミュニティをサポートする必要があります。ユーザーをオンラインに維持することによる利益だけでなく、人間を優先するプラットフォームは、より良い模範となるでしょう。


インターネットは今も生きています。しかし、その将来は、私たちが作り出したテクノロジーをどう使うかにかかっています。盲目的に完全自動化の道を進むと、インターネットの真の価値である人間の存在を失う危険があります。しかし、テクノロジーと人間の価値のバランスを慎重に取れば、インターネットを本来の目的、つまり機械ではなく人間のための空間に戻すことができます。