paint-brush
תיאוריית האינטרנט המתים: הצד האפל של אוטומציה של AIעל ידי@antonvoichenkovokrug
היסטוריה חדשה

תיאוריית האינטרנט המתים: הצד האפל של אוטומציה של AI

על ידי Anton Voichenko (aka Anton Vokrug)6m2024/12/19
Read on Terminal Reader

יותר מדי זמן; לקרוא

featured image - תיאוריית האינטרנט המתים: הצד האפל של אוטומציה של AI
Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture
0-item

האינטרנט שהכרנו הולך וגווע - או לפחות משתנה ללא הכר. עם עליית הבינה המלאכותית, המרחב הדיגיטלי הופך למקום שבו הקווים בין אנשים ומכונות מטושטשים, והאינטראקציות הופכות לפחות אותנטיות ופחות "אנושיות". "תיאוריית האינטרנט המתה", למרות שנראית לעתים קרובות כתיאוריית קונספירציה, תופסת באופן מפתיע חלק מהשינויים הללו במדויק. מה אם אנחנו כבר חיים ברשת שבה רוב התוכן נוצר לא על ידי אנשים, אלא על ידי אלגוריתמים? ומה זה אומר לעתיד?

תוכן לתוכן: כתיבת AI עבור AI

אם נולדתם לפני 2010, בואו ניקח רגע להיזכר איך היה האינטרנט לפני עשר שנים בלבד. פורומים, בלוגים ורשתות חברתיות מוקדמות - כל אלה הסתמכו על השתתפות אנושית. אנשים כתבו מאמרים, שיתפו את מחשבותיהם והתלבטו בתגובות. זו הייתה מערכת אקולוגית תוססת של רעיונות. אבל עם התפתחות טכנולוגיית הבינה המלאכותית, המערכת האקולוגית הזו החלה להשתנות. כיום, תוכן כבר לא נוצר רק על ידי בני אדם. טקסטים, כתבות חדשותיות ופוסטים במדיה חברתית - כל אלה יכולים כעת להיווצר על ידי מכונות.

בינה מלאכותית יכולה כעת לכתוב מאמרים שכמעט בלתי אפשרי להבדיל מאלה שנכתבו על ידי בני אדם. סביר להניח שקראת חלק מהמאמרים האלה אפילו מבלי ששמת לב. האם המאמר הזה עצמו נכתב על ידי שירות AI? כתבה חדשותית? פוסט ברשתות חברתיות? תגובה מתחת לסרטון? כל אלה יכולים להיות העבודה - או ליתר דיוק, ה"קוד" - של אלגוריתם.


לפי מחקר, כ-15% מחשבונות הטוויטר הם בוטים, מה שיוצר אשליה של פעילות משתמש אמיתית. זה נכון במיוחד בדיונים פוליטיים, שם AI משמש כדי לדחוף נקודות מבט מסוימות . וזה רק מה שאנחנו יכולים לזהות - האחוז האמיתי עשוי להיות הרבה יותר גבוה.


מה לגבי רשתות חברתיות אחרות, כמו לינקדאין ופייסבוק? למרבה הצער, המציאות מדאיגה עוד יותר. אנחנו לא יכולים למדוד במלואו את קנה המידה האמיתי של בעיה זו, כי זה פשוט בלתי אפשרי לחקור אותה לגמרי. המדיה החברתית היא המקום שבו "האינטרנט המת" מציג את עצמו בצורה הברורה ביותר. תחשוב על הפעם האחרונה שקיבלת לייק או תגובה לפוסט שלך. אתה בטוח שזה היה מאדם אמיתי? מחקר מאת אמיליו פרארה מצא שכ-19% מהפוסטים הפוליטיים בטוויטר במהלך הבחירות ב-2016 בארה"ב נעשו על ידי בוטים. הבוטים האלה יכולים להפיץ מידע, להגיב להערות ואפילו להשתתף בדיונים, וליצור אשליה של אינטראקציה אנושית אמיתית.


בנוסף, חברות משתמשות באוטומציה כדי לנהל את דפי המדיה החברתית שלהן. AI כותב פוסטים, עוקב אחר מעורבות ומשפר תוכן. במקביל, משתמשים רגילים משתמשים גם בבינה מלאכותית כדי להפוך את החשבונות שלהם לאוטומטיים. זה אומר שאנחנו עוזרים ליצור את המצב הזה בעצמנו. כתוצאה מכך, המדיה החברתית הופכת למקום שבו אלגוריתמים מחקים פעילות, ותקשורת אנושית אמיתית נעלמת.


מודלים של AI לא רק יוצרים פוסטים - הם לומדים מכל אינטראקציה שיש לך. לייק, הערה, או אפילו סתם תצוגה מספקים נתונים שבהם AI משתמש כדי להבין מה מושך את העניין שלך. אלגוריתמים מנתחים אילו נושאים, כותרות, תמונות או ביטויים מקבלים את המעורבות הגדולה ביותר. עם כל מחזור למידה, הם משתפרים ביצירת תוכן שנועד למשוך את תשומת הלב שלך. זה הופך תוכן לכלי שלא רק מודיע לך, אלא מתמרן באופן פעיל את הרגשות, התגובות וההתנהגות שלך. זה שומר אותך על הפלטפורמה זמן רב יותר או משפיע על ההחלטות שלך, לעתים קרובות מבלי שאתה מבין זאת.


יצירת תוכן שנוצר בינה מלאכותית כדי להשפיע על הפוליטיקה היא אחד הצדדים המסוכנים ביותר של אוטומציה באינטרנט. טכנולוגיות אלו יכולות לייצר חדשות מזויפות, לתמרן את דעת הקהל עם בוטים, ואפילו ליצור סרטונים מזויפים או אודיו של פוליטיקאים שמשמיעים הצהרות שווא.

הבעיה מחמירה כי זה הופך כמעט בלתי אפשרי להבחין בין תוכן מזויף לתוכן אמיתי, במיוחד עבור משתמשים רגילים. ללא כלים ברורים לאיתור תוכן מזויף, החברה נותרת חשופה למניפולציות. זה יכול להחליש את האמון בתהליכים ובמוסדות דמוקרטיים, וליצור אתגרים רציניים לבחירות חופשיות ולשקיפות פוליטית.

מקרה מבחן: AI בגיוס - מרוץ המכונות

תהליך הגיוס הפך לשדה קרב נוסף עבור מערכות בינה מלאכותית. מעסיקים מודרניים משתמשים יותר ויותר באלגוריתמים לסריקת קורות חיים ומכתבי כיסוי. מערכות אלו מחפשות מילות מפתח, מנתחות את סגנון הכתיבה ובודקות אם החוויה רלוונטית - הכל באופן אוטומטי. על פי מאמר של פיטר קאפלי ב-Harvard Business Review , כ-75% מהקורות חיים אף פעם לא מגיעים אפילו לעיניו של מגייס כי בינה מלאכותית מסננת אותם.


אבל המשחק לא נגמר שם. מחפשי עבודה, היודעים כיצד האלגוריתמים הללו עובדים, פונים גם לכלי AI כדי ליצור את המסמכים ה"מושלמים". הכלים האלה יוצרים קורות חיים שנועדו להעביר מסנני AI ולכתוב מכתבי כיסוי אידיאליים.


כתוצאה מכך, אנו מגיעים למצב שבו AI אחד יוצר את המסמכים, ו-AI אחר מסנן אותם. בני אדם נותרים מחוץ למשוואה - הם רק צופים שצופים בקרב אלגוריתמים.

\ תוכן ויזואלי: מציאות או אשליה?

בינה מלאכותית למדה לא רק לכתוב טקסט אלא גם ליצור תמונות. שירותים כמו האדם הזה לא קיים יכול ליצור תמונות מציאותיות של אנשים וחפצים שאינם קיימים . במבט ראשון, זה אולי נראה כמו עוד כלי, אבל זה מעלה שאלות רציניות. היכן מותחים את הגבול בין אמיתי למזויף אם תמונה שנוצרת בינה מלאכותית נראית בדיוק כמו תמונה אמיתית?


המדיה החברתית, שבה הוויזואליה משחקת תפקיד עצום, מתמלאת כעת בסוג זה של "אמנות מלאכותית". אנשים מפרסמים תמונות שנוצרו על ידי AI כדי לקבל תגובות, לפעמים מקהל שאולי מורכב גם מבוטים.


דוגמאות אלו מראות שהאינטרנט הופך להיות פחות מקום עבור אנשים. זה הופך למרחב שבו AI מקיים אינטראקציה עם AI. אלגוריתם אחד יוצר תוכן, אחר מנתח אותו, שלישי מסנן אותו ורביעי עונה להערות. המעורבות האנושית הולכת ומצטמצמת, והתקשורת הופכת רק לסדרה של אותות המוחלפים בין מכונות.


זה אולי נשמע כמו התקדמות, אבל יש בעיות נסתרות. אם מכונות יוצרות חלק גדול מהתוכן המקוון, האמון במידע יורד. אנחנו כבר חיים בעולם שבו קשה להבחין בין אמת למניפולציה. אוטומציה של תקשורת, במיוחד במדיה חברתית, גורמת לאינטרנט להרגיש מזויף. אנשים מאבדים את היכולת ליצור קשרים אמיתיים באינטרנט.


כאשר AI מייצר הערות שמשפיעות על דעת הקהל, אנו עומדים בפני דילמה אתית עמוקה. מי אחראי לפעולות אלו? האלגוריתם פשוט עושה את העבודה שלו. האם זה המפתח שיצר והכשיר את ה-AI? החברה שמשתמשת בזה בפלטפורמה שלהם? או אולי אף אחד, מכיוון של-AI אין רצון חופשי או מודעות מוסרית? חוסר הבהירות הזה יוצר סיכונים לחברה. הערות מניפולטיביות שנוצרו על ידי בינה מלאכותית יכולות לקדם מגמות שגויות, להפיץ מידע מוטעה, או אפילו להשפיע על בחירות. עד שהחוקים והסטנדרטים האתיים לא ישיגו את הטכנולוגיות הללו, אנו נמצאים בסיכון לחיות בעולם שבו איש אינו אחראי להשפעה של AI, מה שפותח את הדלת לשימוש לרעה.


"תיאוריית האינטרנט המתה", למרות שהתחילה כתיאוריית קונספירציה, מתחילה להיראות פחות אבסורדית. אנו רואים סימנים לכך שהמעורבות האנושית ביצירת וצריכת תוכן הולכת ופוחתת, ומפנה את מקומו לאוטומציה. פלטפורמות המדיה החברתית מלאות בתוכן שנוצר בינה מלאכותית, ולעתים קרובות אינטראקציות עם משתמשים משתנות או מוחלפות על ידי בוטים. זה משנה את אופיו של האינטרנט ומעלה שאלות חשובות לגבי עתידו.


כדי לשמור על האינטרנט "אנושי", אנו זקוקים לפעולה בכמה מישורים:


  1. חברות טכנולוגיה צריכות לקחת אחריות רבה יותר על האופן שבו הן משתמשות בבינה מלאכותית. שקיפות באלגוריתמים, כלים לזיהוי תוכן מזויף ותמיכה באינטראקציות אמיתיות צריכים להיות בראש סדר העדיפויות. לדוגמה, תיוג של תוכן שנוצר על ידי AI יכול לעזור למשתמשים לדעת עם מי או עם מה הם מקיימים אינטראקציה.

  2. המשתמשים צריכים להישאר מעורבים ומעודכנים. משמעות הדבר היא שיפור האוריינות הדיגיטלית, חשיבה ביקורתית על מידע והבנת אופן הפעולה של אלגוריתמים. עלינו ללמוד להבדיל בין אמיתי לזיוף, להימנע מלהיפל לתוכן מניפולטיבי ולשמור על קשרים אנושיים אמיתיים באינטרנט.

  3. רגולציה והנחיות אתיות נחוצות כדי להגן הן על המשתמשים והן על החברות. זה לא קשור רק להגנה על נתונים - זה גם בשליטה על אופן השימוש ב-AI בתהליכים חברתיים ופוליטיים. הרגולציה צריכה להבטיח שהאינטרנט יישאר מרחב אנושי, למנוע שימוש לרעה ולקדם גישה שווה לטכנולוגיה.


אבל זה לא מספיק. כדי לשמור על האינטרנט "אנושי", הוא צריך להפוך שוב למקום ליצירתיות, דיאלוג פתוח ותקשורת אמיתית. עלינו לתמוך בקהילות המבוססות על כנות ואותנטיות, שבהן הקולות האנושיים חזקים יותר מאלגוריתמים. פלטפורמות שמתעדפות אנשים, לא רק רווחים משמירה על משתמשים מקוונים, יכולות להוות דוגמה טובה יותר.


האינטרנט עדיין חי. אבל עתידו תלוי באופן שבו אנו משתמשים בטכנולוגיה שאנו יוצרים. אם נלך באופן עיוור בדרך של אוטומציה מלאה, אנו מסתכנים באובדן מה שהופך את האינטרנט לבעל ערך באמת: נוכחות אנושית. אבל אם נאזן בקפידה בין טכנולוגיה לערכים אנושיים, נוכל להחזיר את האינטרנט למטרה המקורית שלו - מרחב לאנשים, לא למכונות.