paint-brush
פוביה של AI: כיצד כותרות חדשות מעצבות את הפחד הציבורי מבינה מלאכותיתעל ידי@minad21
604 קריאות
604 קריאות

פוביה של AI: כיצד כותרות חדשות מעצבות את הפחד הציבורי מבינה מלאכותית

על ידי Mina Down4m2024/09/14
Read on Terminal Reader

יותר מדי זמן; לקרוא

כותרות מרעישות בתקשורת מעוררות פחד ציבורי מבינה מלאכותית, ויוצרות "פוביה מבינה מלאכותית". המאמר דן במחקר שקורא לדיווח מאוזן וחינוך ציבורי טוב יותר כדי לקדם דיונים מושכלים ולהפחית דעות מונעות פחד על AI.
featured image - פוביה של AI: כיצד כותרות חדשות מעצבות את הפחד הציבורי מבינה מלאכותית
Mina Down HackerNoon profile picture
0-item

בינה מלאכותית (AI) הפכה לאבן יסוד של הקדמה הטכנולוגית המודרנית, ומבטיחה תרומות משמעותיות בתחומים שונים. עם זאת, לצד ההתפתחות המהירה שלה, AI הפכה גם למוקד של פחד וחוסר ודאות עבור אנשים רבים. פחד זה, זכה לכינוי "פוביה של AI" על ידי חוקרים ומחקרים מראים שהוא מושפע באופן משמעותי מהתמונה של התקשורת של AI, במיוחד באמצעות כותרות חדשות. מחקר שנערך לאחרונה בשם " פחד מבינה מלאכותית? גילוי מבוסס NLP, ML ו-LLMs של הפצת AI-phobia and Fear Sentiment Propagation by AI News ", בוחן מקרוב את ההשפעה של כותרות חדשות בינה מלאכותית על סנטימנט הציבור. על ידי ניתוח של כמעט שבעים אלף כותרות חדשות הקשורות לבינה מלאכותית, המחקר חושף את התפקיד העוצמתי של התקשורת בעיצוב תפיסות הציבור לגבי בינה מלאכותית.

כוחן של כותרות: מגבירים את הפחד

כותרות חדשות הן מרכיב קריטי בהשפעת התקשורת על רגשות הציבור, משום שהן משמשות נקודת מגע ראשונה לקוראים ונותנות את הטון לכתבה כולה. לעתים קרובות, אנשים אפילו לא קוראים את כל המאמר אלא פשוט מסירים את הכותרת. יתרה מכך, לכותרות יש תפקיד משמעותי במיוחד בהקשר של AI מכיוון שהבנת הציבור עדיין מוגבלת. אנשים רבים אינם מבינים בינה מלאכותית, כך שלקולי מדיה מהירים וכותרות מושכות תשומת לב יכולים להיות השפעה רבה על ההרגשה שלהם לגבי הטכנולוגיה. כדי לחקור את סוגי הסנטימנטים הבאים לידי ביטוי בכותרות על בינה מלאכותית, חוקרים השתמשו בטכניקות מתקדמות של עיבוד שפה טבעית (NLP), למידת מכונה (ML) ומודלים של שפה גדולה (LLMs) כדי לנתח את הסנטימנט והנושאים הקיימים בכותרות הקשורות לבינה מלאכותית. .


הממצאים שלהם חושפים מגמה מדאיגה: חלק ניכר מכותרות הבינה המלאכותית ממוסגרות באופן שמעורר פחד וחרדה. לעתים קרובות נעשה שימוש במונחים כמו "מסוכן", "איום", "סיכון" ו"איום קיומי", מה שתורם לאי-הנוחות הגוברת של הציבור לגבי AI. חשוב לציין, מעורר הפחד הזה אינו רק שיקוף של רגשות הציבור; חוקרים טוענים שזה מעצב אותו באופן פעיל, מה שמוביל למעגל שבו הפחד מוליד יותר פחד.


מדידת ההשפעה של כותרות מעוררות פחד

כיתת רגש תיוג לפחד ולא-פחד לדוגמא של כותרת. דמות מ-Samuels et. אל. 2024


המחקר השתמש בכלים מרובים לניתוח סנטימנטים כדי להעריך את הטון הרגשי של הכותרות, כולל VADER (כלי ניתוח סנטימנטים מבוסס לקסיקון ומבוסס על כללים שמנקד מילים מהשלילי הקיצוני ביותר לחיובי הקיצוני ביותר), AFINN (כלי המקצה ציונים למילים עם ציונים שליליים המציינים סנטימנט שלילי וציונים חיוביים המצביעים על סנטימנט חיובי), ו- TextBlob (ספרייה המספקת API פשוט שמחזיר ציון קוטביות המציין סנטימנט שלילי, סנטימנט חיובי וניטרליות).


התוצאות הראו נוכחות ניכרת של סנטימנט שלילי, כאשר כ-40% מהכותרות משדרות פחד או חרדה לגבי AI. ממצאים אלה מצביעים על כך שהתקשורת לא רק מדווחת על חששות הציבור לגבי AI אלא גם תורמת להגברה שלהם.


יתרה מכך, המחקר הדגיש את השימוש בשפה סנסציונית בכותרות. שפה כזו נועדה למשוך תשומת לב אך לעתים קרובות במחיר של דיווח ניואנס. הדגש על שפה מעוררת פחד בכותרות יכול להוביל לתפיסות ציבוריות מוטות, שבהן הסיכונים של בינה מלאכותית מוגזמים בעוד היתרונות שלו מוזלים.


פוביה בינה מלאכותית: השלכות על חברה ומדיניות

רשת סמנטית לחדשות המעוררות פוביה מבינה מלאכותית מ-Samuel et. al 2024


להתפשטות הפוביה של AI דרך כותרות התקשורת יש השלכות מרחיקות לכת. חוקרים גילו שפחד הציבור מבינה מלאכותית יכול להשפיע על החלטות מדיניות, מה שמוביל לתקנות זהירות או מגבילות מדי שחוסמות חדשנות. זה יכול גם להשפיע על המעורבות הציבורית ב-AI, ולגרום לאנשים לדחות או לחשוש מטכנולוגיות AI שאחרת עשויות לשפר את חייהם.


המחקר מזהיר שאם לא בודקים, להתפשטות פוביה מבינה מלאכותית עלולה להיות השפעות מזיקות על קידום הבינה המלאכותית כמדע. היא דוגלת בגישה מאוזנת יותר לדיווח בינה מלאכותית, שבה נידונים הסיכונים הפוטנציאליים לצד היתרונות, ובה מדע ה-AI מוצג בצורה מדויקת ונגישה לציבור הרחב.


המלצות: לקראת דיווח AI מאוזן

כדי להתמודד עם המגמה הנוכחית של כותרות AI מעוררות פחד, המחקר מציע מספר המלצות. ראשית, הוא קורא לפיתוח אונטולוגיה של חדשות בינה מלאכותית המבדילה בין בינה מלאכותית כמדע לבין יישומי בינה מלאכותית. זה יכול לעזור לעיתונאים ולכלי תקשורת לספק סיקור מדויק ועשיר יותר בהקשר של נושאי בינה מלאכותית.


שנית, המחקר מציע שכלי תקשורת משתפים פעולה עם מומחי בינה מלאכותית כדי לייצר דיווח מושכל ומאוזן יותר. שיתוף פעולה זה עשוי לכלול בדיקת עובדות קבועה ופרשנות מומחים כדי להבטיח שהחדשות הקשורות לבינה מלאכותית אינן רק סנסציוניות אלא גם אינפורמטיביות ומבוססות על המציאות.


לבסוף, המחקר מדגיש את חשיבות החינוך הציבורי בנושא בינה מלאכותית. על ידי שיפור ההבנה של האוכלוסייה הכללית לגבי בינה מלאכותית והשלכותיה, קל יותר לטפח שיח ציבורי מושכל ורציונלי יותר על בינה מלאכותית, תוך צמצום ההשפעה של כותרות מעוררות פחד.


מַסְקָנָה

המחקר מאוניברסיטת רוטגרס שופך אור על התפקיד החשוב שממלאות כותרות החדשות בעיצוב תפיסות הציבור לגבי AI. ככל שבינה מלאכותית ממשיכה להתפתח ולהשתלב בהיבטים שונים של החברה, חשוב שהדיווח בתקשורת על בינה מלאכותית יהיה מאוזן, מדויק ונקי מסנסציוניות מיותרת. על ידי אימוץ המלצות המחקר, נוכל לפעול למען נוף תקשורתי שיידע את הציבור על AI באופן שמעצים ולא מפחיד.



המאמר מבוסס על מחקר זה: סמואל, ג'ים, טניה חאנה וסריניוואסאראגהבן סונדאר. "פחד מבינה מלאכותית? גילוי מבוסס NLP, ML ו-LLM של AI-פוביה והפצת רגשות פחד על ידי חדשות AI." NLP, ML ו-LLMs מבוסס גילוי של AI-phobia and Fear Sentiment Propagation by AI News (2024).