paint-brush
מדוע כלי ה-AI 'מנומס' של גוגל מרים גבות לעובדיםעל ידי@ehecks
2,130 קריאות
2,130 קריאות

מדוע כלי ה-AI 'מנומס' של גוגל מרים גבות לעובדים

על ידי Eleanor Hecks5m2024/09/13
Read on Terminal Reader

יותר מדי זמן; לקרוא

כלי ה-AI החדש של גוגל שינה באופן משמעותי את אופן הפעולה של פגישות ה-TGIF שלה. חלק מהעובדים מרגישים שהכלי Ask עושה יותר מאשר לגרום לפגישות להתנהל בצורה חלקה. המבקרים טוענים שהדבר מאפשר למנהיגות לעקוף נושאים, ולהחליף את הדיונים הגלויים של פעם בתגובות מבוקרות יותר ומטופחות. הדאגה העיקרית של מערכות בינה מלאכותית היא שהן יכולות למנוע מחברי הצוות להעלות דאגות אמיתיות.
featured image - מדוע כלי ה-AI 'מנומס' של גוגל מרים גבות לעובדים
Eleanor Hecks HackerNoon profile picture
0-item

פגישות ה-TGIF של גוגל היו מזמן סימן היכר של דיאלוג פתוח ושקיפות בתוך החברה. ההתכנסויות החודשיות הללו אפשרו לעובדים לשאול שאלות קשות ולשמוע תשובות ישרות מהבכירים, כולל המנכ"ל סונדאר פיצ'אי. עם זאת, השינויים האחרונים בפגישות אלו מותירים עובדים רבים מאוכזבים.


מוקדם יותר השנה, גוגל הציגה כלי AI חדש בשם Ask, אשר מייעל את תהליך השאלות והתשובות בפגישות TGIF. בעוד שהכוונה מאחורי המהלך הזה הייתה להפוך את הדברים ליעילים יותר, אנשי גוגל רבים מרגישים שה-AI עושה יותר מאשר לסכם פניות - הוא מרכך אותם. עובדים שואלים כעת האם Ask נועד להימנע מטיפול בבעיות הקשות שהם רוצים שהמנהיגות תתמודד מולם.

כלי הבינה המלאכותית של גוגל: שינוי בפגישות TGIF

כלי ה-AI החדש של גוגל שינה באופן משמעותי את אופן הפעולה של פגישות ה-TGIF שלה. בעבר, עובדים יכלו להגיש את השאילתות שלהם דרך פלטפורמה בשם Dory, שבה אחרים יכלו להצביע בעד השאלות הדוחקות או הפופולריות ביותר. אז מנהיגות הייתה מגיבה לשאלות המועדפות ביותר, גם אם הן היו בצד היותר לא נוח.

עם זאת, גוגל החליפה לאחרונה את דורי ב-Ask, מערכת המופעלת על ידי בינה מלאכותית אשר כעת מאחדת ומסכמת נושאי עובדים לדיון. לפי גוגל, המשמעות של השינוי הזה היא לייעל את התהליך, למנוע חזרתיות ולאפשר למנהיגים להתייחס ליותר פניות.


על הנייר, זה נראה כמו ניצחון ליעילות. החברה אף טוענת כי המעורבות גדלה, עם פי שניים ממספר עובדים שמשתתפים כעת בהגשה והצבעה על שאלות.


לא כולם משוכנעים. חלק מהעובדים מרגישים שהכלי Ask עושה יותר מאשר לגרום לפגישות להתנהל בצורה חלקה. סיכומי הבינה המלאכותית מרככים את הטון של שאלות נוקבות יותר, ומסירים את הביס מפניות שהיו פעם ישירות ומאתגרות. המבקרים טוענים שהדבר מאפשר למנהיגות לעקוף נושאים, ולהחליף את הדיונים הגלויים של פעם בתגובות מבוקרות יותר ומטופחות.


עבור רבים, הפגישות הפכו פחות מרתקות. חלק מהעובדים אפילו הפסיקו להשתתף, בתחושה שההזדמנות לשאול שאלות קשות כבר לא קיימת. כתוצאה מכך, גובר החשש שההנהגה של גוגל משתמשת ב-Ask כדי לנהל את הנרטיב.

ההשלכות הרחבות יותר של AI בתקשורת פנימית

הצגת הכלי Ask של גוגל מעלה שאלה חשובה - האם כלי בינה מלאכותית כמו זה יכולים לעצב מחדש את התקשורת הפנימית בחברות מעבר לגוגל? בעוד שאסק שואפת לשפר את היעילות, היכולת שלה לרכך ולסנן ספקות עשויה להוות סיכון פוטנציאלי לעסקים בכל מקום.


אין ספק שטכנולוגיית אירועים היא חיסכון עצום בזמן וכסף. כִּמעַט 90% מהעסקים משתמשים בטכנולוגיית אירועים חיסכון של כ-200 שעות בשנה - נתח עצום מזמנם של העובדים שמושקע טוב יותר בהיבטים היצירתיים יותר של תפקידם. עם זאת, יש חרדה אמיתית שהם יכולים להשתמש בכלים האלה כדי לשלוט בקולות העובדים. היכולת של בינה מלאכותית לסכם ולנסח שאילתות יכולה בהחלט לעזור למנוע יתירות.


עם זאת, זה גם פותח את הדלת למנהיגות לעקוף נושאים מאתגרים. על ידי ריכוך השפה - הכלים האלה יכולים להקל על התשובה לשאלות קשות - אבל זה בא במחיר של שקיפות.


במקומות עבודה שבהם עובדים מסתמכים על פורומים פתוחים כדי להעלות עניינים, בינה מלאכותית יכולה להוביל לדיאלוגים מתוחכמים יותר. עובדים עשויים להרגיש מיואשים מלשאול שאלות קשות אם הם מאמינים שבינה מלאכותית תשכך את החששות שלהם. זה עלול לגרום להתמוטטות האמון בין חברי הצוות והמנהיגות, ולהחליש את תרבות החברה.


יתרה מכך, ארגונים מסתכנים בהרחקת כוח העבודה שלהם, כאשר חברות משלבות יותר ויותר בינה מלאכותית כדי לטפל בעוד היבטים של תקשורת. עובדים עשויים לראות בכלים אלה כחיץ להגנה על ההנהלה במקום לטפח פתיחות רבה יותר.


עם שקיפות חיונית למעורבות העובדים, השימוש לרעה ב-AI עלול ליצור תרבות של תסכול ותקשורת לקויה, ולעלות מפעלים ממוצע של 1.2 טריליון דולר כל שנה.

האתיקה של ניסוח מחדש של חששות עובדים

כלים כמו Ask מעלים ספקות רציניים לגבי שקיפות והגינות בדיאלוג פנימי. הדאגה העיקרית עם מערכות מונעות בינה מלאכותית היא שהן יכולות למנוע מחברי הצוות להעלות דאגות אמיתיות.


על ידי סיכום או ניסוח מחדש של פניות, הכלים הללו מסתכנים בהסרת הדחיפות או הטון של משוב ביקורתי. זה יכול ליצור סביבה שמגינה על מנהיגים מהמציאות של סנטימנט העובדים, ומקשה על נושאים אמיתיים להופיע.


מחקרים תמכו בחששות אלה. מחקרים הראו כי חלק מהאלגוריתמים של למידת מכונה (ML) חסרים שקיפות ועקביות - הידועים לרוב כאלגוריתמים של "קופסה שחורה" - אשר מונעים כל זיהוי של הטיות.


זה מעלה בעיות לגבי האחריות והאחריות של חברות המשתמשות במערכות כאלה. במקרה של גוגל, הכלי Ask יכול למנוע מנהיגות מתוך הבנת העומק האמיתי של חששות עובדים, במיוחד לגבי שאלות רגישות.


יתרה מכך, גוף מחקר הולך וגדל מצביע על כך שארגונים חייבים להיות מוכנים להתמודד עם דילמות אתיות אלו. מחקרים מצאו את זה 84% ממנהלי משאבי אנוש צריך יותר כיוון כדי להבטיח שכלי AI חדשים יהיו הוגנים ובלתי משוחדים.


כאשר מנהיגות מסתמכת על AI כדי לסנן שאלות של עובדים, האם היא באמת מעורבת עם כוח העבודה שלה? AI הוא כלי מצוין לניהול המון תקשורת. עם זאת, חברות חייבות להימנע משימוש בה כדי להרחיק את עצמן מהמציאות שעובדיהן מתמודדים עם.

כיצד עסקים יכולים להשתמש בבינה מלאכותית תוך שמירה על תקשורת פנימית שקופה

בעת שימוש בבינה מלאכותית, עסקים צריכים לתת עדיפות לשקיפות, להבטיח שהעובדים ירגישו שהם נשמעים בבירור ללא הפרעות מאלגוריתמים שעלולים להטות את כוונתם המקורית. עם זאת בחשבון, הנה כמה דרכים לשמור על שקיפות בפגישות בעת שימוש בכלי AI כמו Ask.

1. הקמת ערוצים למשוב

בעוד שבינה מלאכותית מחוללת מהפכה באופן שבו חברות פועלות, לעובדים עדיין צריכים להיות דרכים ישירות להביע דאגות לגבי האופן שבו הם משתמשים בכלים האלה. עסקים צריכים לעודד עובדים לספק מידע לגבי האופן שבו מערכות בינה מלאכותית משפיעות על התקשורת.


אסטרטגיה זו תסייע למנהיגים להבין את ההשפעה שהטכנולוגיה יוצרת, בין אם מגבירים את השקיפות ובין אם שוחקים אותה. ככאלה, הם יכולים לבצע התאמות כדי להתמודד עם כל חוסר פתיחות או הוגנות לפני שכלי AI יפגעו באמון.

2. ליישם פיקוח אנושי

הסתמכות על AI בלבד כדי לפרסם שאילתות של עובדים עלולה להיות מסוכנת, כמו 71% מהעובדים שנסקרו ציינו שהם יאבדו אמון בבינה מלאכותית אם היא תפיק תפוקות לא מדויקות באופן עקבי. לכן הפיקוח האנושי הוא קריטי. מנהיגים עסקיים צריכים לשלב מערכת שבה מפקחים אנושיים בודקים שאלות רגישות כדי לוודא שבינה מלאכותית אינה מייצגת שום נושא חשוב.


הם יכולים גם לתת לעובדים את האוטונומיה להסלים את השאילתות שלהם אם הם מרגישים שהתהליכים של ה-AI אינם מספקים. על ידי הפעלת אפשרויות אלה, מנהלים עדיין יכולים לקחת אחריות בטיפול בעניינים עדינים.

3. הפעל כלי בינה מלאכותית כדי לספק תגובות מאוזנות

מנהיגים ארגוניים צריכים גם להבטיח שהתגובות מלאות והוגנות. פעולה זו מונעת את התפיסה שהם משתמשים בכלים הללו כדי להתחמק מנושאים מאתגרים. טקטיקה זו גם מבטיחה דיונים תכליתיים יותר שכן בינה מלאכותית מספקת ייצוג מאוזן של הנושאים, וכתוצאה מכך יותר אמון ותקשורת פתוחה.

איזון בין יעילות ושקיפות

ככל שיותר עסקים משתמשים בכלי בינה מלאכותית לניהול תקשורת פנימית, חיוני להבטיח שהטכנולוגיות הללו לא יבואו במחיר של שקיפות. בינה מלאכותית אולי תוכל לייעל את הפגישות, אבל חברות חייבות להיזהר לא לתת למערכות הללו לדלל את חששות העובדים. במקום זאת, עליהם למצוא איזון כדי לשמור על אמון העובדים ולהבטיח שהטכנולוגיה בונה חיבור ולא חלוקה.



L O A D I N G
. . . comments & more!

About Author

Eleanor Hecks HackerNoon profile picture
Eleanor Hecks@ehecks
Eleanor is the editor-in-chief of Designerly Magazine, where she covers leadership, business technology and more.

תלו תגים

מאמר זה הוצג ב...