פגישות ה-TGIF של גוגל היו מזמן סימן היכר של דיאלוג פתוח ושקיפות בתוך החברה. ההתכנסויות החודשיות הללו אפשרו לעובדים לשאול שאלות קשות ולשמוע תשובות ישרות מהבכירים, כולל המנכ"ל סונדאר פיצ'אי. עם זאת, השינויים האחרונים בפגישות אלו מותירים עובדים רבים מאוכזבים.
מוקדם יותר השנה, גוגל הציגה כלי AI חדש בשם Ask, אשר מייעל את תהליך השאלות והתשובות בפגישות TGIF. בעוד שהכוונה מאחורי המהלך הזה הייתה להפוך את הדברים ליעילים יותר, אנשי גוגל רבים מרגישים שה-AI עושה יותר מאשר לסכם פניות - הוא מרכך אותם. עובדים שואלים כעת האם Ask נועד להימנע מטיפול בבעיות הקשות שהם רוצים שהמנהיגות תתמודד מולם.
כלי ה-AI החדש של גוגל שינה באופן משמעותי את אופן הפעולה של פגישות ה-TGIF שלה. בעבר, עובדים יכלו להגיש את השאילתות שלהם דרך פלטפורמה בשם Dory, שבה אחרים יכלו להצביע בעד השאלות הדוחקות או הפופולריות ביותר. אז מנהיגות הייתה מגיבה לשאלות המועדפות ביותר, גם אם הן היו בצד היותר לא נוח.
עם זאת, גוגל החליפה לאחרונה את דורי ב-Ask, מערכת המופעלת על ידי בינה מלאכותית אשר כעת מאחדת ומסכמת נושאי עובדים לדיון. לפי גוגל, המשמעות של השינוי הזה היא לייעל את התהליך, למנוע חזרתיות ולאפשר למנהיגים להתייחס ליותר פניות.
על הנייר, זה נראה כמו ניצחון ליעילות. החברה אף טוענת כי המעורבות גדלה, עם
לא כולם משוכנעים. חלק מהעובדים מרגישים שהכלי Ask עושה יותר מאשר לגרום לפגישות להתנהל בצורה חלקה. סיכומי הבינה המלאכותית מרככים את הטון של שאלות נוקבות יותר, ומסירים את הביס מפניות שהיו פעם ישירות ומאתגרות. המבקרים טוענים שהדבר מאפשר למנהיגות לעקוף נושאים, ולהחליף את הדיונים הגלויים של פעם בתגובות מבוקרות יותר ומטופחות.
עבור רבים, הפגישות הפכו פחות מרתקות. חלק מהעובדים אפילו הפסיקו להשתתף, בתחושה שההזדמנות לשאול שאלות קשות כבר לא קיימת. כתוצאה מכך, גובר החשש שההנהגה של גוגל משתמשת ב-Ask כדי לנהל את הנרטיב.
הצגת הכלי Ask של גוגל מעלה שאלה חשובה - האם כלי בינה מלאכותית כמו זה יכולים לעצב מחדש את התקשורת הפנימית בחברות מעבר לגוגל? בעוד שאסק שואפת לשפר את היעילות, היכולת שלה לרכך ולסנן ספקות עשויה להוות סיכון פוטנציאלי לעסקים בכל מקום.
אין ספק שטכנולוגיית אירועים היא חיסכון עצום בזמן וכסף. כִּמעַט
עם זאת, זה גם פותח את הדלת למנהיגות לעקוף נושאים מאתגרים. על ידי ריכוך השפה - הכלים האלה יכולים להקל על התשובה לשאלות קשות - אבל זה בא במחיר של שקיפות.
במקומות עבודה שבהם עובדים מסתמכים על פורומים פתוחים כדי להעלות עניינים, בינה מלאכותית יכולה להוביל לדיאלוגים מתוחכמים יותר. עובדים עשויים להרגיש מיואשים מלשאול שאלות קשות אם הם מאמינים שבינה מלאכותית תשכך את החששות שלהם. זה עלול לגרום להתמוטטות האמון בין חברי הצוות והמנהיגות, ולהחליש את תרבות החברה.
יתרה מכך, ארגונים מסתכנים בהרחקת כוח העבודה שלהם, כאשר חברות משלבות יותר ויותר בינה מלאכותית כדי לטפל בעוד היבטים של תקשורת. עובדים עשויים לראות בכלים אלה כחיץ להגנה על ההנהלה במקום לטפח פתיחות רבה יותר.
עם שקיפות חיונית למעורבות העובדים, השימוש לרעה ב-AI עלול ליצור תרבות של תסכול ותקשורת לקויה, ולעלות מפעלים
כלים כמו Ask מעלים ספקות רציניים לגבי שקיפות והגינות בדיאלוג פנימי. הדאגה העיקרית עם מערכות מונעות בינה מלאכותית היא שהן יכולות למנוע מחברי הצוות להעלות דאגות אמיתיות.
על ידי סיכום או ניסוח מחדש של פניות, הכלים הללו מסתכנים בהסרת הדחיפות או הטון של משוב ביקורתי. זה יכול ליצור סביבה שמגינה על מנהיגים מהמציאות של סנטימנט העובדים, ומקשה על נושאים אמיתיים להופיע.
מחקרים תמכו בחששות אלה. מחקרים הראו כי חלק מהאלגוריתמים של למידת מכונה (ML) חסרים שקיפות ועקביות - הידועים לרוב כאלגוריתמים של "קופסה שחורה" - אשר מונעים כל זיהוי של הטיות.
זה מעלה בעיות לגבי האחריות והאחריות של חברות המשתמשות במערכות כאלה. במקרה של גוגל, הכלי Ask יכול למנוע מנהיגות
יתרה מכך, גוף מחקר הולך וגדל מצביע על כך שארגונים חייבים להיות מוכנים להתמודד עם דילמות אתיות אלו. מחקרים מצאו את זה
כאשר מנהיגות מסתמכת על AI כדי לסנן שאלות של עובדים, האם היא באמת מעורבת עם כוח העבודה שלה? AI הוא כלי מצוין לניהול המון תקשורת. עם זאת, חברות חייבות להימנע משימוש בה כדי להרחיק את עצמן מהמציאות שעובדיהן מתמודדים עם.
בעת שימוש בבינה מלאכותית, עסקים צריכים לתת עדיפות לשקיפות, להבטיח שהעובדים ירגישו שהם נשמעים בבירור ללא הפרעות מאלגוריתמים שעלולים להטות את כוונתם המקורית. עם זאת בחשבון, הנה כמה דרכים לשמור על שקיפות בפגישות בעת שימוש בכלי AI כמו Ask.
בעוד שבינה מלאכותית מחוללת מהפכה באופן שבו חברות פועלות, לעובדים עדיין צריכים להיות דרכים ישירות להביע דאגות לגבי האופן שבו הם משתמשים בכלים האלה. עסקים צריכים לעודד עובדים לספק מידע לגבי האופן שבו מערכות בינה מלאכותית משפיעות על התקשורת.
אסטרטגיה זו תסייע למנהיגים להבין את ההשפעה שהטכנולוגיה יוצרת, בין אם מגבירים את השקיפות ובין אם שוחקים אותה. ככאלה, הם יכולים לבצע התאמות כדי להתמודד עם כל חוסר פתיחות או הוגנות לפני שכלי AI יפגעו באמון.
הסתמכות על AI בלבד כדי לפרסם שאילתות של עובדים עלולה להיות מסוכנת, כמו
הם יכולים גם לתת לעובדים את האוטונומיה להסלים את השאילתות שלהם אם הם מרגישים שהתהליכים של ה-AI אינם מספקים. על ידי הפעלת אפשרויות אלה, מנהלים עדיין יכולים לקחת אחריות בטיפול בעניינים עדינים.
מנהיגים ארגוניים צריכים גם להבטיח שהתגובות מלאות והוגנות. פעולה זו מונעת את התפיסה שהם משתמשים בכלים הללו כדי להתחמק מנושאים מאתגרים. טקטיקה זו גם מבטיחה דיונים תכליתיים יותר שכן בינה מלאכותית מספקת ייצוג מאוזן של הנושאים, וכתוצאה מכך יותר אמון ותקשורת פתוחה.
ככל שיותר עסקים משתמשים בכלי בינה מלאכותית לניהול תקשורת פנימית, חיוני להבטיח שהטכנולוגיות הללו לא יבואו במחיר של שקיפות. בינה מלאכותית אולי תוכל לייעל את הפגישות, אבל חברות חייבות להיזהר לא לתת למערכות הללו לדלל את חששות העובדים. במקום זאת, עליהם למצוא איזון כדי לשמור על אמון העובדים ולהבטיח שהטכנולוגיה בונה חיבור ולא חלוקה.