Зустрічі Google TGIF давно стали ознакою відкритого діалогу та прозорості в компанії. Ці щомісячні зустрічі дозволили співробітникам поставити важкі запитання та почути прямі відповіді від вищого керівництва, включаючи генерального директора Сундар Пічаї. Однак останні зміни в цих зустрічах розчаровують багатьох працівників.
На початку цього року Google представив новий інструмент штучного інтелекту під назвою Ask, який спрощує процес запитань і відповідей на зустрічах TGIF. Хоча намір цього кроку полягав у тому, щоб зробити речі ефективнішими, багато співробітників Google вважають, що штучний інтелект робить більше, ніж підсумовує запити — він пом’якшує їх. Зараз співробітники сумніваються, чи розроблено Ask для того, щоб уникнути вирішення важких проблем, з якими вони хочуть, щоб керівництво зіткнулося.
Новий інструмент штучного інтелекту від Google суттєво змінив роботу зустрічей TGIF. Раніше співробітники могли надсилати свої запити через платформу під назвою Dory, де інші могли голосувати за найактуальніші чи популярні запити. Тоді керівництво відповість на питання, які найбільше підтримують, навіть якщо вони будуть з більш незручного боку.
Однак Google нещодавно замінив Dory на Ask, систему на базі штучного інтелекту, яка тепер об’єднує та узагальнює теми співробітників для обговорення. За словами Google, ця зміна мала на меті спростити процес, уникнути повторюваності та дозволити лідерам відповідати на більше запитів.
На папері це виглядає як перемога в ефективності. Компанія навіть стверджує, що залученість зросла, з
Не всі переконані. Деякі співробітники вважають, що інструмент «Запитати» не тільки забезпечує безперебійну роботу зустрічей. Підсумки штучного інтелекту пом’якшують тон гострих запитань, усуваючи різкість із запитів, які колись були прямими та складними. Критики стверджують, що це дозволяє керівництву обходити проблеми, замінюючи колись відверті дискусії більш контрольованими, дезінфікованими відповідями.
Для багатьох зустрічі стали менш цікавими. Деякі працівники навіть припинили відвідувати заняття, вважаючи, що більше немає можливості поставити важкі запитання. У результаті зростає побоювання, що керівництво Google використовує Ask для керування розповіддю.
Поява інструменту Google Ask піднімає важливе питання: чи можуть подібні інструменти ШІ змінити внутрішню комунікацію в компаніях за межами Google? Хоча Ask спрямований на підвищення ефективності, його здатність пом’якшувати та фільтрувати сумніви може становити потенційний ризик для компаній у всьому світі.
Безсумнівно, технологія проведення подій значно економить час і гроші. майже
Однак це також відкриває двері для лідерства, щоб обійти складні теми. Завдяки пом’якшенню мови — ці інструменти можуть полегшити відповідь на складні запитання — але це відбувається за рахунок прозорості.
На робочих місцях, де співробітники покладаються на відкриті форуми, щоб порушити питання, штучний інтелект може призвести до більшої кількості сценаріїв діалогів. Працівники можуть відчувати знеохочення ставити складні запитання, якщо вони вірять, що штучний інтелект розвіє їхні проблеми. Це може призвести до порушення довіри між членами команди та керівництвом, послаблення культури компанії.
Крім того, організації ризикують відштовхнути свою робочу силу, оскільки компанії все більше інтегрують ШІ для обробки більшої кількості аспектів комунікації. Працівники можуть розглядати ці інструменти як буфер для захисту керівництва, а не як сприяння більшій відкритості.
Оскільки прозорість має вирішальне значення для залучення працівників, неправильне використання штучного інтелекту може створити культуру розчарування та поганої комунікації, що призведе до витрат установ
Такі інструменти, як Ask, викликають серйозні сумніви щодо прозорості та чесності внутрішнього діалогу. Основне занепокоєння систем, керованих штучним інтелектом, полягає в тому, що вони можуть не дати членам команди висловлювати справжні занепокоєння.
Узагальнюючи або перефразуючи запити, ці інструменти ризикують позбавити терміновості чи тону критичного відгуку. Це може створити середовище, яке захищає лідерів від реальних настроїв співробітників, ускладнюючи висвітлення реальних проблем.
Дослідження підтвердили ці побоювання. Дослідження показали, що деяким алгоритмам машинного навчання (ML) не вистачає прозорості та узгодженості (часто відомих як алгоритми «чорного ящика»), які запобігають будь-якому виявленню упереджень.
Це піднімає питання щодо підзвітності та відповідальності компаній, які використовують такі системи. У випадку з Google інструмент Ask міг завадити лідерству
Крім того, зростаюча кількість досліджень показує, що організації повинні бути готові до вирішення цих етичних дилем. Дослідження виявили, що
Коли керівництво покладається на штучний інтелект для фільтрації запитань співробітників, чи справді воно взаємодіє зі своєю робочою силою? AI є чудовим інструментом для керування навантаженнями зв’язку. Проте компанії повинні уникати використання цього для дистанціювання від реальності, з якою стикаються їхні співробітники.
Використовуючи штучний інтелект, компаніям слід надавати пріоритет прозорості, гарантуючи, що співробітники відчувають себе чітко почутими без втручання з боку алгоритмів, які можуть спотворити їхні початкові наміри. Маючи це на увазі, ось кілька способів підтримувати прозорість зустрічей за допомогою інструментів ШІ, таких як Ask.
Незважаючи на те, що штучний інтелект революціонізує роботу компаній, співробітники все одно повинні мати прямі можливості висловити занепокоєння щодо того, як вони використовують ці інструменти. Компанії повинні заохочувати працівників надавати інформацію про те, як системи ШІ впливають на комунікацію.
Ця стратегія допоможе лідерам усвідомити вплив, який створює технологія, незалежно від того, підвищує прозорість чи зменшує її. Таким чином, вони можуть внести корективи, щоб усунути будь-який брак відкритості чи чесності, перш ніж інструменти штучного інтелекту скомпрометують довіру.
Покладатися виключно на штучний інтелект для публікації запитів співробітників може бути ризиковано
Вони також могли б надати співробітникам автономію для посилення своїх запитів, якщо вони вважають, що процеси штучного інтелекту є неадекватними. Увімкнувши ці параметри, керівники можуть брати на себе відповідальність у вирішенні делікатних питань.
Керівники організацій також повинні забезпечити повні та справедливі відповіді. Це запобігає сприйняттю, що вони використовують ці інструменти для ухилення від складних тем. Ця тактика також гарантує більш цілеспрямовані обговорення, оскільки ШІ забезпечує збалансоване представлення проблем, що призводить до більшої довіри та відкритого спілкування.
Оскільки все більше компаній використовують інструменти штучного інтелекту для управління внутрішніми комунікаціями, життєво важливо переконатися, що ці технології не зашкодять прозорості. Можливо, штучний інтелект зможе оптимізувати зустрічі, але компанії повинні бути обережними, щоб ці системи не розвівали хвилювання співробітників. Натомість їм слід знайти баланс, щоб зберегти довіру працівників і забезпечити, щоб технологія створювала зв’язки, а не розділення.