De TGIF-bijeenkomsten van Google zijn al lang een kenmerk van open dialoog en transparantie binnen het bedrijf. Deze maandelijkse bijeenkomsten stelden werknemers in staat om lastige vragen te stellen en rechtstreekse antwoorden te horen van de top, waaronder CEO Sundar Pichai. Recente wijzigingen in deze bijeenkomsten zorgen er echter voor dat veel werknemers teleurgesteld zijn.
Eerder dit jaar introduceerde Google een nieuwe AI-tool genaamd Ask, die het vraag-en-antwoordproces bij TGIF-vergaderingen stroomlijnt. Hoewel de bedoeling achter deze stap was om dingen efficiënter te maken, vinden veel Googlers dat de AI meer doet dan alleen vragen samenvatten — het verzacht ze. Werknemers vragen zich nu af of Ask is ontworpen om de hardnekkige problemen die ze door het leiderschap willen laten aanpakken, te vermijden.
De nieuwe AI-tool van Google heeft de manier waarop TGIF-vergaderingen verlopen aanzienlijk veranderd. Voorheen konden werknemers hun vragen indienen via een platform genaamd Dory, waar anderen de meest urgente of populaire vragen konden upvoten. Leidinggevenden reageerden vervolgens op de meest upvote vragen, zelfs als ze zich ongemakkelijker voelden.
Google heeft Dory echter onlangs vervangen door Ask, een AI-gestuurd systeem dat nu onderwerpen van werknemers consolideert en samenvat voor discussie. Volgens Google was het de bedoeling dat deze verandering het proces zou stroomlijnen, herhaling zou voorkomen en leiders in staat zou stellen meer vragen te beantwoorden.
Op papier lijkt het een overwinning voor efficiëntie. Het bedrijf beweert zelfs dat de betrokkenheid is toegenomen, met
Niet iedereen is overtuigd. Sommige werknemers vinden dat de Ask-tool meer doet dan vergaderingen soepel laten verlopen. De samenvattingen van de AI verzachten de toon van meer gerichte vragen, waardoor de scherpte van vragen die ooit direct en uitdagend waren, wordt weggenomen. Critici beweren dat dit het leiderschap in staat stelt om problemen te omzeilen, en de ooit openhartige discussies te vervangen door meer gecontroleerde, opgeschoonde antwoorden.
Voor velen zijn de vergaderingen minder boeiend geworden. Sommige werknemers zijn er zelfs mee gestopt, omdat ze het gevoel hebben dat de mogelijkheid om lastige vragen te stellen niet meer bestaat. Als gevolg daarvan groeit de angst dat de leiding van Google Ask gebruikt om het verhaal te beheren.
De introductie van Google's Ask-tool roept een belangrijke vraag op: kunnen AI-tools als deze de interne communicatie in bedrijven buiten Google veranderen? Hoewel Ask de efficiëntie wil verbeteren, kan het vermogen om twijfels weg te nemen en te filteren een potentieel risico vormen voor bedrijven overal ter wereld.
Er bestaat geen twijfel over dat evenemententechnologie een enorme tijd- en geldbesparing is. Bijna
Het opent echter ook de deur voor leiderschap om uitdagende onderwerpen te omzeilen. Door de taal te verzachten — deze tools kunnen lastige vragen makkelijker te beantwoorden maken — maar dat gaat ten koste van transparantie.
Op werkplekken waar werknemers vertrouwen op open fora om zaken aan te kaarten, kan AI leiden tot meer gescripte dialogen. Werknemers kunnen zich ontmoedigd voelen om moeilijke vragen te stellen als ze denken dat AI hun zorgen zal verwateren. Dit kan leiden tot een vertrouwensbreuk tussen teamleden en leiderschap, wat de bedrijfscultuur verzwakt.
Bovendien lopen organisaties het risico hun personeel te vervreemden, omdat bedrijven steeds meer AI integreren om meer aspecten van communicatie te verwerken. Werknemers zien deze tools mogelijk als een buffer om het management te beschermen in plaats van om meer openheid te bevorderen.
Omdat transparantie cruciaal is voor de betrokkenheid van werknemers, kan het misbruik van AI een cultuur van frustratie en slechte communicatie creëren, wat bedrijven geld kan kosten.
Tools als Ask roepen serieuze twijfels op over transparantie en eerlijkheid in interne dialoog. De grootste zorg met AI-gestuurde systemen is dat ze teamleden ervan kunnen weerhouden om oprechte zorgen te uiten.
Door vragen samen te vatten of te herformuleren, riskeren deze tools de urgentie of toon van kritische feedback weg te nemen. Dit zou een omgeving kunnen creëren die leiders afschermt van de realiteit van werknemerssentiment, waardoor het moeilijker wordt om echte problemen aan de oppervlakte te brengen.
Onderzoek heeft deze zorgen ondersteund. Studies hebben aangetoond dat sommige machine learning (ML)-algoritmen transparantie en consistentie missen — vaak bekend als "black box"-algoritmen — waardoor er geen vooroordelen kunnen worden gedetecteerd.
Dit roept vragen op over de verantwoording en verantwoordelijkheid van bedrijven die dergelijke systemen gebruiken. In het geval van Google zou de Ask-tool leiderschap kunnen verhinderen
Bovendien geeft een groeiend aantal onderzoeken aan dat organisaties voorbereid moeten zijn om met deze ethische dilemma's om te gaan. Studies hebben aangetoond dat
Wanneer leiderschap vertrouwt op AI om vragen van werknemers te filteren, is het dan echt betrokken bij het personeel? AI is een uitstekend hulpmiddel voor het beheren van ladingen communicatie. Toch moeten bedrijven vermijden om het te gebruiken om afstand te nemen van de realiteit waarmee hun werknemers worden geconfronteerd.
Bij het gebruik van AI moeten bedrijven prioriteit geven aan transparantie, zodat werknemers zich duidelijk gehoord voelen zonder inmenging van algoritmes die hun oorspronkelijke bedoeling kunnen verstoren. Met dat in gedachten, volgen hier een paar manieren om transparantie te behouden in vergaderingen bij het gebruik van AI-tools zoals Ask.
Hoewel AI de manier waarop bedrijven opereren revolutioneert, moeten werknemers nog steeds directe mogelijkheden hebben om zorgen te uiten over hoe ze deze tools gebruiken. Bedrijven moeten werknemers aanmoedigen om input te leveren over hoe AI-systemen communicatie beïnvloeden.
Deze strategie zal leiders helpen de impact te realiseren die de technologie creëert, of het nu transparantie vergroot of juist ondermijnt. Zo kunnen ze aanpassingen doen om een gebrek aan openheid of eerlijkheid aan te pakken voordat AI-tools het vertrouwen in gevaar brengen.
Het kan riskant zijn om uitsluitend op AI te vertrouwen om vragen van werknemers te stellen, omdat
Ze zouden werknemers ook de autonomie kunnen geven om hun vragen te escaleren als ze vinden dat de processen van de AI ontoereikend zijn. Door deze opties in te schakelen, kunnen leidinggevenden nog steeds verantwoordelijkheid nemen bij het afhandelen van delicate kwesties.
Organisatieleiders moeten er ook voor zorgen dat reacties compleet en eerlijk zijn. Dit voorkomt de perceptie dat ze deze tools gebruiken om uitdagende onderwerpen te ontwijken. Deze tactiek garandeert ook meer doelgerichte discussies, omdat AI een evenwichtige weergave van de problemen biedt, wat resulteert in meer vertrouwen en open communicatie.
Naarmate meer bedrijven AI-tools gebruiken om interne communicatie te beheren, is het van vitaal belang om ervoor te zorgen dat deze technologieën niet ten koste gaan van transparantie. AI kan vergaderingen stroomlijnen, maar bedrijven moeten oppassen dat deze systemen de zorgen van werknemers niet verwateren. In plaats daarvan moeten ze een balans vinden om het vertrouwen van werknemers te behouden en ervoor te zorgen dat de technologie verbinding creëert in plaats van verdeeldheid.