paint-brush
Waarom Google's 'Polite' AI-tool de wenkbrauwen van werknemers doet fronsendoor@ehecks
Nieuwe geschiedenis

Waarom Google's 'Polite' AI-tool de wenkbrauwen van werknemers doet fronsen

door Eleanor Hecks5m2024/09/13
Read on Terminal Reader

Te lang; Lezen

De nieuwe AI-tool van Google heeft de manier waarop TGIF-vergaderingen verlopen aanzienlijk veranderd. Sommige werknemers vinden dat de Ask-tool meer doet dan vergaderingen soepel laten verlopen. Critici beweren dat dit het leiderschap in staat stelt om problemen te omzeilen en de ooit openhartige discussies te vervangen door meer gecontroleerde, gezuiverde reacties. De grootste zorg met AI-systemen is dat ze teamleden ervan kunnen weerhouden om oprechte zorgen te uiten.
featured image - Waarom Google's 'Polite' AI-tool de wenkbrauwen van werknemers doet fronsen
Eleanor Hecks HackerNoon profile picture
0-item

De TGIF-bijeenkomsten van Google zijn al lang een kenmerk van open dialoog en transparantie binnen het bedrijf. Deze maandelijkse bijeenkomsten stelden werknemers in staat om lastige vragen te stellen en rechtstreekse antwoorden te horen van de top, waaronder CEO Sundar Pichai. Recente wijzigingen in deze bijeenkomsten zorgen er echter voor dat veel werknemers teleurgesteld zijn.


Eerder dit jaar introduceerde Google een nieuwe AI-tool genaamd Ask, die het vraag-en-antwoordproces bij TGIF-vergaderingen stroomlijnt. Hoewel de bedoeling achter deze stap was om dingen efficiënter te maken, vinden veel Googlers dat de AI meer doet dan alleen vragen samenvatten — het verzacht ze. Werknemers vragen zich nu af of Ask is ontworpen om de hardnekkige problemen die ze door het leiderschap willen laten aanpakken, te vermijden.

Google's AI-tool: een verschuiving in TGIF-vergaderingen

De nieuwe AI-tool van Google heeft de manier waarop TGIF-vergaderingen verlopen aanzienlijk veranderd. Voorheen konden werknemers hun vragen indienen via een platform genaamd Dory, waar anderen de meest urgente of populaire vragen konden upvoten. Leidinggevenden reageerden vervolgens op de meest upvote vragen, zelfs als ze zich ongemakkelijker voelden.

Google heeft Dory echter onlangs vervangen door Ask, een AI-gestuurd systeem dat nu onderwerpen van werknemers consolideert en samenvat voor discussie. Volgens Google was het de bedoeling dat deze verandering het proces zou stroomlijnen, herhaling zou voorkomen en leiders in staat zou stellen meer vragen te beantwoorden.


Op papier lijkt het een overwinning voor efficiëntie. Het bedrijf beweert zelfs dat de betrokkenheid is toegenomen, met nu twee keer zoveel werknemers die deelnemen bij het indienen en stemmen over vragen.


Niet iedereen is overtuigd. Sommige werknemers vinden dat de Ask-tool meer doet dan vergaderingen soepel laten verlopen. De samenvattingen van de AI verzachten de toon van meer gerichte vragen, waardoor de scherpte van vragen die ooit direct en uitdagend waren, wordt weggenomen. Critici beweren dat dit het leiderschap in staat stelt om problemen te omzeilen, en de ooit openhartige discussies te vervangen door meer gecontroleerde, opgeschoonde antwoorden.


Voor velen zijn de vergaderingen minder boeiend geworden. Sommige werknemers zijn er zelfs mee gestopt, omdat ze het gevoel hebben dat de mogelijkheid om lastige vragen te stellen niet meer bestaat. Als gevolg daarvan groeit de angst dat de leiding van Google Ask gebruikt om het verhaal te beheren.

De bredere implicaties van AI in interne communicatie

De introductie van Google's Ask-tool roept een belangrijke vraag op: kunnen AI-tools als deze de interne communicatie in bedrijven buiten Google veranderen? Hoewel Ask de efficiëntie wil verbeteren, kan het vermogen om twijfels weg te nemen en te filteren een potentieel risico vormen voor bedrijven overal ter wereld.


Er bestaat geen twijfel over dat evenemententechnologie een enorme tijd- en geldbesparing is. Bijna 90% van de bedrijven maakt gebruik van eventtechnologie bespaar ongeveer 200 uur per jaar — een enorm deel van de tijd van werknemers die beter besteed kan worden aan de meer creatieve aspecten van hun rol. Er is echter een echte angst dat ze deze tools zouden kunnen gebruiken om de stemmen van werknemers te controleren. De capaciteit van AI om vragen samen te vatten en te parafraseren kan zeker helpen redundanties te voorkomen.


Het opent echter ook de deur voor leiderschap om uitdagende onderwerpen te omzeilen. Door de taal te verzachten — deze tools kunnen lastige vragen makkelijker te beantwoorden maken — maar dat gaat ten koste van transparantie.


Op werkplekken waar werknemers vertrouwen op open fora om zaken aan te kaarten, kan AI leiden tot meer gescripte dialogen. Werknemers kunnen zich ontmoedigd voelen om moeilijke vragen te stellen als ze denken dat AI hun zorgen zal verwateren. Dit kan leiden tot een vertrouwensbreuk tussen teamleden en leiderschap, wat de bedrijfscultuur verzwakt.


Bovendien lopen organisaties het risico hun personeel te vervreemden, omdat bedrijven steeds meer AI integreren om meer aspecten van communicatie te verwerken. Werknemers zien deze tools mogelijk als een buffer om het management te beschermen in plaats van om meer openheid te bevorderen.


Omdat transparantie cruciaal is voor de betrokkenheid van werknemers, kan het misbruik van AI een cultuur van frustratie en slechte communicatie creëren, wat bedrijven geld kan kosten. gemiddeld $1,2 biljoen elk jaar.

De ethiek van het herformuleren van werknemerszorgen

Tools als Ask roepen serieuze twijfels op over transparantie en eerlijkheid in interne dialoog. De grootste zorg met AI-gestuurde systemen is dat ze teamleden ervan kunnen weerhouden om oprechte zorgen te uiten.


Door vragen samen te vatten of te herformuleren, riskeren deze tools de urgentie of toon van kritische feedback weg te nemen. Dit zou een omgeving kunnen creëren die leiders afschermt van de realiteit van werknemerssentiment, waardoor het moeilijker wordt om echte problemen aan de oppervlakte te brengen.


Onderzoek heeft deze zorgen ondersteund. Studies hebben aangetoond dat sommige machine learning (ML)-algoritmen transparantie en consistentie missen — vaak bekend als "black box"-algoritmen — waardoor er geen vooroordelen kunnen worden gedetecteerd.


Dit roept vragen op over de verantwoording en verantwoordelijkheid van bedrijven die dergelijke systemen gebruiken. In het geval van Google zou de Ask-tool leiderschap kunnen verhinderen van het begrijpen van de ware diepte van zorgen van werknemers, vooral met betrekking tot gevoelige kwesties.


Bovendien geeft een groeiend aantal onderzoeken aan dat organisaties voorbereid moeten zijn om met deze ethische dilemma's om te gaan. Studies hebben aangetoond dat 84% van de HR-managers Er is meer sturing nodig om ervoor te zorgen dat nieuwe AI-tools eerlijk en onpartijdig zijn.


Wanneer leiderschap vertrouwt op AI om vragen van werknemers te filteren, is het dan echt betrokken bij het personeel? AI is een uitstekend hulpmiddel voor het beheren van ladingen communicatie. Toch moeten bedrijven vermijden om het te gebruiken om afstand te nemen van de realiteit waarmee hun werknemers worden geconfronteerd.

Hoe bedrijven AI kunnen gebruiken en tegelijkertijd transparante interne communicatie kunnen behouden

Bij het gebruik van AI moeten bedrijven prioriteit geven aan transparantie, zodat werknemers zich duidelijk gehoord voelen zonder inmenging van algoritmes die hun oorspronkelijke bedoeling kunnen verstoren. Met dat in gedachten, volgen hier een paar manieren om transparantie te behouden in vergaderingen bij het gebruik van AI-tools zoals Ask.

1. Creëer kanalen voor feedback

Hoewel AI de manier waarop bedrijven opereren revolutioneert, moeten werknemers nog steeds directe mogelijkheden hebben om zorgen te uiten over hoe ze deze tools gebruiken. Bedrijven moeten werknemers aanmoedigen om input te leveren over hoe AI-systemen communicatie beïnvloeden.


Deze strategie zal leiders helpen de impact te realiseren die de technologie creëert, of het nu transparantie vergroot of juist ondermijnt. Zo kunnen ze aanpassingen doen om een gebrek aan openheid of eerlijkheid aan te pakken voordat AI-tools het vertrouwen in gevaar brengen.

2. Implementeer menselijk toezicht

Het kan riskant zijn om uitsluitend op AI te vertrouwen om vragen van werknemers te stellen, omdat 71% van de ondervraagde werknemers aangehaald dat ze het vertrouwen in AI zouden verliezen als het consistent onnauwkeurige uitkomsten zou produceren. Daarom is menselijk toezicht cruciaal. Bedrijfsleiders zouden een systeem moeten integreren waarin menselijke supervisors gevoelige vragen beoordelen om ervoor te zorgen dat AI geen belangrijke kwesties verkeerd voorstelt.


Ze zouden werknemers ook de autonomie kunnen geven om hun vragen te escaleren als ze vinden dat de processen van de AI ontoereikend zijn. Door deze opties in te schakelen, kunnen leidinggevenden nog steeds verantwoordelijkheid nemen bij het afhandelen van delicate kwesties.

3. Zorg dat AI-hulpmiddelen evenwichtige antwoorden kunnen bieden

Organisatieleiders moeten er ook voor zorgen dat reacties compleet en eerlijk zijn. Dit voorkomt de perceptie dat ze deze tools gebruiken om uitdagende onderwerpen te ontwijken. Deze tactiek garandeert ook meer doelgerichte discussies, omdat AI een evenwichtige weergave van de problemen biedt, wat resulteert in meer vertrouwen en open communicatie.

Balans tussen efficiëntie en transparantie

Naarmate meer bedrijven AI-tools gebruiken om interne communicatie te beheren, is het van vitaal belang om ervoor te zorgen dat deze technologieën niet ten koste gaan van transparantie. AI kan vergaderingen stroomlijnen, maar bedrijven moeten oppassen dat deze systemen de zorgen van werknemers niet verwateren. In plaats daarvan moeten ze een balans vinden om het vertrouwen van werknemers te behouden en ervoor te zorgen dat de technologie verbinding creëert in plaats van verdeeldheid.



L O A D I N G
. . . comments & more!

About Author

Eleanor Hecks HackerNoon profile picture
Eleanor Hecks@ehecks
Eleanor is the editor-in-chief of Designerly Magazine, where she covers leadership, business technology and more.

LABELS

DIT ARTIKEL WERD GEPRESENTEERD IN...