paint-brush
Proč „zdvořilý“ nástroj umělé inteligence od Googlu zvedá obočí zaměstnancůpodle@ehecks
Nová historie

Proč „zdvořilý“ nástroj umělé inteligence od Googlu zvedá obočí zaměstnanců

podle Eleanor Hecks5m2024/09/13
Read on Terminal Reader

Příliš dlouho; Číst

Nový nástroj AI společnosti Google výrazně změnil způsob, jakým fungují schůzky TGIF. Někteří zaměstnanci se domnívají, že nástroj Zeptat se umí víc než jen zajistit hladký průběh schůzek. Kritici tvrdí, že to vedení umožňuje vyhýbat se problémům a nahrazovat kdysi upřímné diskuse kontrolovanějšími a hygieničtějšími reakcemi. Hlavním problémem systémů umělé inteligence je to, že by mohly zabránit členům týmu, aby vyjadřovali skutečné obavy.
featured image - Proč „zdvořilý“ nástroj umělé inteligence od Googlu zvedá obočí zaměstnanců
Eleanor Hecks HackerNoon profile picture
0-item

Schůzky Google TGIF jsou již dlouho charakteristickým znakem otevřeného dialogu a transparentnosti v rámci společnosti. Tato měsíční setkání umožnila zaměstnancům klást těžké otázky a slyšet přímé odpovědi od předních představitelů, včetně generálního ředitele Sundara Pichaie. Nedávné změny těchto schůzek však mnohé zaměstnance zklamaly.


Začátkem tohoto roku Google představil nový nástroj AI s názvem Ask, který zjednodušuje proces otázek a odpovědí na setkáních TGIF. Zatímco záměrem tohoto kroku bylo zefektivnit věci, mnoho zaměstnanců společnosti Google má pocit, že AI dělá více než jen shrnutí dotazů – zmírňuje je. Zaměstnanci se nyní ptají, zda byl Ask navržen tak, aby se vyhnul řešení vážných problémů, kterým chtějí vedení čelit.

Nástroj AI od Googlu: Posun v schůzkách TGIF

Nový nástroj AI od Googlu výrazně změnil způsob, jakým fungují jeho schůzky TGIF. Dříve mohli zaměstnanci zadávat své dotazy prostřednictvím platformy zvané Dory, kde ostatní mohli hlasovat pro nejnaléhavější nebo nejoblíbenější dotazy. Vedení by pak odpovědělo na nejvíce hlasované otázky, i když byly na nepohodlnější straně.

Google však nedávno nahradil Dory systémem Ask, systémem poháněným umělou inteligencí, který nyní konsoliduje a shrnuje témata zaměstnanců k diskusi. Podle Googlu to pro tuto změnu znamenalo zefektivnit proces, vyhnout se opakování a umožnit lídrům řešit více dotazů.


Na papíře to vypadá jako výhra pro efektivitu. Společnost dokonce tvrdí, že se zvýšila angažovanost nyní se účastní dvojnásobný počet zaměstnanců při zasílání a hlasování o otázkách.


Ne všichni jsou přesvědčeni. Někteří zaměstnanci se domnívají, že nástroj Zeptat se umí víc než jen zajistit hladký průběh schůzek. Souhrny AI zmírňují tón vyhrocenějších otázek a odstraňují sousto z dotazů, které byly kdysi přímé a náročné. Kritici tvrdí, že to vedení umožňuje vyhýbat se problémům a nahrazovat kdysi upřímné diskuse kontrolovanějšími a hygieničtějšími reakcemi.


Pro mnohé se setkání stala méně poutavou. Někteří pracovníci dokonce přestali chodit, protože měli pocit, že příležitost klást těžké otázky už neexistuje. V důsledku toho narůstají obavy, že vedení společnosti Google používá Ask ke správě příběhu.

Širší implikace umělé inteligence v interní komunikaci

Představení nástroje Ask společnosti Google vyvolává důležitou otázku – mohly by nástroje umělé inteligence, jako je tento, přetvořit interní komunikaci ve společnostech mimo Google? Zatímco Ask si klade za cíl zlepšit efektivitu, jeho schopnost změkčit a filtrovat pochybnosti může být potenciálním rizikem pro podniky po celém světě.


Není pochyb o tom, že technologie pro pořádání akcí výrazně šetří čas a peníze. Téměř 90 % firem používá technologii pro pořádání akcí ušetříte přibližně 200 hodin ročně – obrovský kus času zaměstnanců, který je lepší věnovat kreativnějším aspektům své role. Existuje však skutečná obava, že by tyto nástroje mohli používat k ovládání hlasů zaměstnanců. Schopnost umělé inteligence sumarizovat a parafrázovat dotazy může jistě pomoci vyhnout se nadbytečnosti.


Také to však otevírá dveře vedení, aby se vyhnulo náročným tématům. Změkčením jazyka – tyto nástroje mohou usnadnit zodpovězení náročných otázek – ale jde o cenu transparentnosti.


Na pracovištích, kde se zaměstnanci při řešení záležitostí spoléhají na otevřená fóra, by umělá inteligence mohla vést k více skriptovaným dialogům. Zaměstnanci se mohou cítit odrazováni od kladení obtížných otázek, pokud věří, že umělá inteligence jejich obavy zmírní. To by mohlo vést k rozpadu důvěry mezi členy týmu a vedením, což by oslabilo firemní kulturu.


Organizace navíc riskují odcizení své pracovní síly, protože společnosti stále více integrují AI, aby zvládly více aspektů komunikace. Zaměstnanci mohou tyto nástroje vnímat spíše jako nárazník k ochraně managementu než k podpoře větší otevřenosti.


Vzhledem k tomu, že transparentnost je zásadní pro zapojení zaměstnanců, zneužívání umělé inteligence by mohlo vytvořit kulturu frustrace a špatné komunikace, což by stálo podniky v průměru 1,2 bilionu dolarů každý rok.

Etika přeformulování obav zaměstnanců

Nástroje jako Ask vyvolávají vážné pochybnosti o transparentnosti a spravedlnosti v interním dialogu. Hlavním problémem systémů řízených umělou inteligencí je to, že by mohly zabránit členům týmu, aby vznesli skutečné obavy.


Shrnutím nebo přeformulováním dotazů tyto nástroje riskují, že odstraní naléhavost nebo tón kritické zpětné vazby. To by mohlo vytvořit prostředí, které chrání vedoucí před realitou nálad zaměstnanců, což ztěžuje skutečné problémy, aby vyplavaly na povrch.


Výzkum tyto obavy podpořil. Studie ukázaly, že některé algoritmy strojového učení (ML) postrádají transparentnost a konzistenci – často známé jako algoritmy „černé skříňky“, které brání jakékoli detekci zkreslení.


To vyvolává otázky týkající se odpovědnosti a odpovědnosti společností, které takové systémy používají. V případě Google by nástroj Ask mohl bránit vedení od pochopení skutečné hloubky obavy zaměstnanců, zejména pokud jde o citlivé otázky.


Rostoucí objem výzkumů navíc naznačuje, že organizace musí být připraveny tato etická dilemata zvládnout. Studie to zjistily 84 % HR manažerů potřebují více směrů, aby bylo zajištěno, že nové nástroje umělé inteligence budou spravedlivé a nezaujaté.


Když vedení spoléhá na AI při filtrování otázek zaměstnanců, je skutečně zapojeno do práce se svými zaměstnanci? Umělá inteligence je vynikající nástroj pro správu spousty komunikace. Společnosti se však musí vyvarovat jeho používání, aby se distancovaly od reality, které jejich zaměstnanci čelí.

Jak mohou firmy využívat AI a zároveň udržovat transparentní interní komunikaci

Při používání umělé inteligence by podniky měly upřednostňovat transparentnost a zajistit, aby se zaměstnanci cítili jasně slyšet bez zásahů algoritmů, které by mohly zkreslit jejich původní záměr. S ohledem na to je zde několik způsobů, jak zachovat transparentnost na schůzkách při používání nástrojů umělé inteligence, jako je Ask.

1. Vytvořte kanály pro zpětnou vazbu

I když umělá inteligence přináší revoluci v tom, jak společnosti fungují, zaměstnanci by měli mít stále přímé způsoby, jak vyjádřit své obavy ohledně toho, jak tyto nástroje používají. Podniky by měly povzbuzovat pracovníky, aby poskytovali informace o tom, jak systémy umělé inteligence ovlivňují komunikaci.


Tato strategie pomůže lídrům uvědomit si dopad, který technologie vytváří, ať už se jedná o zvýšení transparentnosti nebo její narušení. Jako takové mohou provádět úpravy, aby vyřešily jakýkoli nedostatek otevřenosti nebo spravedlnosti, než nástroje umělé inteligence ohrozí důvěru.

2. Implementujte lidský dohled

Spoléhat se pouze na AI při odesílání dotazů zaměstnanců může být riskantní 71 % dotázaných pracovníků citovali, že by ztratili důvěru v AI, pokud by trvale produkovala nepřesné výstupy. Proto je zásadní lidský dohled. Obchodní lídři by měli integrovat systém, kde lidští supervizoři kontrolují citlivé otázky, aby se ujistili, že AI nezkresluje žádné důležité problémy.


Mohli by také dát zaměstnancům autonomii eskalovat své dotazy, pokud mají pocit, že procesy AI jsou nedostatečné. Povolením těchto možností mohou manažeři stále nést odpovědnost při řešení choulostivých záležitostí.

3. Povolte nástroje AI pro poskytování vyvážených odpovědí

Vedoucí organizace by také měli zajistit, aby odpovědi byly úplné a spravedlivé. Předejdete tím pocitu, že tyto nástroje používají k tomu, aby se vyhnuli náročným tématům. Tato taktika také zaručuje smysluplnější diskuse, protože AI poskytuje vyvážené zastoupení problémů, což vede k větší důvěře a otevřené komunikaci.

Vyvážení efektivity a transparentnosti

Vzhledem k tomu, že stále více podniků používá nástroje AI ke správě interní komunikace, je nezbytné zajistit, aby tyto technologie nebyly na úkor transparentnosti. Umělá inteligence může být schopna zefektivnit schůzky, ale společnosti si musí dávat pozor, aby tyto systémy nerozmělnily obavy zaměstnanců. Místo toho by měli najít rovnováhu, aby zachovali důvěru pracovníků a zajistili, že technologie buduje spíše spojení než rozdělení.



L O A D I N G
. . . comments & more!

About Author

Eleanor Hecks HackerNoon profile picture
Eleanor Hecks@ehecks
Eleanor is the editor-in-chief of Designerly Magazine, where she covers leadership, business technology and more.

ZAVĚŠIT ZNAČKY

TENTO ČLÁNEK BYL PŘEDSTAVEN V...