paint-brush
Γιατί το «Ευγενικό» εργαλείο AI της Google αυξάνει τα φρύδια των εργαζομένωνμε@ehecks
2,130 αναγνώσεις
2,130 αναγνώσεις

Γιατί το «Ευγενικό» εργαλείο AI της Google αυξάνει τα φρύδια των εργαζομένων

με Eleanor Hecks5m2024/09/13
Read on Terminal Reader

Πολύ μακρύ; Να διαβασω

Το νέο εργαλείο τεχνητής νοημοσύνης της Google έχει αλλάξει σημαντικά τον τρόπο λειτουργίας των συναντήσεων TGIF. Μερικοί υπάλληλοι πιστεύουν ότι το εργαλείο Ask κάνει περισσότερα από το να κάνει τις συσκέψεις να λειτουργούν ομαλά. Οι επικριτές υποστηρίζουν ότι αυτό επιτρέπει στην ηγεσία να παρακάμπτει ζητήματα, αντικαθιστώντας τις κάποτε ειλικρινείς συζητήσεις με πιο ελεγχόμενες, εξυγιαντικές απαντήσεις. Το κύριο μέλημα με τα συστήματα AI είναι ότι θα μπορούσαν να εμποδίσουν τα μέλη της ομάδας να εκφράσουν πραγματικές ανησυχίες.
featured image - Γιατί το «Ευγενικό» εργαλείο AI της Google αυξάνει τα φρύδια των εργαζομένων
Eleanor Hecks HackerNoon profile picture
0-item

Οι συναντήσεις TGIF της Google αποτελούν εδώ και καιρό χαρακτηριστικό του ανοιχτού διαλόγου και της διαφάνειας εντός της εταιρείας. Αυτές οι μηνιαίες συγκεντρώσεις επέτρεψαν στους υπαλλήλους να κάνουν δύσκολες ερωτήσεις και να ακούσουν ευθείες απαντήσεις από τους κορυφαίους, συμπεριλαμβανομένου του CEO Sundar Pichai. Ωστόσο, οι πρόσφατες αλλαγές σε αυτές τις συναντήσεις αφήνουν πολλούς εργαζόμενους απογοητευμένους.


Νωρίτερα φέτος, η Google παρουσίασε ένα νέο εργαλείο τεχνητής νοημοσύνης που ονομάζεται Ask, το οποίο βελτιστοποιεί τη διαδικασία ερωτήσεων και απαντήσεων στις συναντήσεις TGIF. Ενώ η πρόθεση πίσω από αυτήν την κίνηση ήταν να γίνουν τα πράγματα πιο αποτελεσματικά, πολλοί υπάλληλοι της Google πιστεύουν ότι η τεχνητή νοημοσύνη κάνει περισσότερα από τη σύνοψη των ερευνών – τις μαλακώνει. Οι εργαζόμενοι τώρα αναρωτιούνται εάν το Ask σχεδιάστηκε για να αποφύγει την αντιμετώπιση των σκληρών ζητημάτων που θέλουν να αντιμετωπίσει η ηγεσία.

Εργαλείο AI της Google: Μια αλλαγή στις συναντήσεις TGIF

Το νέο εργαλείο AI της Google έχει αλλάξει σημαντικά τον τρόπο λειτουργίας των συναντήσεων TGIF. Προηγουμένως, οι εργαζόμενοι μπορούσαν να υποβάλουν τα ερωτήματά τους μέσω μιας πλατφόρμας που ονομάζεται Dory, όπου άλλοι μπορούσαν να υπερψηφίσουν τις πιο πιεστικές ή δημοφιλείς ερωτήσεις. Στη συνέχεια, η ηγεσία θα απαντούσε στις ερωτήσεις με τις περισσότερες ψήφους, ακόμα κι αν ήταν από την πιο άβολη πλευρά.

Ωστόσο, η Google αντικατέστησε πρόσφατα το Dory με το Ask, ένα σύστημα με τεχνητή νοημοσύνη που πλέον ενοποιεί και συνοψίζει θέματα προς συζήτηση των εργαζομένων. Σύμφωνα με την Google, αυτό σήμαινε ότι αυτή η αλλαγή θα εξορθολογίσει τη διαδικασία, θα αποφύγει την επανάληψη και θα επιτρέψει στους ηγέτες να απαντήσουν σε περισσότερα ερωτήματα.


Στα χαρτιά, φαίνεται σαν μια νίκη για την αποτελεσματικότητα. Η εταιρεία ισχυρίζεται μάλιστα ότι η δέσμευση έχει αυξηθεί, με διπλάσιος αριθμός εργαζομένων που συμμετέχουν τώρα κατά την υποβολή και ψηφοφορία ερωτήσεων.


Δεν είναι όλοι πεπεισμένοι. Ορισμένοι υπάλληλοι πιστεύουν ότι το εργαλείο Ask κάνει περισσότερα από το να κάνει τις συσκέψεις να λειτουργούν ομαλά. Οι περιλήψεις του AI μαλακώνουν τον τόνο των πιο αιχμηρών ερωτήσεων, αφαιρώντας το δάγκωμα από έρευνες που κάποτε ήταν άμεσες και προκλητικές. Οι επικριτές υποστηρίζουν ότι αυτό επιτρέπει στην ηγεσία να παρακάμπτει ζητήματα, αντικαθιστώντας τις κάποτε ειλικρινείς συζητήσεις με πιο ελεγχόμενες, εξυγιαντικές απαντήσεις.


Για πολλούς, οι συναντήσεις έχουν γίνει λιγότερο ελκυστικές. Ορισμένοι εργαζόμενοι σταμάτησαν ακόμη και να παρευρίσκονται, νιώθοντας ότι δεν υπάρχει πλέον η ευκαιρία να κάνουν σκληρές ερωτήσεις. Ως αποτέλεσμα, υπάρχει μια αυξανόμενη ανησυχία ότι η ηγεσία της Google χρησιμοποιεί το Ask για τη διαχείριση της αφήγησης.

Οι ευρύτερες επιπτώσεις της τεχνητής νοημοσύνης στις εσωτερικές επικοινωνίες

Η εισαγωγή του εργαλείου Ask της Google εγείρει ένα σημαντικό ερώτημα — θα μπορούσαν τα εργαλεία τεχνητής νοημοσύνης όπως αυτό να αναδιαμορφώσουν την εσωτερική επικοινωνία σε εταιρείες πέρα από την Google; Ενώ το Ask στοχεύει στη βελτίωση της αποτελεσματικότητας, η ικανότητά του να αμβλύνει και να φιλτράρει τις αμφιβολίες μπορεί να είναι ένας πιθανός κίνδυνος για τις επιχειρήσεις παντού.


Δεν υπάρχει αμφιβολία ότι η τεχνολογία εκδηλώσεων εξοικονομεί πολύ χρόνο και χρήμα. Σχεδόν Το 90% των επιχειρήσεων που χρησιμοποιούν τεχνολογία εκδηλώσεων εξοικονομήστε περίπου 200 ώρες το χρόνο — ένα τεράστιο κομμάτι του χρόνου των εργαζομένων που ξοδεύεται καλύτερα στις πιο δημιουργικές πτυχές του ρόλου τους. Ωστόσο, υπάρχει ένα πραγματικό άγχος ότι θα μπορούσαν να χρησιμοποιήσουν αυτά τα εργαλεία για να ελέγξουν τις φωνές των εργαζομένων. Η ικανότητα του AI να συνοψίζει και να παραφράζει ερωτήματα μπορεί σίγουρα να βοηθήσει στην αποφυγή απολύσεων.


Ωστόσο, ανοίγει επίσης την πόρτα για την ηγεσία να παρακάμψει προκλητικά θέματα. Απαλύνοντας τη γλώσσα — αυτά τα εργαλεία μπορούν να κάνουν πιο εύκολη την απάντηση σε δύσκολες ερωτήσεις — αλλά αυτό έχει το κόστος της διαφάνειας.


Σε χώρους εργασίας όπου οι εργαζόμενοι βασίζονται σε ανοιχτά φόρουμ για να θέσουν θέματα, η τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει σε περισσότερους διαλόγους με σενάριο. Οι εργαζόμενοι μπορεί να αισθάνονται αποθαρρυμένοι από το να κάνουν δύσκολες ερωτήσεις εάν πιστεύουν ότι η τεχνητή νοημοσύνη θα αμβλύνει τις ανησυχίες τους. Αυτό θα μπορούσε να οδηγήσει σε κατάρρευση της εμπιστοσύνης μεταξύ των μελών της ομάδας και της ηγεσίας, αποδυναμώνοντας την εταιρική κουλτούρα.


Επιπλέον, οι οργανισμοί κινδυνεύουν να αποξενώσουν το εργατικό τους δυναμικό καθώς οι εταιρείες ενσωματώνουν όλο και περισσότερο την τεχνητή νοημοσύνη για να χειριστούν περισσότερες πτυχές της επικοινωνίας. Οι εργαζόμενοι μπορεί να βλέπουν αυτά τα εργαλεία ως ένα απόθεμα για την προστασία της διοίκησης και όχι για την προώθηση μεγαλύτερης διαφάνειας.


Καθώς η διαφάνεια είναι κρίσιμη για τη δέσμευση των εργαζομένων, η κακή χρήση της τεχνητής νοημοσύνης θα μπορούσε να δημιουργήσει μια κουλτούρα απογοήτευσης και κακής επικοινωνίας, κοστίζοντας τις επιχειρήσεις κατά μέσο όρο 1,2 τρισεκατομμύρια δολάρια κάθε χρόνο.

Η ηθική της αναδιατύπωσης των ανησυχιών των εργαζομένων

Εργαλεία όπως το Ask εγείρουν σοβαρές αμφιβολίες σχετικά με τη διαφάνεια και τη δικαιοσύνη στον εσωτερικό διάλογο. Το κύριο μέλημα με τα συστήματα που βασίζονται στην τεχνητή νοημοσύνη είναι ότι θα μπορούσαν να εμποδίσουν τα μέλη της ομάδας να εκφράσουν πραγματικές ανησυχίες.


Με τη σύνοψη ή την αναδιατύπωση ερωτήσεων, αυτά τα εργαλεία κινδυνεύουν να αφαιρέσουν τον επείγοντα χαρακτήρα ή τον τόνο της κριτικής ανατροφοδότησης. Αυτό θα μπορούσε να δημιουργήσει ένα περιβάλλον που προστατεύει τους ηγέτες από την πραγματικότητα του συναισθήματος των εργαζομένων, καθιστώντας δυσκολότερη την εμφάνιση πραγματικών ζητημάτων.


Η έρευνα υποστήριξε αυτές τις ανησυχίες. Μελέτες έχουν δείξει ότι ορισμένοι αλγόριθμοι μηχανικής μάθησης (ML) στερούνται διαφάνειας και συνέπειας —συχνά γνωστοί ως αλγόριθμοι «μαύρου κουτιού» — που εμποδίζουν τον εντοπισμό προκαταλήψεων.


Αυτό εγείρει ζητήματα σχετικά με τη λογοδοσία και την ευθύνη των εταιρειών που χρησιμοποιούν τέτοια συστήματα. Στην περίπτωση της Google, το εργαλείο Ask θα μπορούσε να αποτρέψει την ηγεσία από την κατανόηση του αληθινού βάθους ανησυχιών των εργαζομένων, ιδίως όσον αφορά ευαίσθητα ζητήματα.


Επιπλέον, ένας αυξανόμενος όγκος ερευνών δείχνει ότι οι οργανισμοί πρέπει να είναι προετοιμασμένοι να χειριστούν αυτά τα ηθικά διλήμματα. Μελέτες βρήκαν ότι Το 84% των στελεχών HR χρειάζονται περισσότερη κατεύθυνση για να διασφαλιστεί ότι τα νέα εργαλεία τεχνητής νοημοσύνης είναι δίκαια και αμερόληπτα.


Όταν η ηγεσία βασίζεται στην τεχνητή νοημοσύνη για να φιλτράρει τις ερωτήσεις των εργαζομένων, αλληλεπιδρά πραγματικά με το εργατικό της δυναμικό; Το AI είναι ένα εξαιρετικό εργαλείο για τη διαχείριση φορτίων επικοινωνίας. Ωστόσο, οι εταιρείες πρέπει να αποφεύγουν να το χρησιμοποιούν για να αποστασιοποιηθούν από την πραγματικότητα που αντιμετωπίζουν οι εργαζόμενοί τους.

Πώς οι επιχειρήσεις μπορούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη ενώ διατηρούν διαφανή εσωτερική επικοινωνία

Όταν χρησιμοποιούν την τεχνητή νοημοσύνη, οι επιχειρήσεις θα πρέπει να δίνουν προτεραιότητα στη διαφάνεια, διασφαλίζοντας ότι οι εργαζόμενοι αισθάνονται ότι ακούγονται ξεκάθαρα χωρίς παρεμβολές από αλγόριθμους που μπορεί να παραμορφώσουν την αρχική τους πρόθεση. Έχοντας αυτό κατά νου, ακολουθούν μερικοί τρόποι για να διατηρήσετε τη διαφάνεια στις συσκέψεις όταν χρησιμοποιείτε εργαλεία τεχνητής νοημοσύνης όπως το Ask.

1. Δημιουργήστε κανάλια για σχόλια

Ενώ η τεχνητή νοημοσύνη φέρνει επανάσταση στον τρόπο λειτουργίας των εταιρειών, οι εργαζόμενοι θα πρέπει να εξακολουθούν να έχουν άμεσους τρόπους να εκφράσουν τις ανησυχίες τους σχετικά με τον τρόπο με τον οποίο χρησιμοποιούν αυτά τα εργαλεία. Οι επιχειρήσεις θα πρέπει να ενθαρρύνουν τους εργαζόμενους να παρέχουν πληροφορίες σχετικά με τον τρόπο με τον οποίο τα συστήματα τεχνητής νοημοσύνης επηρεάζουν την επικοινωνία.


Αυτή η στρατηγική θα βοηθήσει τους ηγέτες να συνειδητοποιήσουν τον αντίκτυπο που δημιουργεί η τεχνολογία, είτε ενισχύει τη διαφάνεια είτε τη διαβρώνει. Ως εκ τούτου, μπορούν να κάνουν προσαρμογές για να αντιμετωπίσουν τυχόν έλλειψη διαφάνειας ή δικαιοσύνης προτού τα εργαλεία τεχνητής νοημοσύνης θέσουν σε κίνδυνο την εμπιστοσύνη.

2. Εφαρμογή Ανθρώπινης Εποπτείας

Το να βασίζεσαι αποκλειστικά στην τεχνητή νοημοσύνη για τη δημοσίευση ερωτημάτων εργαζομένων μπορεί να είναι επικίνδυνο, όπως Το 71% των ερωτηθέντων εργαζομένων ανέφεραν ότι θα έχαναν την εμπιστοσύνη τους στην τεχνητή νοημοσύνη εάν παρήγαγε ανακριβή αποτελέσματα με συνέπεια. Γι' αυτό η ανθρώπινη εποπτεία είναι ζωτικής σημασίας. Οι ηγέτες των επιχειρήσεων θα πρέπει να ενσωματώσουν ένα σύστημα όπου οι ανθρώπινοι επόπτες εξετάζουν ευαίσθητες ερωτήσεις για να διασφαλίσουν ότι η τεχνητή νοημοσύνη δεν παραποιεί σημαντικά ζητήματα.


Θα μπορούσαν επίσης να δώσουν στους υπαλλήλους την αυτονομία να κλιμακώσουν τα ερωτήματά τους εάν πιστεύουν ότι οι διαδικασίες του AI είναι ανεπαρκείς. Με την ενεργοποίηση αυτών των επιλογών, τα στελέχη μπορούν ακόμα να αναλάβουν υπευθυνότητα στο χειρισμό ευαίσθητων θεμάτων.

3. Ενεργοποιήστε τα Εργαλεία AI για να παρέχουν ισορροπημένες απαντήσεις

Οι ηγέτες του οργανισμού θα πρέπει επίσης να διασφαλίζουν ότι οι απαντήσεις είναι πλήρεις και δίκαιες. Κάτι τέτοιο αποτρέπει την αντίληψη ότι χρησιμοποιούν αυτά τα εργαλεία για να αποφύγουν προκλητικά θέματα. Αυτή η τακτική εγγυάται επίσης πιο σκόπιμες συζητήσεις, καθώς η τεχνητή νοημοσύνη παρέχει μια ισορροπημένη αναπαράσταση των θεμάτων, με αποτέλεσμα περισσότερη εμπιστοσύνη και ανοιχτή επικοινωνία.

Εξισορρόπηση της αποτελεσματικότητας και της διαφάνειας

Καθώς περισσότερες επιχειρήσεις χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης για τη διαχείριση των εσωτερικών επικοινωνιών, είναι ζωτικής σημασίας να διασφαλίσουμε ότι αυτές οι τεχνολογίες δεν βαρύνουν τη διαφάνεια. Η τεχνητή νοημοσύνη μπορεί να είναι σε θέση να εξορθολογίσει τις συναντήσεις, αλλά οι εταιρείες πρέπει να προσέχουν να μην αφήνουν αυτά τα συστήματα να μειώνουν τις ανησυχίες των εργαζομένων. Αντίθετα, θα πρέπει να επιτύχουν μια ισορροπία για να διατηρήσουν την εμπιστοσύνη των εργαζομένων και να διασφαλίσουν ότι η τεχνολογία δημιουργεί σύνδεση και όχι διχασμό.