Οι συναντήσεις TGIF της Google αποτελούν εδώ και καιρό χαρακτηριστικό του ανοιχτού διαλόγου και της διαφάνειας εντός της εταιρείας. Αυτές οι μηνιαίες συγκεντρώσεις επέτρεψαν στους υπαλλήλους να κάνουν δύσκολες ερωτήσεις και να ακούσουν ευθείες απαντήσεις από τους κορυφαίους, συμπεριλαμβανομένου του CEO Sundar Pichai. Ωστόσο, οι πρόσφατες αλλαγές σε αυτές τις συναντήσεις αφήνουν πολλούς εργαζόμενους απογοητευμένους.
Νωρίτερα φέτος, η Google παρουσίασε ένα νέο εργαλείο τεχνητής νοημοσύνης που ονομάζεται Ask, το οποίο βελτιστοποιεί τη διαδικασία ερωτήσεων και απαντήσεων στις συναντήσεις TGIF. Ενώ η πρόθεση πίσω από αυτήν την κίνηση ήταν να γίνουν τα πράγματα πιο αποτελεσματικά, πολλοί υπάλληλοι της Google πιστεύουν ότι η τεχνητή νοημοσύνη κάνει περισσότερα από τη σύνοψη των ερευνών – τις μαλακώνει. Οι εργαζόμενοι τώρα αναρωτιούνται εάν το Ask σχεδιάστηκε για να αποφύγει την αντιμετώπιση των σκληρών ζητημάτων που θέλουν να αντιμετωπίσει η ηγεσία.
Το νέο εργαλείο AI της Google έχει αλλάξει σημαντικά τον τρόπο λειτουργίας των συναντήσεων TGIF. Προηγουμένως, οι εργαζόμενοι μπορούσαν να υποβάλουν τα ερωτήματά τους μέσω μιας πλατφόρμας που ονομάζεται Dory, όπου άλλοι μπορούσαν να υπερψηφίσουν τις πιο πιεστικές ή δημοφιλείς ερωτήσεις. Στη συνέχεια, η ηγεσία θα απαντούσε στις ερωτήσεις με τις περισσότερες ψήφους, ακόμα κι αν ήταν από την πιο άβολη πλευρά.
Ωστόσο, η Google αντικατέστησε πρόσφατα το Dory με το Ask, ένα σύστημα με τεχνητή νοημοσύνη που πλέον ενοποιεί και συνοψίζει θέματα προς συζήτηση των εργαζομένων. Σύμφωνα με την Google, αυτό σήμαινε ότι αυτή η αλλαγή θα εξορθολογίσει τη διαδικασία, θα αποφύγει την επανάληψη και θα επιτρέψει στους ηγέτες να απαντήσουν σε περισσότερα ερωτήματα.
Στα χαρτιά, φαίνεται σαν μια νίκη για την αποτελεσματικότητα. Η εταιρεία ισχυρίζεται μάλιστα ότι η δέσμευση έχει αυξηθεί, με
Δεν είναι όλοι πεπεισμένοι. Ορισμένοι υπάλληλοι πιστεύουν ότι το εργαλείο Ask κάνει περισσότερα από το να κάνει τις συσκέψεις να λειτουργούν ομαλά. Οι περιλήψεις του AI μαλακώνουν τον τόνο των πιο αιχμηρών ερωτήσεων, αφαιρώντας το δάγκωμα από έρευνες που κάποτε ήταν άμεσες και προκλητικές. Οι επικριτές υποστηρίζουν ότι αυτό επιτρέπει στην ηγεσία να παρακάμπτει ζητήματα, αντικαθιστώντας τις κάποτε ειλικρινείς συζητήσεις με πιο ελεγχόμενες, εξυγιαντικές απαντήσεις.
Για πολλούς, οι συναντήσεις έχουν γίνει λιγότερο ελκυστικές. Ορισμένοι εργαζόμενοι σταμάτησαν ακόμη και να παρευρίσκονται, νιώθοντας ότι δεν υπάρχει πλέον η ευκαιρία να κάνουν σκληρές ερωτήσεις. Ως αποτέλεσμα, υπάρχει μια αυξανόμενη ανησυχία ότι η ηγεσία της Google χρησιμοποιεί το Ask για τη διαχείριση της αφήγησης.
Η εισαγωγή του εργαλείου Ask της Google εγείρει ένα σημαντικό ερώτημα — θα μπορούσαν τα εργαλεία τεχνητής νοημοσύνης όπως αυτό να αναδιαμορφώσουν την εσωτερική επικοινωνία σε εταιρείες πέρα από την Google; Ενώ το Ask στοχεύει στη βελτίωση της αποτελεσματικότητας, η ικανότητά του να αμβλύνει και να φιλτράρει τις αμφιβολίες μπορεί να είναι ένας πιθανός κίνδυνος για τις επιχειρήσεις παντού.
Δεν υπάρχει αμφιβολία ότι η τεχνολογία εκδηλώσεων εξοικονομεί πολύ χρόνο και χρήμα. Σχεδόν
Ωστόσο, ανοίγει επίσης την πόρτα για την ηγεσία να παρακάμψει προκλητικά θέματα. Απαλύνοντας τη γλώσσα — αυτά τα εργαλεία μπορούν να κάνουν πιο εύκολη την απάντηση σε δύσκολες ερωτήσεις — αλλά αυτό έχει το κόστος της διαφάνειας.
Σε χώρους εργασίας όπου οι εργαζόμενοι βασίζονται σε ανοιχτά φόρουμ για να θέσουν θέματα, η τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει σε περισσότερους διαλόγους με σενάριο. Οι εργαζόμενοι μπορεί να αισθάνονται αποθαρρυμένοι από το να κάνουν δύσκολες ερωτήσεις εάν πιστεύουν ότι η τεχνητή νοημοσύνη θα αμβλύνει τις ανησυχίες τους. Αυτό θα μπορούσε να οδηγήσει σε κατάρρευση της εμπιστοσύνης μεταξύ των μελών της ομάδας και της ηγεσίας, αποδυναμώνοντας την εταιρική κουλτούρα.
Επιπλέον, οι οργανισμοί κινδυνεύουν να αποξενώσουν το εργατικό τους δυναμικό καθώς οι εταιρείες ενσωματώνουν όλο και περισσότερο την τεχνητή νοημοσύνη για να χειριστούν περισσότερες πτυχές της επικοινωνίας. Οι εργαζόμενοι μπορεί να βλέπουν αυτά τα εργαλεία ως ένα απόθεμα για την προστασία της διοίκησης και όχι για την προώθηση μεγαλύτερης διαφάνειας.
Καθώς η διαφάνεια είναι κρίσιμη για τη δέσμευση των εργαζομένων, η κακή χρήση της τεχνητής νοημοσύνης θα μπορούσε να δημιουργήσει μια κουλτούρα απογοήτευσης και κακής επικοινωνίας, κοστίζοντας τις επιχειρήσεις
Εργαλεία όπως το Ask εγείρουν σοβαρές αμφιβολίες σχετικά με τη διαφάνεια και τη δικαιοσύνη στον εσωτερικό διάλογο. Το κύριο μέλημα με τα συστήματα που βασίζονται στην τεχνητή νοημοσύνη είναι ότι θα μπορούσαν να εμποδίσουν τα μέλη της ομάδας να εκφράσουν πραγματικές ανησυχίες.
Με τη σύνοψη ή την αναδιατύπωση ερωτήσεων, αυτά τα εργαλεία κινδυνεύουν να αφαιρέσουν τον επείγοντα χαρακτήρα ή τον τόνο της κριτικής ανατροφοδότησης. Αυτό θα μπορούσε να δημιουργήσει ένα περιβάλλον που προστατεύει τους ηγέτες από την πραγματικότητα του συναισθήματος των εργαζομένων, καθιστώντας δυσκολότερη την εμφάνιση πραγματικών ζητημάτων.
Η έρευνα υποστήριξε αυτές τις ανησυχίες. Μελέτες έχουν δείξει ότι ορισμένοι αλγόριθμοι μηχανικής μάθησης (ML) στερούνται διαφάνειας και συνέπειας —συχνά γνωστοί ως αλγόριθμοι «μαύρου κουτιού» — που εμποδίζουν τον εντοπισμό προκαταλήψεων.
Αυτό εγείρει ζητήματα σχετικά με τη λογοδοσία και την ευθύνη των εταιρειών που χρησιμοποιούν τέτοια συστήματα. Στην περίπτωση της Google, το εργαλείο Ask θα μπορούσε να αποτρέψει την ηγεσία
Επιπλέον, ένας αυξανόμενος όγκος ερευνών δείχνει ότι οι οργανισμοί πρέπει να είναι προετοιμασμένοι να χειριστούν αυτά τα ηθικά διλήμματα. Μελέτες βρήκαν ότι
Όταν η ηγεσία βασίζεται στην τεχνητή νοημοσύνη για να φιλτράρει τις ερωτήσεις των εργαζομένων, αλληλεπιδρά πραγματικά με το εργατικό της δυναμικό; Το AI είναι ένα εξαιρετικό εργαλείο για τη διαχείριση φορτίων επικοινωνίας. Ωστόσο, οι εταιρείες πρέπει να αποφεύγουν να το χρησιμοποιούν για να αποστασιοποιηθούν από την πραγματικότητα που αντιμετωπίζουν οι εργαζόμενοί τους.
Όταν χρησιμοποιούν την τεχνητή νοημοσύνη, οι επιχειρήσεις θα πρέπει να δίνουν προτεραιότητα στη διαφάνεια, διασφαλίζοντας ότι οι εργαζόμενοι αισθάνονται ότι ακούγονται ξεκάθαρα χωρίς παρεμβολές από αλγόριθμους που μπορεί να παραμορφώσουν την αρχική τους πρόθεση. Έχοντας αυτό κατά νου, ακολουθούν μερικοί τρόποι για να διατηρήσετε τη διαφάνεια στις συσκέψεις όταν χρησιμοποιείτε εργαλεία τεχνητής νοημοσύνης όπως το Ask.
Ενώ η τεχνητή νοημοσύνη φέρνει επανάσταση στον τρόπο λειτουργίας των εταιρειών, οι εργαζόμενοι θα πρέπει να εξακολουθούν να έχουν άμεσους τρόπους να εκφράσουν τις ανησυχίες τους σχετικά με τον τρόπο με τον οποίο χρησιμοποιούν αυτά τα εργαλεία. Οι επιχειρήσεις θα πρέπει να ενθαρρύνουν τους εργαζόμενους να παρέχουν πληροφορίες σχετικά με τον τρόπο με τον οποίο τα συστήματα τεχνητής νοημοσύνης επηρεάζουν την επικοινωνία.
Αυτή η στρατηγική θα βοηθήσει τους ηγέτες να συνειδητοποιήσουν τον αντίκτυπο που δημιουργεί η τεχνολογία, είτε ενισχύει τη διαφάνεια είτε τη διαβρώνει. Ως εκ τούτου, μπορούν να κάνουν προσαρμογές για να αντιμετωπίσουν τυχόν έλλειψη διαφάνειας ή δικαιοσύνης προτού τα εργαλεία τεχνητής νοημοσύνης θέσουν σε κίνδυνο την εμπιστοσύνη.
Το να βασίζεσαι αποκλειστικά στην τεχνητή νοημοσύνη για τη δημοσίευση ερωτημάτων εργαζομένων μπορεί να είναι επικίνδυνο, όπως
Θα μπορούσαν επίσης να δώσουν στους υπαλλήλους την αυτονομία να κλιμακώσουν τα ερωτήματά τους εάν πιστεύουν ότι οι διαδικασίες του AI είναι ανεπαρκείς. Με την ενεργοποίηση αυτών των επιλογών, τα στελέχη μπορούν ακόμα να αναλάβουν υπευθυνότητα στο χειρισμό ευαίσθητων θεμάτων.
Οι ηγέτες του οργανισμού θα πρέπει επίσης να διασφαλίζουν ότι οι απαντήσεις είναι πλήρεις και δίκαιες. Κάτι τέτοιο αποτρέπει την αντίληψη ότι χρησιμοποιούν αυτά τα εργαλεία για να αποφύγουν προκλητικά θέματα. Αυτή η τακτική εγγυάται επίσης πιο σκόπιμες συζητήσεις, καθώς η τεχνητή νοημοσύνη παρέχει μια ισορροπημένη αναπαράσταση των θεμάτων, με αποτέλεσμα περισσότερη εμπιστοσύνη και ανοιχτή επικοινωνία.
Καθώς περισσότερες επιχειρήσεις χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης για τη διαχείριση των εσωτερικών επικοινωνιών, είναι ζωτικής σημασίας να διασφαλίσουμε ότι αυτές οι τεχνολογίες δεν βαρύνουν τη διαφάνεια. Η τεχνητή νοημοσύνη μπορεί να είναι σε θέση να εξορθολογίσει τις συναντήσεις, αλλά οι εταιρείες πρέπει να προσέχουν να μην αφήνουν αυτά τα συστήματα να μειώνουν τις ανησυχίες των εργαζομένων. Αντίθετα, θα πρέπει να επιτύχουν μια ισορροπία για να διατηρήσουν την εμπιστοσύνη των εργαζομένων και να διασφαλίσουν ότι η τεχνολογία δημιουργεί σύνδεση και όχι διχασμό.