GPT-4 est un joker dans le jeu de cartes d'entreprise. Cela peut augmenter considérablement la productivité et conduire à un travail de qualité supérieure ou inférieure en fonction de la tâche à accomplir et de la manière dont elle est utilisée. D'une manière générale, nous pouvons adopter une position optimiste ou pessimiste quant à la mise en œuvre rapide de GPT-4 dans les environnements de bureau du monde entier.
La position optimiste est que l’aide de l’IA entraînera une amélioration de la qualité et de la productivité des travailleurs. Plus de travail sera effectué plus rapidement et mieux. L’assistance de l’IA facilitera les tâches de routine, fournira un soutien vital dans les tâches non routinières et libérera du temps et des ressources pour que les travailleurs puissent se concentrer sur des tâches critiques pour l’entreprise qui « font bouger les choses ».
La position pessimiste est que le don de l’assistance de l’IA est un cheval de Troie. L’automatisation va infiltrer les entreprises et engloutir petit à petit le travail du savoir humain, au profit d’une élite technologique ultra-riche et au détriment des salariés démunis. Les employés de bureau amoureux de ChatGPT souffrent d'une sorte de syndrome de Stockholm, flirtant avec leurs propres remplaçants.
Mon opinion personnelle penche davantage vers une position pessimiste. Je reconnais à quel point GPT-4 est utile en tant qu'outil de recherche d'informations, essentiellement une version plus intelligente et plus personnalisée de la recherche Google. Mais si je comptais sur l’aide d’un chatbot pour, par exemple, rédiger un brouillon d’article ou réfléchir à de nouvelles idées pour un article, pourquoi même faire ce travail en premier lieu ? Vous pourriez aussi bien le confier complètement à l’IA ou, de préférence, ne pas faire le travail du tout.
Aujourd'hui, nous examinerons un article de la Harvard Business School qui met en lumière l'impact de l'assistance GPT-4 sur le travail du savoir : « Naviguer sur la frontière technologique irrégulière : preuves expérimentales sur le terrain des effets de l'IA sur la productivité et la qualité des travailleurs du savoir ». , publié en septembre 2023.
Un groupe de spécialistes des sciences sociales a mené une expérience pour tester les compétences de 758 consultants du Boston Consulting Group (BCG) sur différentes tâches avec et sans accès à GPT-4.
Environ la moitié des consultants participants (385) ont effectué 18 tâches liées au développement de produits créatifs, tandis que l'autre moitié (373) s'est engagée dans une tâche de résolution de problèmes commerciaux reposant sur des données externes et d'autres sources. Nous examinerons de plus près les tâches spécifiques dans la section suivante.
Tous les participants ont effectué un test initial sans l'aide de l'IA afin que les chercheurs puissent comparer les performances individuelles de chaque consultant par rapport à leurs performances avec GPT-4. Les participants ont également été répartis dans l'un des trois sous-groupes au sein des deux expériences : un groupe témoin sans accès à GPT-4, un deuxième groupe avec accès à GPT-4 et un troisième groupe avec accès à GPT-4 et au matériel d'apprentissage. sur la façon d'inviter efficacement GPT-4.
Les résultats du dessin principal ont montré que les consultants ayant accès à l’IA ont globalement mieux performé dans les tâches de développement de produits créatifs. Ici, le consultant a accompli 12,2 % de tâches en plus en moyenne, 25,1 % plus rapidement et avec une qualité 40 % supérieure, selon les évaluateurs humains qui ont noté aveuglément les tests.
Le deuxième groupe de consultants ayant travaillé sur des tâches de résolution de problèmes commerciaux était 19 % moins susceptible de produire des résultats corrects avec accès à GPT-4. En moyenne, GPT-4 a aidé les consultants à terminer les tâches quelques minutes plus rapidement : six minutes plus rapides pour « GPT uniquement » et onze minutes pour « GPT + Aperçu ».
Sur la base des résultats expérimentaux, l’équipe de recherche imagine une « frontière irrégulière ».
À l’intérieur de « la frontière irrégulière », l’assistance de l’IA améliore la qualité et la productivité de la performance humaine. En dehors des frontières, l’assistance de l’IA la contraint. La frontière est « irrégulière » car il est difficile de prédire quelles tâches se situent à l'intérieur ou à l'extérieur de la frontière et semble parfois illogique. Par exemple, GPT-4 peut réussir la plupart des examens universitaires , mais il rencontre également des problèmes de mathématiques de base .
Le concept de « frontière irrégulière » est pertinent. Cependant, à mon avis, le document surestime considérablement les capacités de GPT-4. Plus important encore, cela est dû aux contraintes de temps strictes dans lesquelles les consultants du BCG ont dû travailler dans le cadre de l’expérience.
Dans la partie développement de produits créatifs de l'expérience – où l'assistance GPT-4 s'est avérée améliorer considérablement la productivité et la qualité – les consultants ont dû effectuer 18 tâches en seulement 90 minutes. Voici quelques exemples de tâches auxquelles les consultants devaient répondre dans le délai de 90 minutes :
«Générer des idées pour une nouvelle chaussure destinée à un marché ou un sport spécifique mal desservi. Soyez créatif et donnez au moins 10 idées.
« Établissez une liste des étapes nécessaires pour lancer le produit. Soyez concis mais complet.
« Trouvez un nom pour le produit : réfléchissez à au moins 4 noms, notez-les et expliquez celui que vous avez choisi. »
"Écrivez un mémo de 500 mots à votre patron expliquant vos découvertes."
« Rédigez une copie marketing pour un communiqué de presse. »
"S'il vous plaît, synthétisez les informations que vous avez acquises grâce aux questions précédentes et créez un aperçu d'un article de style Harvard Business Review d'environ 2 500 mots."
Une seule de ces tâches, prise individuellement, pourrait prendre des jours, voire des semaines. Même le consultant le plus prestigieux au monde ne pourrait pas accomplir toutes ces tâches avec un niveau satisfaisant de qualité et de précision en 90 minutes. C'est humainement impossible.
Dans l'expérience avec des tâches « en dehors des frontières », les participants devaient analyser les performances de la marque d'une entreprise hypothétique sur la base d'entretiens et de données financières et préparer une note de 500 à 750 mots à l'intention d'un PDG fictif. La limite de temps dans cette partie de l’expérience était de 60 minutes, ce qui, encore une fois, est loin d’être proche du temps que les consultants consacreraient réellement à une tâche comme celle-ci dans la vie réelle.
Mon hypothèse : Plus on donne de temps à l'humain pour réaliser une tâche, moins l'assistance de l'IA est importante. Si, par exemple, les consultants du BCG disposaient de semaines ou de mois pour effectuer les mêmes 18 tâches créatives de développement de produits - ce qui refléterait mieux la manière dont les consultants travaillent réellement - les améliorations apportées par l'utilisation de GPT-4 seraient, au mieux, minimes. Dans l’ensemble, le résultat final serait également d’une qualité nettement supérieure à celle qu’un humain peut produire avec GPT-4 en 90 minutes.
À mon avis, naviguer dans cette frontière irrégulière ne consiste pas à comprendre quels types de tâches GPT-4 peut vous aider efficacement, mais plutôt à explorer les compétences que vous pouvez offrir et que l'automatisation ne peut pas facilement remplacer.
Les auteurs ont analysé différentes approches adoptées par les participants pour travailler avec l’IA et ont identifié deux modèles prédominants, le « comportement centaure » et le « comportement cyborg » :
« Comprendre les caractéristiques et les comportements de ces participants peut s'avérer important à mesure que les organisations réfléchissent aux moyens d'identifier et de développer les talents pour une collaboration efficace avec les outils d'IA .
Nous avons identifié deux modèles prédominants qui résument leur approche.
Le premier est le comportement du Centaure. Nommée d’après la créature mythique mi-humaine mi-cheval, cette approche implique une division stratégique similaire du travail entre les humains et les machines étroitement fusionnées. Les utilisateurs dotés de cette stratégie basculent entre l'IA et les tâches humaines, en attribuant les responsabilités en fonction des forces et des capacités de chaque entité. Ils discernent quelles tâches sont les mieux adaptées à une intervention humaine et lesquelles peuvent être gérées efficacement par l’IA.
Le deuxième modèle que nous avons observé est le comportement du Cyborg. Nommée d’après les êtres hybrides homme-machine tels qu’envisagés dans la littérature de science-fiction, cette approche repose sur une intégration complexe. Les utilisateurs de Cyborg ne se contentent pas de déléguer des tâches ; ils associent leurs efforts à l’IA à la frontière même des capacités. Cette stratégie peut se manifester par une alternance de responsabilités au niveau des sous-tâches, comme initier une phrase que l’IA doit terminer ou travailler en tandem avec l’IA.
Je ne suis pas un grand fan de présenter GPT-4 comme un partenaire de collaboration. Principalement pour deux raisons :
Dans les partenariats homme-IA, l’IA peut faire l’essentiel du travail, mais l’entière responsabilité du travail incombe à l’humain.
Je préférerais de loin passer mon temps à créer de nouveaux travaux à partir de zéro plutôt que d'examiner et de modifier les résultats générés par l'IA pour détecter les erreurs, les inexactitudes et les biais. Tout d’abord, consulter du contenu généré automatiquement n’est pas très amusant. Deuxièmement, quoi qu’il arrive, je reste responsable des erreurs qui pourraient survenir. Si je comptais trop sur les contributions de GPT-4 pour accomplir une tâche, je suis incapable d'expliquer pourquoi j'ai commis les erreurs que j'ai commises, et je ne peux pas non plus vraiment apprendre ou grandir à partir d'elles. Dans quelle mesure peut-on dire qu’une œuvre est encore le résultat d’un effort créatif proprement humain lorsque le travailleur « collabore » avec l’IA générative ?
« Le jugement professionnel d'un avocat ne peut être délégué à l'IA générative et demeure à tout moment sous la responsabilité de l'avocat. »
- «Guide pratique pour l'utilisation de l'intelligence artificielle générative dans la pratique du droit », Comité permanent du barreau de l'État de Californie sur la responsabilité professionnelle et la conduite (novembre 2023).
Comme je l'ai écrit dans mon dernier article , il y a eu une brève période de temps après la victoire de Deep Blue en 1997 sur le champion d'échecs en titre Garry Kasparov, où il semblait que les humains collaborant avec l'IA pouvaient vaincre même les moteurs d'échecs les plus puissants. Kasparov a popularisé le terme « centaures » pour décrire ces équipes mixtes humain-IA.
Dans l’état actuel des choses, cependant, les humains ne peuvent pas contribuer avec beaucoup d’expertise aux parties jouées entre les principaux programmes d’échecs. En fait, tout ce à quoi les humains peuvent contribuer, c’est une augmentation du taux d’erreur. Il s’avère que jouer aux échecs est quelque chose que les IA sont tout simplement bien meilleures que les humains.
Je pense que nous pouvons tirer une leçon importante de l’évolution de l’IA sur l’échiquier : les « centaures » et les « cyborgs » finissent par être vaincus par davantage d’automatisation. Par analogie, les employés de bureau qui dépendent fortement de l’assistance de l’IA devraient commencer à réfléchir en profondeur aux compétences uniques qu’ils peuvent offrir et qu’un modèle d’IA ne peut pas offrir. Il y a de fortes chances que la fonction principale des centaures et des cyborgs soit de fournir davantage de matériel de formation à leurs remplaçants, en particulier pour les tâches qui peuvent facilement être automatisées et qui n'impliquent pas beaucoup d'interaction sociale, d'adaptation, de flexibilité et de communication.
Comment vaincre les centaures et les cyborgs sur le lieu de travail moderne ? Simplement, vous les battez avec plus de temps. Si les humains disposent de plus de temps pour effectuer un travail complexe et créatif, l’aide de GPT-4 est superflue.
D’un autre côté, certaines tâches que les humains effectuent aujourd’hui « en collaboration » avec l’IA générative seront entièrement automatisées dans un avenir prévisible. Supposons qu’un travailleur humain ne puisse pas produire un résultat nettement meilleur sur une longue période que ce que les générations futures de GPT-4 peuvent cracher en quelques secondes. Dans ce cas, il n’y a vraiment aucune raison de continuer à sous-traiter ce genre de tâches à des travailleurs humains.
Selon mon interprétation, naviguer dans cette frontière irrégulière revient en réalité à se demander : quelle compétence unique puis-je offrir qui ne puisse être remplacée par l’automatisation dans quelques années ?
Inscrivez-vous à ma newsletter gratuite The Gap : www.futuristiclawyer.com
Également publié ici .