OpenAI est devenu du jour au lendemain un nom familier, du moins dans les cercles technologiques, en lançant ChatGPT en novembre 2022. Les entreprises et les particuliers ont rapidement adopté ses outils et ont commencé à les utiliser pour automatiser les tâches quotidiennes.
L’un des problèmes des textes et images générés par l’IA est qu’ils peuvent refléter des œuvres existantes. Certains accusent le logiciel de plagiat, tandis que d’autres estiment qu’il n’est pas aussi détaillé que les œuvres créées par l’homme. Partout, les employeurs souhaitent de meilleurs moyens de détecter l’utilisation de l’IA pour répondre aux besoins des publics cibles et savoir quel est le meilleur moment pour utiliser cette technologie.
Open AI a réagi en créant un outil de détection d'IA, mais ne l'a pas encore publié. Beaucoup veulent connaître la raison de ce retard et s'il sera un jour mis à la disposition du public.
TechCrunch a publié un article expliquant l'outil de détection d'OpenAI, qui est censé attraper les étudiants qui trichent en faisant rédiger leurs devoirs par le programme informatique. L'entreprise l'a gardé secret plutôt que de le publier, ce qui fait se demander pourquoi. Un représentant d'OpenAI a déclaré que l'entreprise envisageait de le faire.
De nombreux autres outils de détection se sont révélés inefficaces, créant parfois de faux positifs et ne parvenant pas à détecter le texte généré par l'IA à d'autres moments. Le produit d'OpenAI se concentrerait principalement sur la détection de texte filigrané par ChatGPT. L'une des raisons pour lesquelles il n'est pas publié est la crainte qu'il puisse avoir un impact négatif sur les locuteurs non natifs de l'anglais. L'outil oblige également ChatGPT à modifier son fonctionnement lors de l'ajout des mots filigranés.
Bien que le logiciel de détection soit destiné à attraper les étudiants qui utilisent l’IA pour rédiger des articles, il pourrait être appliqué à de nombreuses autres situations, notamment dans la lutte contre la fraude à plus grande échelle.
Par exemple, pensez à l'utilité d'un outil de détection d'IA pour détecter les textes générés par ordinateur utilisés par les cybercriminels. Rien qu'en 2023, les paiements de rançon
De nombreuses escroqueries utilisent un langage fluide destiné à toucher les cordes sensibles d'une personne ou à provoquer la peur. En cas de doute sur la légitimité d'un message, les internautes peuvent le faire passer dans l'outil de détection pour voir si l'IA a été utilisée pour le générer. Cela peut s'avérer très utile, car de nombreuses escroqueries impliquent du texte rédigé par un robot.
Jusqu'à présent, les outils de détection de l'IA n'ont pas été très précis. Ils ont signalé à tort des contenus originaux comme étant générés par l'IA, obligeant les étudiants à se battre pour leurs notes et parfois pour leur carrière universitaire. Les universités et les employeurs prennent le plagiat au sérieux, de sorte qu'une fausse accusation pourrait détruire l'avenir ou les moyens de subsistance d'une personne.
Les outils peuvent également être inefficaces lorsque les utilisateurs peuvent
Les opposants au logiciel craignent qu'il ne pousse les gens à être moins créatifs par crainte de déclencher un détecteur. Des programmes comme StealthAI
Les gens expriment également des inquiétudes concernant les mauvais joueurs qui utilisent l'outil pour rétroconcevoir le code et créer quelque chose qui
Les arguments contre les outils de détection d’IA pourraient bientôt être discutables. Si certains craignent que les locuteurs non natifs de l’anglais soient laissés pour compte, les développeurs de logiciels vont probablement résoudre les problèmes de barrière linguistique au fil du temps.
Beaucoup pensent qu'OpenAI va bientôt publier son outil. Les rapports indiquent
À mesure que le développement des détecteurs d’IA se développe, attendez-vous à les voir utilisés pour des choses telles que :
Identifier les fausses vidéos utilisées dans les campagnes politiques
Trouver des informations erronées et les marquer plus précisément que les autres robots
Générer du contenu éthique
La sortie de cet outil pourrait inciter d’autres marques à créer leurs propres programmes et à augmenter le taux de réussite de la détection par l’IA.
Que vous l'aimiez ou non, l'IA est là pour rester, même si les entreprises ont été un peu plus lentes à l'adopter que prévu. Le MIT a publié un rapport montrant que la technologie est en train d'être
À mesure que les services marketing en apprennent davantage sur le fonctionnement de l’IA et sur les moyens de la mettre en œuvre, on peut s’attendre à ce que davantage de marques l’utilisent et recherchent des outils de détection pour éviter les problèmes de confidentialité et la copie.
Ceux qui utilisent l’IA depuis un certain temps commencent à remarquer des schémas qui peuvent être détectés sans l’aide d’un logiciel. Par exemple, l’introduction de presque tous les articles utilise un langage similaire. La mise en page, le rythme et les détails sont les mêmes. Avec un peu de pratique, la plupart des gens peuvent repérer assez précisément un article généré par l’IA.
Sans moyen de détecter avec précision le contenu généré par l'IA, les gens peuvent se méfier de ce qu'ils lisent en ligne. Dans d'autres situations, ils peuvent soupçonner quelqu'un d'avoir utilisé l'IA sans le révéler, mais il leur est impossible de le prouver. Les travailleurs peuvent être accusés à tort ou perdre leur emploi et leur diplôme alors qu'ils ne sont pas coupables.
L'outil résoudra le problème des étudiants qui font très peu de travail et qui sont médiocres dans leurs études, mais qui obtiennent néanmoins un diplôme avancé grâce au travail acharné, à la sueur et aux larmes de quelqu'un d'autre.
Le produit d'OpenAI aura probablement le plus d'impact dans le secteur de l'éducation. Cependant, les entreprises peuvent également l'utiliser pour s'assurer de produire un contenu unique et très ciblé que les clients souhaitent lire.
La décision d'OpenAI de conserver son outil de détection est motivée par sa volonté de faire ce qu'il y a de mieux à mesure que la technologie de l'IA se développe et que des problèmes éthiques surgissent. OpenAI publiera probablement le logiciel à un moment donné, au grand soulagement des enseignants du monde entier. Il reste à voir comment d'autres industries pourraient l'utiliser.
Toutes les entreprises qui développent des programmes d’IA doivent peser le pour et le contre de chaque fonctionnalité qu’elles introduisent. C’est seulement à ce moment-là que l’IA deviendra un outil indispensable pour stimuler le progrès.