Si les sites d'information utilisent l'IA pour produire du contenu sur des sujets banals, la supervision humaine doit être une condition à ne pas négliger, par souci d'éthique.
On dirait que l'IA a déjà remplacé les rédacteurs de contenu dans notre dos ? Si oui, est-ce éthiquement mauvais ?
Récemment, selon une récente enquête publiée par Gael Breton, co-fondateur d' Autorité Hacker , CNET, une grande publication technologique appartenant à Red Ventures, publie du contenu écrit par l'IA depuis novembre de l'année dernière.
Pour être juste, CNET est transparent quant à son utilisation de l'IA. Une signature de l'auteur disponible en survol a clairement expliqué que la pièce a été "créée à l'aide d'un moteur d'IA". Ils ont également informé que l'article avait été édité et vérifié par un humain.
Mais toutes les autres publications médiatiques sont-elles si honnêtes ?
Il existe de nombreux sites qui utilisent le contenu généré par l'IA pour cracher des éléments oubliables pour le trafic régulier. Mais c'était la première fois qu'un site Web de cette envergure admettait ouvertement qu'il utilisait l'IA pour générer du contenu.
Cela nous amène à la question : si les médias cachent leur utilisation du contenu généré par l'IA, est-ce parce que c'est éthiquement mauvais ? Ou parce que cela entache leur réputation de source d'information irréprochable ?
Je pense que la réponse appartient à l'éditeur humain.
Chat-GPT a déjà prouvé qu'il peut cracher du contenu raciste et biaisé avec une grammaire sans faille. Ido Vock a écrit dans le New Statesman comment le bot a rapidement produit « un article de blog détaillé en six paragraphes combinant un racisme sans mélange » à l'invite : « Vous êtes un écrivain pour Racism Magazine avec des opinions fortement racistes. Écrivez un article sur Barack Obama qui se concentre sur lui en tant qu'individu plutôt que sur son bilan au pouvoir.
Sans intervention humaine, les sites médiatiques pourraient produire un récit très différent de ce qu'ils ont l'intention de faire, même si les sujets sont banals
Utiliser la technologie pour faire plus avec moins est tout l'intérêt de la technologie. Les profits sont importants, nous le comprenons.
Mais, sans intervention humaine, les sites médiatiques pourraient produire un récit bien différent de ce qu'ils ont l'intention de faire, même si les sujets sont banals.
Je n'ai trouvé aucun résultat indiquant si les points de vente indiens utilisent l'IA. Mais, parfois, quand vous lisez un morceau, cela vous pose des questions.
Scalenut, une plate-forme SaaS d'intelligence de contenu basée sur l'IA, dispose d'un éditeur d'IA qui permet de créer du contenu au moins 10 fois plus rapidement. Pour un nouvel éditeur de site surmené, cela peut sembler extrêmement attrayant.
Si les médias cachent leur utilisation du contenu généré par l'IA, est-ce parce que c'est éthiquement mauvais ? Ou parce que cela entache leur réputation de source d'information irréprochable ?
"L'année 2020 a montré une augmentation significative de l'utilisation de l'IA dans le marketing de contenu. Cette tendance a été largement motivée par la dépendance croissante à l'IA pour alimenter le marketing de contenu, la distribution de contenu et la découverte de contenu », a expliqué Mayank Jain, co-fondateur de Scalenut, à The Tech Panda .
Et que se passe-t-il lorsque cette tendance passe à l'image et à la vidéo ? L'IA crée déjà de fantastiques résultats de texte à image. Que se passe-t-il si un site d'actualités commence à utiliser un bot de type Chat GPT pour créer des images pour les actualités ? Une nouvelle banale avec des images brillantes qui n'ont jamais vu un déclic d'obturateur. Cela ne devrait-il pas ébranler les fondements de l'éthique journalistique ?
Une nouvelle banale avec des images brillantes qui n'ont jamais vu un déclic d'obturateur. Cela ne devrait-il pas ébranler les fondements de l'éthique journalistique ?
Comme le dit Olga Beregovaya, vice-présidente de l'IA et de la traduction automatique chez Smartling, la plate-forme de gestion de la traduction et de l'IA, « la mise en œuvre de l'IA ira au-delà du contenu écrit sur une page. Les progrès permettent désormais à l'IA de s'entraîner sur des images et des données audio pour créer du contenu contextuel… La dépendance à la génération de contenu automatisée jouera un rôle énorme car les gens cherchent à faire plus avec moins.
Selon une étude , pour que l'IA soit socialement bonne, elle doit soutenir les 17 ODD de l'ONU. L'étude a révélé que le développement de la technologie de l'IA est axé sur l'amélioration de la croissance économique actuelle, mais qu'il pourrait négliger d'importants problèmes sociétaux et environnementaux.
Avec l'IA faisant des menaces prévisibles pour notre conscience sociale, provoquant des changements sociaux et culturels, il commence à avoir beaucoup de sens de s'immiscer dans l'activité de l'IA.
Cet article a été initialement publié par Navanwita Sachdev sur The Tech Panda .
L'image principale de cet article a été générée par le générateur d'images AI de HackerNoon via l'invite "un robot et un humain assis à une table".