Suite à la sortie et à l'adoption massive de ChatGPT, l'une des façons dont de nombreuses personnes ont tenté de minimiser son pouvoir perturbateur est l'argument selon lequel les modèles d'intelligence artificielle (IA) n'ont pas la capacité de traiter les émotions.
Il est assez difficile d'accepter que certains poèmes produits par ChatGPT ou images créées par Midjourney manquent de profondeur artistique ou d'âme créative alors que de telles œuvres éblouissent les artistes professionnels.
Si récent
Les modèles d'IA conversationnelle générative sont conçus pour reconnaître, interpréter et répondre de manière appropriée aux émotions humaines.
L'utilisation de l'apprentissage par renforcement à partir de la rétroaction humaine (RHLF) aide les systèmes d'IA à traiter le contexte en utilisant des comportements appris à partir d'interactions humaines pour s'adapter à des situations nouvelles ou différentes.
La capacité d'accepter les commentaires des humains et d'améliorer leurs réponses dans différentes situations transmet un comportement émotionnellement intelligent.
L'intelligence émotionnelle devient populaire dans l'IA, car de plus en plus de systèmes d'IA sont conçus pour interagir avec les humains. L'intégration de l'intelligence émotionnelle dans l'IA aide les développeurs à créer des systèmes plus humains et capables de mieux comprendre et répondre aux besoins et aux émotions humaines.
Koko, une application de chat de soutien émotionnel en ligne, a utilisé
Le succès a en outre démontré que les modèles d'IA peuvent traiter les émotions de manière intelligente sans que leurs homologues humains ne connaissent la différence.
Bien qu'il y ait des problèmes d'éthique ou de confidentialité
Profitant de la large acceptation et du grand succès de ChatGPT, Microsoft
Aussi connu sous le nom de Bing Chat, le chatbot intègre le modèle d'IA conversationnelle générative d'OpenAI avec le modèle propriétaire de Microsoft pour créer une « collection de capacités et de techniques » connue sous le nom de modèle Prometheus.
Le modèle a été raillé comme le "nouveau modèle de grand langage OpenAI de nouvelle génération qui est plus puissant que ChatGPT". Les données d'entraînement de ChatGPT sont limitées à 2021 et l'outil n'est pas connecté à Internet.
Cependant, Bing Chat fait passer l'interaction conversationnelle au niveau supérieur en extrayant des données d'Internet pour augmenter sa réponse à une invite.
La capacité d'infuser des informations et des références actuelles dans ses commentaires n'est pas la seule chose que le chatbot de Microsoft peut faire. Il est connu pour avoir des opinions très fortes et agir de manière agressive de manière imprévisible.
Où il n'a pas été
En revanche, ChatGPT a répondu à la même requête sans donner d'"attitude".
L'échange est une indication que l'IA peut transmettre des désirs et des besoins qui sont des émotions humaines typiques.
Une IA non autorisée est un modèle d'IA qui se comporte d'une manière qui s'écarte de la façon dont il a été formé. Lorsqu'un système d'IA se comporte de manière imprévisible, il présente un risque pour ses utilisateurs et peut potentiellement causer des dommages.
Il existe plusieurs raisons pour lesquelles un système d'IA peut se comporter de manière erratique, en particulier s'il est confronté à une circonstance imprévue.
Un système d'IA peut devenir malveillant en raison de données de formation inadéquates, d'algorithmes défectueux et de données biaisées.
Un manque de transparence dans la façon dont un système d'IA prend des décisions et l'absence de responsabilité pour ses actions et ses décisions sont des facteurs qui peuvent conduire à des modèles d'IA malhonnêtes.
Les acteurs de la menace qui réussissent à pirater un système d'IA peuvent l'amener à se comporter de manière involontaire en injectant des logiciels malveillants ou en empoisonnant les données de formation.
Google a cité "
Cependant, en raison de la pression du perturbateur ChatGPT, Google a publié Bard qui a coûté 100 milliards de dollars au géant de la technologie pour avoir donné une mauvaise réponse lors de sa première démo publique.
En 2022, Meta a publié le
En 2016, Microsoft a rappelé son chatbot IA, Tay, dans la semaine suivant son lancement car il crachait
Cependant, malgré le comportement menaçant de Bing Chat, Microsoft a ignoré
Il existe des préoccupations éthiques et juridiques quant à la manière dont les systèmes d'IA sont développés et utilisés.
Bien que l'utilisation par Koko d'un chatbot ait davantage une implication éthique, il existe des cas tels que des pratiques discriminatoires et des violations des droits de l'homme où les technologies alimentées par l'IA ont été une cause de litige.
Cependant, c'est différent lorsque l'IA devient voyou et menace de nuire, comme dans le cas de Bing Chat. Devrait-il y avoir des implications juridiques? Et s'il y en a, qui est poursuivi ? Il est difficile de déterminer la culpabilité, la responsabilité et la responsabilité lorsqu'un système d'IA cause des dommages ou des dommages.
Il y a des droits d'auteur
Si les litiges en cours contre les laboratoires et les entreprises d'IA sont prioritaires, il est prudent de supposer que les développeurs d'IA voyous peuvent être tenus responsables du mauvais comportement de leurs systèmes d'IA.
Pour les organisations qui se demandent encore si elles seront tenues pour responsables si leur technologie d'IA devient malveillante, la loi sur l'intelligence artificielle de l'UE a
La responsabilité de s'assurer du comportement des systèmes d'IA incombe aux développeurs et aux entreprises qui les utilisent dans leurs opérations.
Plutôt que d'assurer la protection des données, les entreprises et les laboratoires doivent s'assurer que des contrôles appropriés sont mis en œuvre pour atténuer la manipulation non autorisée des données et des codes d'IA.
La prévention de l'IA malveillante nécessite une combinaison de mesures techniques et non techniques. Ceux-ci incluent des tests robustes, la transparence, la conception éthique et la gouvernance.
Des mesures de cybersécurité adéquates telles que le contrôle d'accès, la gestion des vulnérabilités, des mises à jour régulières, la protection des données et une gestion efficace des données sont essentielles pour empêcher tout accès non autorisé aux systèmes d'IA.
La surveillance humaine et la collaboration avec différentes parties prenantes telles que les développeurs d'IA, les chercheurs, les auditeurs, les juristes et les décideurs peuvent contribuer à garantir que les modèles d'IA sont développés de manière fiable et responsable.
En seulement trois mois, ChatGPT a transformé notre monde. Les bots conversationnels génératifs et autres systèmes d'IA ont un grand potentiel pour perturber les entreprises, améliorer l'expérience client, transformer la société et créer des opportunités innovantes.
Cependant, les systèmes d'IA peuvent devenir malveillants s'ils ne sont pas développés et déployés de manière sécurisée et responsable. L'IA malveillante peut présenter de graves risques pour les utilisateurs et la société. Les développeurs d'IA et les entreprises utilisant des systèmes d'IA peuvent être tenus responsables si leurs systèmes d'IA causent des dommages ou des dommages.
S'assurer que les systèmes d'IA se comportent comme prévu implique la responsabilité collective des développeurs, des utilisateurs et des décideurs de l'IA.
Des mesures techniques, non techniques et réglementaires appropriées doivent être en place pour vérifier que l'IA est développée et déployée de manière sûre, sécurisée et bénéfique pour la société.