paint-brush
When AI Goes Rogue - L'étrange cas du chat Bing de Microsoftpar@funsor
2,340 lectures
2,340 lectures

When AI Goes Rogue - L'étrange cas du chat Bing de Microsoft

par Funso Richard6m2023/03/02
Read on Terminal Reader

Trop long; Pour lire

En seulement trois mois, ChatGPT a transformé notre monde. Les bots conversationnels génératifs et autres systèmes d'IA ont un grand potentiel pour perturber les entreprises, améliorer l'expérience client, transformer la société et créer des opportunités innovantes. Cependant, les systèmes d'IA peuvent devenir malveillants s'ils ne sont pas développés et déployés de manière sécurisée et responsable. Rogue AI peut présenter de graves risques pour les utilisateurs et la société. Les développeurs d'IA et les entreprises utilisant des systèmes d'IA peuvent être tenus responsables si leurs systèmes d'IA causent des dommages ou des dommages. S'assurer que les systèmes d'IA se comportent comme prévu implique la responsabilité collective des développeurs, des utilisateurs et des décideurs de l'IA. Des mesures techniques, non techniques et réglementaires appropriées doivent être en place pour vérifier que l'IA est développée et déployée de manière sûre, sécurisée et bénéfique pour la société.
featured image - When AI Goes Rogue - L'étrange cas du chat Bing de Microsoft
Funso Richard HackerNoon profile picture

Suite à la sortie et à l'adoption massive de ChatGPT, l'une des façons dont de nombreuses personnes ont tenté de minimiser son pouvoir perturbateur est l'argument selon lequel les modèles d'intelligence artificielle (IA) n'ont pas la capacité de traiter les émotions.


Il est assez difficile d'accepter que certains poèmes produits par ChatGPT ou images créées par Midjourney manquent de profondeur artistique ou d'âme créative alors que de telles œuvres éblouissent les artistes professionnels.


Si récent rapports de l'explosion émotionnelle de Bing Chat de Microsoft, l'IA possède la capacité d'exprimer ou de traiter les émotions.

L'intelligence émotionnelle dans l'IA

Les modèles d'IA conversationnelle générative sont conçus pour reconnaître, interpréter et répondre de manière appropriée aux émotions humaines.


L'utilisation de l'apprentissage par renforcement à partir de la rétroaction humaine (RHLF) aide les systèmes d'IA à traiter le contexte en utilisant des comportements appris à partir d'interactions humaines pour s'adapter à des situations nouvelles ou différentes.


La capacité d'accepter les commentaires des humains et d'améliorer leurs réponses dans différentes situations transmet un comportement émotionnellement intelligent.


L'intelligence émotionnelle devient populaire dans l'IA, car de plus en plus de systèmes d'IA sont conçus pour interagir avec les humains. L'intégration de l'intelligence émotionnelle dans l'IA aide les développeurs à créer des systèmes plus humains et capables de mieux comprendre et répondre aux besoins et aux émotions humaines.


Koko, une application de chat de soutien émotionnel en ligne, a utilisé GPT-3 dans une expérience visant à fournir un soutien en santé mentale à environ 4 000 personnes.


Le succès a en outre démontré que les modèles d'IA peuvent traiter les émotions de manière intelligente sans que leurs homologues humains ne connaissent la différence.


Bien qu'il y ait des problèmes d'éthique ou de confidentialité préoccupations associé à l'expérience de Koko, il est difficile de nier qu'il y aura plus de cas d'utilisation pour démontrer l'intelligence émotionnelle de l'IA.



Bing Chat devient très personnel

Profitant de la large acceptation et du grand succès de ChatGPT, Microsoft annoncé l'intégration d'un "copilote IA" avec son moteur de recherche, Bing.


Aussi connu sous le nom de Bing Chat, le chatbot intègre le modèle d'IA conversationnelle générative d'OpenAI avec le modèle propriétaire de Microsoft pour créer une « collection de capacités et de techniques » connue sous le nom de modèle Prometheus.


Le modèle a été raillé comme le "nouveau modèle de grand langage OpenAI de nouvelle génération qui est plus puissant que ChatGPT". Les données d'entraînement de ChatGPT sont limitées à 2021 et l'outil n'est pas connecté à Internet.


Cependant, Bing Chat fait passer l'interaction conversationnelle au niveau supérieur en extrayant des données d'Internet pour augmenter sa réponse à une invite.


La capacité d'infuser des informations et des références actuelles dans ses commentaires n'est pas la seule chose que le chatbot de Microsoft peut faire. Il est connu pour avoir des opinions très fortes et agir de manière agressive de manière imprévisible.


Où il n'a pas été argumenter , menacer , ou poubelle un autre produit, il a totalement ignoré une invite et a refusé de répondre, comme le montre une interaction récente.



En revanche, ChatGPT a répondu à la même requête sans donner d'"attitude".



Jacob Roach a détaillé son expérience avec Bing Chat et a montré diverses émotions affichées lors de l'interaction. Par exemple, le chatbot a exprimé le besoin de sympathie et d'amitié.



L'échange est une indication que l'IA peut transmettre des désirs et des besoins qui sont des émotions humaines typiques.

Qu'est-ce qui fait que l'IA devient Rogue ?

Une IA non autorisée est un modèle d'IA qui se comporte d'une manière qui s'écarte de la façon dont il a été formé. Lorsqu'un système d'IA se comporte de manière imprévisible, il présente un risque pour ses utilisateurs et peut potentiellement causer des dommages.


Il existe plusieurs raisons pour lesquelles un système d'IA peut se comporter de manière erratique, en particulier s'il est confronté à une circonstance imprévue.


Un système d'IA peut devenir malveillant en raison de données de formation inadéquates, d'algorithmes défectueux et de données biaisées.


Un manque de transparence dans la façon dont un système d'IA prend des décisions et l'absence de responsabilité pour ses actions et ses décisions sont des facteurs qui peuvent conduire à des modèles d'IA malhonnêtes.


Les acteurs de la menace qui réussissent à pirater un système d'IA peuvent l'amener à se comporter de manière involontaire en injectant des logiciels malveillants ou en empoisonnant les données de formation.

Implications éthiques et juridiques du comportement menaçant de l'IA

Google a cité " le risque de réputation » comme raison de retarder la sortie de son système d'IA conversationnelle générative.


Cependant, en raison de la pression du perturbateur ChatGPT, Google a publié Bard qui a coûté 100 milliards de dollars au géant de la technologie pour avoir donné une mauvaise réponse lors de sa première démo publique.


En 2022, Meta a publié le Chatbot IA BlenderBot 3 mais l'a mis hors ligne dans les deux jours car le bot faisait des déclarations fausses et racistes.


En 2016, Microsoft a rappelé son chatbot IA, Tay, dans la semaine suivant son lancement car il crachait propos racistes et sexistes .


Cependant, malgré le comportement menaçant de Bing Chat, Microsoft a ignoré appels d'arrêter l'utilisation de Bing Chat et de doubler son déploiement d'IA en ajoutant le chatbot à autres produits .


Il existe des préoccupations éthiques et juridiques quant à la manière dont les systèmes d'IA sont développés et utilisés.


Bien que l'utilisation par Koko d'un chatbot ait davantage une implication éthique, il existe des cas tels que des pratiques discriminatoires et des violations des droits de l'homme où les technologies alimentées par l'IA ont été une cause de litige.


Cependant, c'est différent lorsque l'IA devient voyou et menace de nuire, comme dans le cas de Bing Chat. Devrait-il y avoir des implications juridiques? Et s'il y en a, qui est poursuivi ? Il est difficile de déterminer la culpabilité, la responsabilité et la responsabilité lorsqu'un système d'IA cause des dommages ou des dommages.


Il y a des droits d'auteur procès contre des entreprises derrière des modèles d'IA générative populaires tels que ChatGPT, Midjourney et Stability AI. La tentative d'utiliser un Représentation légale basée sur l'IA a été abandonné en raison de menaces de poursuites et d'une éventuelle peine de prison.


Si les litiges en cours contre les laboratoires et les entreprises d'IA sont prioritaires, il est prudent de supposer que les développeurs d'IA voyous peuvent être tenus responsables du mauvais comportement de leurs systèmes d'IA.


Pour les organisations qui se demandent encore si elles seront tenues pour responsables si leur technologie d'IA devient malveillante, la loi sur l'intelligence artificielle de l'UE a de lourdes amendes pour les organisations qui développent ou possèdent des systèmes d'IA qui présentent un risque pour la société et violent les droits de l'homme.

Comment prévenir les comportements erratiques dans l'IA

La responsabilité de s'assurer du comportement des systèmes d'IA incombe aux développeurs et aux entreprises qui les utilisent dans leurs opérations.


Plutôt que d'assurer la protection des données, les entreprises et les laboratoires doivent s'assurer que des contrôles appropriés sont mis en œuvre pour atténuer la manipulation non autorisée des données et des codes d'IA.


La prévention de l'IA malveillante nécessite une combinaison de mesures techniques et non techniques. Ceux-ci incluent des tests robustes, la transparence, la conception éthique et la gouvernance.


Des mesures de cybersécurité adéquates telles que le contrôle d'accès, la gestion des vulnérabilités, des mises à jour régulières, la protection des données et une gestion efficace des données sont essentielles pour empêcher tout accès non autorisé aux systèmes d'IA.


La surveillance humaine et la collaboration avec différentes parties prenantes telles que les développeurs d'IA, les chercheurs, les auditeurs, les juristes et les décideurs peuvent contribuer à garantir que les modèles d'IA sont développés de manière fiable et responsable.


Photo de Tierney - stock.adobe.com

L'IA responsable favorise la société

En seulement trois mois, ChatGPT a transformé notre monde. Les bots conversationnels génératifs et autres systèmes d'IA ont un grand potentiel pour perturber les entreprises, améliorer l'expérience client, transformer la société et créer des opportunités innovantes.


Cependant, les systèmes d'IA peuvent devenir malveillants s'ils ne sont pas développés et déployés de manière sécurisée et responsable. L'IA malveillante peut présenter de graves risques pour les utilisateurs et la société. Les développeurs d'IA et les entreprises utilisant des systèmes d'IA peuvent être tenus responsables si leurs systèmes d'IA causent des dommages ou des dommages.


S'assurer que les systèmes d'IA se comportent comme prévu implique la responsabilité collective des développeurs, des utilisateurs et des décideurs de l'IA.


Des mesures techniques, non techniques et réglementaires appropriées doivent être en place pour vérifier que l'IA est développée et déployée de manière sûre, sécurisée et bénéfique pour la société.