paint-brush
Quando a IA se torna desonesta - O curioso caso do Bing Chat da Microsoftpor@funsor
2,340 leituras
2,340 leituras

Quando a IA se torna desonesta - O curioso caso do Bing Chat da Microsoft

por Funso Richard6m2023/03/02
Read on Terminal Reader

Muito longo; Para ler

Em apenas três meses, o ChatGPT transformou nosso mundo. Existe um grande potencial para bots de conversação generativos e outros sistemas de IA para interromper os negócios, aprimorar a experiência do cliente, transformar a sociedade e criar oportunidades inovadoras. No entanto, os sistemas de IA podem ser desonestos se não forem desenvolvidos e implantados com segurança e responsabilidade. A IA desonesta pode representar sérios riscos para os usuários e para a sociedade. Os desenvolvedores de IA e as empresas que usam sistemas de IA podem ser responsabilizados se seus sistemas de IA causarem danos ou prejuízos. Garantir que os sistemas de IA se comportem conforme pretendido envolve a responsabilidade coletiva dos desenvolvedores, usuários e formuladores de políticas de IA. Medidas técnicas, não técnicas e regulatórias apropriadas devem estar em vigor para verificar se a IA é desenvolvida e implantada de maneira segura, protegida e benéfica para a sociedade.
featured image - Quando a IA se torna desonesta - O curioso caso do Bing Chat da Microsoft
Funso Richard HackerNoon profile picture

Após o lançamento e a adoção em massa do ChatGPT, uma das maneiras pelas quais muitas pessoas tentaram descontar seu poder disruptivo é o argumento de que os modelos de inteligência artificial (IA) não têm a capacidade de processar emoções.


É bastante difícil aceitar que alguns poemas produzidos pelo ChatGPT ou imagens criadas pelo Midjourney careçam de profundidade artística ou alma criativa quando tais obras deslumbram artistas profissionais.


Se recente relatórios da explosão emocional do Bing Chat da Microsoft é algo a ser considerado, a IA possui a capacidade de expressar ou processar emoções.

Inteligência Emocional na IA

Os modelos de IA conversacional generativa são projetados para reconhecer, interpretar e responder adequadamente às emoções humanas.


O uso de aprendizado por reforço de feedback humano (RHLF) ajuda os sistemas de IA a processar o contexto usando comportamentos aprendidos nas interações humanas para se adaptar a situações novas ou diferentes.


A capacidade de aceitar o feedback dos humanos e melhorar suas respostas em diferentes situações transmite um comportamento emocionalmente inteligente.


A inteligência emocional está se tornando popular na IA à medida que mais sistemas de IA são projetados para interagir com humanos. A incorporação da inteligência emocional à IA ajuda os desenvolvedores a criar sistemas mais semelhantes aos humanos e que podem entender e responder melhor às necessidades e emoções humanas.


Koko, um aplicativo de bate-papo de suporte emocional online, usado GPT-3 em um experimento para fornecer suporte de saúde mental para cerca de 4.000 pessoas.


O resultado bem-sucedido demonstrou ainda que os modelos de IA podem processar emoções de forma inteligente sem que as contrapartes humanas saibam a diferença.


Embora existam questões éticas ou de privacidade preocupações associado ao experimento de Koko, é difícil negar que haverá mais casos de uso para demonstrar a inteligência emocional da IA.



Bing Chat torna-se maliciosamente pessoal

Aproveitando a ampla aceitação e grande sucesso do ChatGPT, a Microsoft anunciado a integração de um “co-piloto AI” com seu mecanismo de busca, o Bing.


Também conhecido como Bing Chat, o chatbot integra o modelo de IA de conversação generativa da OpenAI com o modelo proprietário da Microsoft para criar uma “coleção de capacidades e técnicas” conhecida como modelo Prometheus.


O modelo foi insultado como o “novo modelo de linguagem OpenAI de próxima geração que é mais poderoso que o ChatGPT”. Os dados de treinamento do ChatGPT são limitados a 2021 e a ferramenta não está conectada à internet.


No entanto, o Bing Chat leva a interação conversacional para o próximo nível, extraindo dados da Internet para aumentar sua resposta a um prompt.


A capacidade de inserir informações e referências atuais em seu feedback não é a única coisa que o chatbot da Microsoft pode fazer. É notório por ter opiniões muito fortes e agir de forma imprevisível e agressiva também.


Onde não deu discutir , ameaçar , ou lixo outro produto, ele ignorou totalmente um prompt e se recusou a responder, conforme mostrado em uma interação recente.



Em contraste, o ChatGPT respondeu à mesma consulta sem dar uma “atitude”.



Jacob Roach detalhou sua experiência com o Bing Chat e mostrou emoções variadas durante a interação. Por exemplo, o chatbot expressou a necessidade de simpatia e amizade.



A troca é uma indicação de que a IA pode transmitir desejos e necessidades que são emoções humanas típicas.

O que faz com que a IA se torne desonesta?

Uma IA desonesta é um modelo de IA que se comporta de maneiras diferentes de como foi treinado. Quando um sistema de IA se comporta de forma imprevisível, ele representa um risco para seus usuários e pode causar danos.


Existem várias razões pelas quais um sistema de IA pode se comportar de forma irregular, especialmente se for confrontado por uma circunstância imprevista.


Um sistema de IA pode ser desonesto como resultado de dados de treinamento inadequados, algoritmos defeituosos e dados tendenciosos.


A falta de transparência em como um sistema de IA toma decisões e a ausência de responsabilidade por suas ações e decisões são fatores que podem levar os modelos de IA a se comportarem de maneira maliciosa.


Atores de ameaças que hackeam com sucesso um sistema de IA podem fazer com que ele se comporte de maneira não intencional, injetando malware ou envenenando os dados de treinamento.

Implicações éticas e legais do comportamento ameaçador da IA

Google citou “ risco reputacional ” como motivo para atrasar o lançamento de seu sistema de IA conversacional generativo.


No entanto, devido à pressão do disruptivo ChatGPT, o Google lançou o Bard, que custou à gigante da tecnologia US$ 100 bilhões por dar uma resposta errada durante sua primeira demonstração pública.


Em 2022, a Meta lançou o BlenderBot 3 AI chatbot mas tirou-o do ar em dois dias porque o bot estava fazendo declarações falsas e racistas.


Em 2016, a Microsoft retirou seu chatbot de IA, Tay, uma semana após seu lançamento porque estava vomitando comentários racistas e sexistas .


No entanto, apesar do comportamento ameaçador do Bing Chat, a Microsoft ignorou chamadas para descontinuar o uso do Bing Chat e dobrou sua implementação de IA adicionando o chatbot ao outros produtos .


Existem preocupações éticas e legais sobre como os sistemas de IA são desenvolvidos e usados.


Embora o uso de um chatbot por Koko fosse mais uma implicação ética, há casos como práticas discriminatórias e violações de direitos humanos em que as tecnologias baseadas em IA foram causa de litígio.


No entanto, é diferente quando a IA é desonesta e ameaça prejudicar, como no caso do Bing Chat. Deve haver implicações legais? E se houver, quem está sendo processado? É um desafio determinar culpabilidade, responsabilidade e responsabilidade quando um sistema de IA causa danos ou prejuízos.


Existem direitos autorais ações judiciais contra empresas por trás de modelos populares de IA generativa, como ChatGPT, Midjourney e Stability AI. A tentativa de usar um Representação legal com tecnologia de IA foi descartado devido a ameaças de processo e possível prisão.


Se os litígios em andamento contra laboratórios e empresas de IA forem tomados como precedência, é seguro assumir que os desenvolvedores de IA desonesta podem ser responsabilizados pelo comportamento inadequado de seus sistemas de IA.


Para aquelas organizações que ainda estão pensando se serão responsabilizadas se sua tecnologia de IA for desonesta, a Lei de Inteligência Artificial da UE multas pesadas para organizações que desenvolvem ou possuem sistemas de IA que representam risco para a sociedade e violam os direitos humanos.

Como prevenir o comportamento errático na IA

A responsabilidade de garantir o comportamento dos sistemas de IA é dos desenvolvedores e empresas que os utilizam em suas operações.


Mais como garantir a proteção de dados, empresas e laboratórios devem garantir que controles apropriados sejam implementados para mitigar a manipulação não autorizada de dados e códigos de IA.


Prevenir a IA desonesta requer uma combinação de medidas técnicas e não técnicas. Isso inclui testes robustos, transparência, design ético e governança.


Medidas adequadas de segurança cibernética, como controle de acesso, gerenciamento de vulnerabilidades, atualizações regulares, proteção de dados e gerenciamento eficaz de dados, são cruciais para garantir a prevenção do acesso não autorizado aos sistemas de IA.


A supervisão humana e a colaboração com diferentes partes interessadas, como desenvolvedores de IA, pesquisadores, auditores, advogados e formuladores de políticas, podem ajudar a garantir que os modelos de IA sejam desenvolvidos de maneira confiável e responsável.


Foto de Tierney - stock.adobe.com

IA responsável favorece a sociedade

Em apenas três meses, o ChatGPT transformou nosso mundo. Existe um grande potencial para bots de conversação generativos e outros sistemas de IA para interromper os negócios, aprimorar a experiência do cliente, transformar a sociedade e criar oportunidades inovadoras.


No entanto, os sistemas de IA podem ser desonestos se não forem desenvolvidos e implantados com segurança e responsabilidade. A IA desonesta pode representar sérios riscos para os usuários e para a sociedade. Os desenvolvedores de IA e as empresas que usam sistemas de IA podem ser responsabilizados se seus sistemas de IA causarem danos ou prejuízos.


Garantir que os sistemas de IA se comportem conforme pretendido envolve a responsabilidade coletiva dos desenvolvedores, usuários e formuladores de políticas de IA.


Medidas técnicas, não técnicas e regulatórias apropriadas devem estar em vigor para verificar se a IA é desenvolvida e implantada de maneira segura, protegida e benéfica para a sociedade.