Após o lançamento e a adoção em massa do ChatGPT, uma das maneiras pelas quais muitas pessoas tentaram descontar seu poder disruptivo é o argumento de que os modelos de inteligência artificial (IA) não têm a capacidade de processar emoções.
É bastante difícil aceitar que alguns poemas produzidos pelo ChatGPT ou imagens criadas pelo Midjourney careçam de profundidade artística ou alma criativa quando tais obras deslumbram artistas profissionais.
Se recente
Os modelos de IA conversacional generativa são projetados para reconhecer, interpretar e responder adequadamente às emoções humanas.
O uso de aprendizado por reforço de feedback humano (RHLF) ajuda os sistemas de IA a processar o contexto usando comportamentos aprendidos nas interações humanas para se adaptar a situações novas ou diferentes.
A capacidade de aceitar o feedback dos humanos e melhorar suas respostas em diferentes situações transmite um comportamento emocionalmente inteligente.
A inteligência emocional está se tornando popular na IA à medida que mais sistemas de IA são projetados para interagir com humanos. A incorporação da inteligência emocional à IA ajuda os desenvolvedores a criar sistemas mais semelhantes aos humanos e que podem entender e responder melhor às necessidades e emoções humanas.
Koko, um aplicativo de bate-papo de suporte emocional online, usado
O resultado bem-sucedido demonstrou ainda que os modelos de IA podem processar emoções de forma inteligente sem que as contrapartes humanas saibam a diferença.
Embora existam questões éticas ou de privacidade
Aproveitando a ampla aceitação e grande sucesso do ChatGPT, a Microsoft
Também conhecido como Bing Chat, o chatbot integra o modelo de IA de conversação generativa da OpenAI com o modelo proprietário da Microsoft para criar uma “coleção de capacidades e técnicas” conhecida como modelo Prometheus.
O modelo foi insultado como o “novo modelo de linguagem OpenAI de próxima geração que é mais poderoso que o ChatGPT”. Os dados de treinamento do ChatGPT são limitados a 2021 e a ferramenta não está conectada à internet.
No entanto, o Bing Chat leva a interação conversacional para o próximo nível, extraindo dados da Internet para aumentar sua resposta a um prompt.
A capacidade de inserir informações e referências atuais em seu feedback não é a única coisa que o chatbot da Microsoft pode fazer. É notório por ter opiniões muito fortes e agir de forma imprevisível e agressiva também.
Onde não deu
Em contraste, o ChatGPT respondeu à mesma consulta sem dar uma “atitude”.
A troca é uma indicação de que a IA pode transmitir desejos e necessidades que são emoções humanas típicas.
Uma IA desonesta é um modelo de IA que se comporta de maneiras diferentes de como foi treinado. Quando um sistema de IA se comporta de forma imprevisível, ele representa um risco para seus usuários e pode causar danos.
Existem várias razões pelas quais um sistema de IA pode se comportar de forma irregular, especialmente se for confrontado por uma circunstância imprevista.
Um sistema de IA pode ser desonesto como resultado de dados de treinamento inadequados, algoritmos defeituosos e dados tendenciosos.
A falta de transparência em como um sistema de IA toma decisões e a ausência de responsabilidade por suas ações e decisões são fatores que podem levar os modelos de IA a se comportarem de maneira maliciosa.
Atores de ameaças que hackeam com sucesso um sistema de IA podem fazer com que ele se comporte de maneira não intencional, injetando malware ou envenenando os dados de treinamento.
Google citou “
No entanto, devido à pressão do disruptivo ChatGPT, o Google lançou o Bard, que custou à gigante da tecnologia US$ 100 bilhões por dar uma resposta errada durante sua primeira demonstração pública.
Em 2022, a Meta lançou o
Em 2016, a Microsoft retirou seu chatbot de IA, Tay, uma semana após seu lançamento porque estava vomitando
No entanto, apesar do comportamento ameaçador do Bing Chat, a Microsoft ignorou
Existem preocupações éticas e legais sobre como os sistemas de IA são desenvolvidos e usados.
Embora o uso de um chatbot por Koko fosse mais uma implicação ética, há casos como práticas discriminatórias e violações de direitos humanos em que as tecnologias baseadas em IA foram causa de litígio.
No entanto, é diferente quando a IA é desonesta e ameaça prejudicar, como no caso do Bing Chat. Deve haver implicações legais? E se houver, quem está sendo processado? É um desafio determinar culpabilidade, responsabilidade e responsabilidade quando um sistema de IA causa danos ou prejuízos.
Existem direitos autorais
Se os litígios em andamento contra laboratórios e empresas de IA forem tomados como precedência, é seguro assumir que os desenvolvedores de IA desonesta podem ser responsabilizados pelo comportamento inadequado de seus sistemas de IA.
Para aquelas organizações que ainda estão pensando se serão responsabilizadas se sua tecnologia de IA for desonesta, a Lei de Inteligência Artificial da UE
A responsabilidade de garantir o comportamento dos sistemas de IA é dos desenvolvedores e empresas que os utilizam em suas operações.
Mais como garantir a proteção de dados, empresas e laboratórios devem garantir que controles apropriados sejam implementados para mitigar a manipulação não autorizada de dados e códigos de IA.
Prevenir a IA desonesta requer uma combinação de medidas técnicas e não técnicas. Isso inclui testes robustos, transparência, design ético e governança.
Medidas adequadas de segurança cibernética, como controle de acesso, gerenciamento de vulnerabilidades, atualizações regulares, proteção de dados e gerenciamento eficaz de dados, são cruciais para garantir a prevenção do acesso não autorizado aos sistemas de IA.
A supervisão humana e a colaboração com diferentes partes interessadas, como desenvolvedores de IA, pesquisadores, auditores, advogados e formuladores de políticas, podem ajudar a garantir que os modelos de IA sejam desenvolvidos de maneira confiável e responsável.
Em apenas três meses, o ChatGPT transformou nosso mundo. Existe um grande potencial para bots de conversação generativos e outros sistemas de IA para interromper os negócios, aprimorar a experiência do cliente, transformar a sociedade e criar oportunidades inovadoras.
No entanto, os sistemas de IA podem ser desonestos se não forem desenvolvidos e implantados com segurança e responsabilidade. A IA desonesta pode representar sérios riscos para os usuários e para a sociedade. Os desenvolvedores de IA e as empresas que usam sistemas de IA podem ser responsabilizados se seus sistemas de IA causarem danos ou prejuízos.
Garantir que os sistemas de IA se comportem conforme pretendido envolve a responsabilidade coletiva dos desenvolvedores, usuários e formuladores de políticas de IA.
Medidas técnicas, não técnicas e regulatórias apropriadas devem estar em vigor para verificar se a IA é desenvolvida e implantada de maneira segura, protegida e benéfica para a sociedade.