paint-brush
75% das empresas estão proibindo o uso do ChatGPT: o que aconteceu?por@georgedrennan
2,232 leituras
2,232 leituras

75% das empresas estão proibindo o uso do ChatGPT: o que aconteceu?

por George Drennan4m2023/09/25
Read on Terminal Reader

Muito longo; Para ler

ChatGPT conquistou o mundo desde seu lançamento no ano passado. Mas uma pesquisa recente descobriu que 75% das empresas implementaram ou estão considerando proibir o ChatGPT e outras aplicações de IA generativa em seus locais de trabalho. As empresas estão preocupadas com potenciais riscos de segurança cibernética. A primeira grande fuga de dados do ChatG PT ocorreu no início deste ano e envolveu a gigante tecnológica Samsung.
featured image - 75% das empresas estão proibindo o uso do ChatGPT: o que aconteceu?
George Drennan HackerNoon profile picture
0-item

O período de lua de mel do ChatGPT acabou?


ChatGPT conquistou o mundo desde seu lançamento no ano passado. No entanto, uma pesquisa recente descobriu que 75% das empresas implementaram ou estão considerando proibir o ChatGPT e outros aplicativos de IA generativa em seus locais de trabalho.


Por que as empresas estão ficando indiferentes em relação ao ChatGPT?


Não é que duvidem das suas capacidades. Em vez disso, estão preocupados com potenciais riscos de segurança cibernética.


Uma preocupação crescente: vazamentos de dados e ChatGPT

As ferramentas de IA generativa são projetadas para aprender com cada interação. Quanto mais dados você fornece a eles, mais inteligentes eles se tornam. Parece ótimo, certo?


Mas há uma área cinzenta sobre para onde vão os dados, quem os vê e como são usados.


Estas preocupações com a privacidade levaram a autoridade italiana de proteção de dados banindo temporariamente o ChatGPT em abril.


Para as empresas, a preocupação é que o ChatGPT possa pegar as informações enviadas pelos usuários, aprender com elas e, potencialmente, deixá-las escapar em futuras interações com outros usuários.


As diretrizes da OpenAI para ChatGPT indicam que os dados do usuário podem ser revisados e usados para refinar o sistema. Mas o que isso significa para a privacidade dos dados?


A resposta não é clara e é isso que está causando a ansiedade.


Preocupações com vazamento de dados: Qual é o risco real?

Um estudo da Cyberhaven descobriu que até 1º de junho, 10,8% dos trabalhadores utilizavam o ChatGPT no trabalho, com 8,6% inserindo informações da empresa. A estatística alarmante é que 4,7% dos trabalhadores inseriram informações confidenciais no ChatGPT.


Resultados do estudo Cyberhaven


E devido à forma como o ChatGPT funciona, faltam medidas de segurança tradicionais. A maioria dos produtos de segurança são projetados para proteger arquivos contra compartilhamento ou upload. Mas os usuários do ChatGPT copiam e colam conteúdo em seus navegadores.


Agora, a OpenAI adicionou uma opção de cancelamento. Os usuários podem solicitar que seus dados não sejam utilizados para treinamento adicional.


Mas o opt-out não é a configuração padrão. Portanto, a menos que os utilizadores estejam conscientes e tomem medidas proativas, as suas interações poderão ser usadas para treinar a IA.


As preocupações não param por aí.


Mesmo se você cancelar, seus dados ainda passarão pelo sistema. E embora a OpenAI garanta aos usuários que os dados são gerenciados de forma responsável, o ChatGPT funciona como uma caixa preta . Não está claro como os dados fluem dentro do sistema depois de ingeridos.


Também existe o risco de algo dar errado.


Em 21 de março de 2023, a OpenAI encerrou o ChatGPT devido a uma falha que intitulava incorretamente os históricos de bate-papo com nomes de diferentes usuários. Se esses títulos contivessem detalhes privados ou confidenciais, outros usuários do ChatGPT poderiam tê-los visto. O bug também expôs dados pessoais de alguns assinantes do ChatGPT Plus.

O incidente da Samsung

O primeiro grande vazamento de dados do ChatGPT ocorreu no início deste ano e envolveu a gigante da tecnologia Samsung . De acordo com a Bloomberg, o código-fonte interno sensível foi vazou acidentalmente depois que um engenheiro o carregou no ChatGPT.


Um vazamento como esse pode ter implicações graves.


E não foi apenas a Samsung. A Amazon , outro titã da indústria tecnológica, tinha as suas próprias preocupações. A empresa instâncias identificadas onde as respostas do ChatGPT se assemelhavam estranhamente aos dados internos da Amazon.


Se o ChatGPT possui dados proprietários da Amazon, o que o impede de divulgá-los inadvertidamente aos concorrentes?


Falta de regulamentos claros

A rápida evolução e adoção de ferramentas de IA generativa deixaram os órgãos reguladores tentando recuperar o atraso. Existem diretrizes limitadas sobre o uso responsável.


Então, se houver uma violação de dados por causa da IA, quem será o responsável – a empresa que utiliza a ferramenta, os funcionários ou o fornecedor de IA?


Em OpenAI Termos de uso , a responsabilidade é do usuário:

Termos de uso da OpenAI


Isso coloca o risco nas empresas. Sem regulamentos claros, cabe-lhes decidir qual o melhor curso de acção. É por isso que muitos estão agora se tornando mais hesitantes.


Visões conflitantes de líderes tecnológicos

Quando se trata de implantar novas tecnologias, as empresas muitas vezes recorrem aos líderes tecnológicos. Se uma gigante da tecnologia adota uma inovação, muitas vezes isso é visto como um sinal verde para outras empresas seguirem o exemplo.


Assim, quando uma empresa tão influente como a Microsoft oferece sinais contraditórios em relação a uma tecnologia, as repercussões são sentidas em todos os setores.


Por um lado, a Microsoft expressou reservas quanto ao uso de ferramentas de IA generativa. Em janeiro, a Microsoft alertou os funcionários para não compartilharem “dados confidenciais” com o ChatGPT.



Mas a Microsoft também defende sua própria versão da tecnologia, o Azure ChatGPT. Esta iteração promete um ambiente mais seguro e controlado para usuários corporativos.


Esta mudança levanta questões: O Azure ChatGPT é genuinamente imune aos riscos que a Microsoft apontou no cenário mais amplo da IA generativa? Ou será esta uma manobra estratégica para garantir que as empresas permaneçam dentro do ecossistema da Microsoft?


O equilíbrio da adoção do ChatGPT

Ao avaliar qualquer nova tecnologia, as empresas são frequentemente apanhadas num cabo de guerra entre os potenciais benefícios e as potenciais armadilhas.


Com o ChatGPT, as empresas parecem estar adotando uma abordagem de esperar para ver.


À medida que a tecnologia e os seus regulamentos evoluem, espera-se que seja possível estabelecer uma utilização mais segura e transparente.


Por enquanto, ChatGPT é ótimo para obter ajuda e conteúdo de codificação. Mas eu não confiaria nele dados proprietários.