paint-brush
IA não é o problema, é a grande tecnologiaby@theantieconomist
956
956

IA não é o problema, é a grande tecnologia

Examinando a história dos grandes gigantes da tecnologia e a sua fraca segurança de dados, quais são os riscos reais da proliferação da IA? Parece que tem muito mais a ver com o uso de dados por grandes corporações do que com a própria IA.
featured image - IA não é o problema, é a grande tecnologia
The Anti-Economist HackerNoon profile picture


A Inteligência Artificial é tão assustadora quanto fomos levados a acreditar, ou são apenas os grandes gigantes da tecnologia que têm um histórico de uso antiético de dados, que continuarão a usar a IA da mesma forma que têm usado nossos outros dados: para encher os bolsos o máximo que puderem.


Mesmo aqueles com a compreensão mais rudimentar de Inteligência Artificial entendem que a sua força reside na sua capacidade de compreender dados, e se quiser que um Modelo de Linguagem ou IA seja mais inteligente ou treinado para um propósito específico, o elemento chave são os dados. É precisamente aqui que a IA e as grandes tecnologias começam o seu cruzamento, já que os gigantes da tecnologia terão as maiores reservas de dados na nuvem que podem ser usados para treinar e desenvolver modelos de IA.


Desde 2022, Google , Microsoft e Amazon investiram bilhões e estabeleceram relacionamentos sólidos com as empresas de desenvolvimento de IA mais avançadas de nosso tempo, logo após o lançamento da primeira versão do Chat GPT.


Mesmo dentro de tais acordos, os funcionários muitas vezes se encontram em dilemas éticos relacionados ao uso da IA nas grandes tecnologias. Dario Amodei deixou a Open AI, aparentemente devido a preocupações éticas e de segurança sobre o envolvimento da Microsoft. Pouco depois, ele fundou a Anthropic, para recorrer à outra meia-irmã malvada, levando cerca de US$ 1,25 bilhão de dólares em investimentos da Amazon eUS$ 2 bilhões do Google.


Dado o passado (e presente) turbulento das grandes empresas de tecnologia, a ética da privacidade e a sua onda de apoio à Inteligência Artificial, é provável que neste momento nos preocupemos que o problema não esteja no desenvolvimento da IA, mas nas preocupações de privacidade que temos. estamos muito familiarizados.


Examinando a relação entre gigantes da tecnologia, as preocupações com a privacidade, as capacidades dos modelos de linguagem de IA e as regulamentações governamentais, é crucial considerar os riscos associados ao elevado potencial da IA quando exercida por entidades com intenções maliciosas.



A revolução da IA

Modelos de aprendizagem de línguas (LLMs) ou Inteligência Artificial, como a maioria das pessoas a conhece, é uma combinação massiva de um conjunto de algoritmos que, juntos, são capazes de agir de forma autônoma para criar resultados com base nas informações nas quais foram treinados.


A IA não é uma ferramenta tão nova quanto muitos pensam; muitas ferramentas de IA são usadas em nossa vida cotidiana. Desde os mapas nos nossos carros, aos anúncios nas redes sociais e às nossas recomendações da Netflix, todos eles utilizam ferramentas de IA para aprender a nossa rotina e hábitos, e fazer recomendações e suposições sobre o que provavelmente nos envolveremos.


Usada corretamente, a Inteligência Artificial tem o poder de transformar a forma como interagimos com a tecnologia no nosso dia a dia. Não só poderia tornar as nossas vidas mais convenientes, mas também poderia transformar a acessibilidade para aqueles que de outra forma não seriam capazes de interagir com a realidade tão facilmente como a maioria. Pessoas com deficiência visual, por exemplo, poderiam usar IA narrar o mundo ao seu redor para uma melhor navegação.


A IA já está a ser utilizada para agilizar muitos processos diferentes, incluindo comércio eletrónico, tecnologia de saúde, finanças, agricultura e educação. Facilitando o trabalho das pessoas. Ser capaz de executar as tarefas automatizadas que nós, como seres humanos, já fazemos significa que não precisamos gastar tanto tempo em tarefas mundanas, uma grande parte do trabalho de muitas pessoas, e nos concentrar nas áreas onde a engenhosidade humana é fundamental.


Por exemplo, a IA torna mais fácil para mim decidir a melhor rota de deslocamento para o trabalho hoje, dada a construção na Broadway e a parada de trânsito no centro da cidade, o que significa que posso dormir mais 10 minutos e preparar um café antes de sair , o que tornará meu dia muito melhor e me permitirá ser mais produtivo no trabalho.


Algo importante a lembrar é que, ao contrário de outras ferramentas que dependem apenas de chips para controlar as suas funções, a IA é treinada com grandes quantidades de informação, que depois aprende e é capaz de recuperar quando lhe damos determinados comandos.


É aqui, em grande parte, que começa a relação entre o desenvolvimento da IA e as grandes tecnologias, uma vez que a Google, a Amazon e a Microsoft têm alguns dos maiores armazenamentos de dados humanos (provavelmente incluindo os seus) que podem e estão a aproveitar para treinar os seus modelos de IA.


É um pouco alarmante que as empresas que provaram ser as menos confiáveis em relação aos nossos dados sejam as que lideram o esforço para desenvolver uma IA ainda mais inteligente.


Escusado será dizer que parece uma receita para o desastre. E nós, os consumidores, temos muito a perder.


O lado negro da lua artificial

Muitos de nós no mundo da tecnologia estamos cautelosamente otimistas sobre o que as ferramentas generativas de IA reservam para o futuro e continuamos a ver inovações inspiradoras usando tecnologia de IA com grande potencial.


Não me entenda mal, a IA pode ser uma coisa muito boa em nosso mundo e atualmente está sendo usada para criar tecnologia crucial para ajudar muitas pessoas em suas vidas cotidianas, mas as preocupações e reservas que a maioria das pessoas tem sobre a IA precisam ser adequadamente abordadas ao introduzir uma tecnologia tão poderosa em nossas vidas diárias.


Por mais centrados no lucro que sejam, os grandes gigantes da tecnologia têm a responsabilidade de respeitar a privacidade dos dados dos seus consumidores (uma responsabilidade que têm continuamente desconsiderado ) e particularmente no que diz respeito à IA que é treinada com dados, torna-se extremamente importante estar muito consciente do tipo de dados que você está usando para treinar os modelos de linguagem. Na verdade, algumas pessoas não querem que suas fotos do Facebook, histórias do Instagram, histórico de localização, dados financeiros, etc. sejam usados para treinar um modelo de IA. Mais ainda, com dados mais confidenciais, como dados médicos, biométricos, financeiros e de localização.


A histeria da IA está errada?

Definitivamente vimos um absorção na histeria em torno da capacidade da IA e nas preocupações com a possibilidade de ela roubar empregos, ganhar senciência e, eventualmente, ultrapassar a raça humana, mas falando realisticamente, o que deveríamos ter medo é o Google usar nossos dados contra nós para maximizar o lucro. Isto é algo que eles têm feito, mas o potencial de usar os nossos dados contra nós torna-se mais sério quando começamos a lidar com uma IA que compreende e regista todos os aspectos da sua vida e é acessível às pessoas erradas.


Riscos de modelos de IA sendo treinados em dados confidenciais/pessoais

Já houve incidentes em que pessoas relataram que dados recolhidos através da Amazon Alexa foram solicitados e entregues às autoridades sem mandado, e utilizados contra elas numa investigação criminal.


Houve também vários incidentes em que dados pessoais foram utilizados para promover agendas políticas e potencialmente espalhar desinformação. Uma infinidade de violações de dados em que os dados recolhidos por grandes empresas de tecnologia caem em mãos erradas, dando acesso criminoso às informações pessoais de milhões de pessoas.


A utilização de dados pessoais para treinar modelos de IA abre um risco para potenciais problemas com violações de privacidade como resultado de acesso não autorizado no processo de entrada e troca de dados. Se não forem tratados sob escrutínio e com cuidado, durante o longo processo de utilização dos dados para treinar os modelos de IA, podem ser transmitidos muitas vezes, tendo as pessoas acesso não regulamentado aos dados pessoais. Ao lidar com informações tão complexas em volumes tão grandes, não é implausível que haja violações de dados como resultado de um lapso nas medidas de segurança que levem à divulgação não autorizada de informações confidenciais.


A importância de treinar IA em um conjunto diversificado de dados se deve à probabilidade muito real e previamente experimentada de um modelo de IA ter preconceitos e discriminação com base no treinamento que recebeu. Tomemos como exemplo o reconhecimento facial: um modelo de IA pode ser usado para detectar quem está roubando em uma determinada loja e alimentar a segurança durante um período de três anos. Se as pessoas que aparecem nas imagens de segurança forem predominantemente de uma raça específica, o modelo de IA pode começar a prever que qualquer pessoa que esteja fora desse grupo específico de pessoas tem maior probabilidade de roubar. Se os dados de formação não forem diversos e representativos, o modelo de IA poderá ter dificuldades em generalizar com precisão a sua aprendizagem para uma população diversificada.


Se os modelos de IA forem treinados apenas em um conjunto de dados demográficos, isso deixa um risco significativo de possíveis vieses no próprio modelo de linguagem, com base no viés dos dados. A questão é relativamente simples aqui; se determinados grupos tiverem mais dados pessoais disponíveis, como podemos evitar preconceitos na IA? Pode resultar em resultados de exclusão para comunidades sub-representadas no conjunto de dados.


Há também o factor de falta de consentimento e transparência quanto à divulgação aos utilizadores de que os seus dados estão a ser recolhidos para utilização na formação de modelos de IA. Hoje em dia, quando somos constantemente bombardeados com informações e muitas vezes experimentamos paralisia de escolha, 91% das pessoas não leem os termos e condições ao se inscreverem em qualquer aplicativo e, portanto, levanta a questão de saber se os consumidores realmente sabem exatamente o que estão assinando em relação aos seus direitos de dados. Isso pode desempenhar um papel importante na erosão da confiança do usuário, com estudos já constatando uma confiabilidade chocantemente baixa, com 42% das pessoas tendo pouca ou agora confiança nas grandes empresas de tecnologia.


É uma ameaça muito real que mesmo estes grandes gigantes da tecnologia sejam suscetíveis a ataques cibernéticos que levam a violações massivas de dados, como história recente tem demonstrado exaustivamente, e esses riscos só aumentam com o aumento da utilização e transmissão de grandes quantidades de dados, a fim de treinar a IA. Gigantes da tecnologia como o Facebook têm um histórico tenso com tais ataques cibernéticos e vazamentos de dados de usuários, e isso deixa o consumidor se perguntando se é sensato introduzir outro ponto de vulnerabilidade quando os gigantes da tecnologia nem sequer são capazes de lidar com o que já está acontecendo. seus pratos.


Outro problema potencial que poderemos observar nos próximos anos com a proliferação da tecnologia de IA é a reidentificação de dados anonimizados, que mais uma vez poderia revelar informações sensíveis que poderiam colocar os indivíduos em risco.


Pensamentos finais

Faz todo o sentido que muitas pessoas tenham muitas reservas sobre a inteligência artificial e o que ela poderia trazer para a força de trabalho (embora provavelmente não mudaria nada de qualquer maneira), mas acho que está em nosso instinto humano natural ser cético em relação a qualquer coisa nova. , esquecemos que o problema pode estar aqui o tempo todo.


Não é inteiramente culpa do trabalhador médio, estas corporações multibilionárias provavelmente fizeram um esforço considerável para garantir que não as odiamos tanto quanto deveríamos, mas ainda é bastante interessante ver as pessoas demonizarem a ferramenta que golpeia e não a mão que a empunha. Independentemente de você entender ou não a IA, você provavelmente ainda conhece as falhas de proteção de dados desses gigantes da tecnologia e, portanto, não deveria ser uma surpresa quando, nos próximos 5 anos, veremos controvérsia sobre o uso antiético da IA para acompanhe cada passo seu e ganhe dinheiro com isso.



Imagem principal de Adi Goldstein no Unsplash