paint-brush
A IA está falhando no ciberespaçopor@mackj01
912 leituras
912 leituras

A IA está falhando no ciberespaço

por Mackenzie Jackson4m2024/10/22
Read on Terminal Reader

Muito longo; Para ler

A IA não é eficaz em segurança e é mais uma ferramenta de marketing do que qualquer coisa útil atualmente. Precisamos capacitar os humanos e não substituí-los, e focar no que a IA realmente faz bem - identificação e classificação.
featured image - A IA está falhando no ciberespaço
Mackenzie Jackson HackerNoon profile picture


Em outubro de 2022 publiquei o artigo mais embaraçoso da minha carreira, mas 2 anos depois estou começando a achar que talvez eu estivesse certo.


Passeando pelo colossal salão de fornecedores na BlackHat em 2022, cada barraca fez alguma afirmação ousada sobre IA. “ Análise com tecnologia de IA”, “Combinando IA com detecção em tempo real” ou algum outro slogan. Sempre que você fala com a equipe de vendas para perguntar exatamente o que sua IA fez, você ouve uma sucessão de jargões de IA ou uma afirmação sobre equipes secretas de pesquisa em cofres subterrâneos na Antártida.


Em seguida, publiquei com confiança um artigo chamando a IA de nada mais do que marketing BS… “BlackHat 2022, mais A do que I”. Avançando alguns meses, o ChatGPT foi lançado. De repente, a IA se tornou real e, de repente, meu artigo brilhante era uma piada, e descaradamente errado.


Mas, depois de passear pelo salão de fornecedores da BlackHat 2024 este ano, talvez eu não estivesse tão longe assim.


É inegável que a IA é de fato real e que tem um enorme potencial para mudar o cenário. E de muitas maneiras já mudou. Algo em que eu não acreditava há 2 anos. Mas, ao caminhar pelos corredores expansivos do Mandalay Bay para o BlackHat 2024, você ainda vê os mesmos slogans e eu ainda não encontrei uma implementação significativa de IA em segurança que eu possa apontar que corresponda remotamente às alegações ousadas.


“Uma coisa que notei [no BlackHat] foi que as pessoas estavam cansadas da IA”

Ashish Rajan Podcast de segurança cibernética de IA


Por que a IA não conseguiu ser eficaz em segurança?

Para antecipar suas objeções, estou ciente de que os fornecedores de segurança estão de fato usando IA em seus produtos. Mas até agora não há resultados que mudem o jogo que possamos apontar, e muito disso se resume a como eles estão implementando a IA.


Após o lançamento do ChatGPT e dos modelos de IA subsequentes, muitos fornecedores se apressaram para adicionar essas novas ferramentas às suas plataformas. A implementação preferida foi 'diretrizes de remediação com tecnologia de IA' e 'contexto adicional em torno de alertas'.


Mas aqui está a realidade por trás disso: essa implementação ajuda principalmente o fornecedor, não o usuário. Isso significa simplesmente que eles não precisam gastar tanto tempo com sua documentação. Não apenas isso, as informações contextuais estão sempre pelo menos 2 anos desatualizadas para a maioria dos modelos comerciais de IA.


A realidade é que grande parte dessa implementação foi simplesmente uma forma de cumprir as promessas dos fornecedores por trás de seus produtos baseados em "IA".


Outro problema que limita a capacidade da IA dentro da segurança é ser capaz de treinar modelos de IA em dados de segurança específicos. Modelos como ChatGPT são ótimos para mostrar o que um modelo de IA pode fazer, mas estão longe de ser confiáveis para casos de uso específicos. Como Dean De Beer disse no Podcast AI + A16z “ChatGPT é um ótimo martelo, [mas] eu certamente não o recomendaria quando você começa a produzir e executar tarefas em escala” . Treinar um modelo focado em segurança agora precisa de poder computacional extraordinário e mesmo se - e é um grande se - uma pequena empresa pudesse comprar GPUs suficientes para executar isso, o custo seria astronômico!


“Ainda não chegamos ao momento em que a IA é mais do que um recurso do lado do produto”

Caleb Sima Podcast de segurança cibernética de IA


Isso significa que apenas alguns grandes players têm a capacidade de implementar recursos de IA que vão além do envio de dados genéricos para modelos treinados de IA genéricos. Hoje, a IA continua sendo um recurso secundário na maioria das ferramentas de segurança, quase um truque que as equipes de marketing podem lançar no mundo.

Como você pode fazer IA corretamente?

Apesar de todo o meu ceticismo, admito que existem algumas implementações interessantes de IA. IA roxa da SentinelOne, comercializada como uma Analista de segurança de IA, certamente é impressionante ver em ação (pelo menos em uma demonstração).


Então, como você pode usar IA, especialmente se você não tem o orçamento de uma equipe de Fórmula 1?


  1. Empodere os humanos, não tente substituí-los

    A verdade simples é que, agora mesmo, não confiamos e não deveríamos confiar na IA para substituir um humano. Ela sempre ficará para trás se não pudermos confiar nela, e sua capacidade é limitada. A IA é uma ferramenta poderosa para auxiliar os humanos.

  2. Concentre-se no que a IA faz bem agora: classificação.

    A força original da IA era a classificação. Podemos alimentar a IA com muito contexto em torno de uma vulnerabilidade e obter um modelo para classificar e priorizar vulnerabilidades.

  3. Certifique-se de usar o modelo certo

    Quanto mais priorizamos a IA, mais precisamos de um modelo que seja igualmente especializado. Treinar esses modelos nós mesmos pode estar fora do reino das possibilidades para a maioria. Mas há muitos modelos que superarão os martelos padrão.

O "A" algum dia será "I" em segurança?

Inteligência é uma palavra ousada - e bastante ambígua. A cada dia a IA está se encontrando mais inserida em nossas vidas cotidianas e as ferramentas de segurança têm um enorme potencial para IA. Tenho poucas dúvidas de que implementações inovadoras e eficazes de IA estarão absolutamente disponíveis em ferramentas de segurança. Mas ainda não chegamos lá.


Os fornecedores de segurança têm ampliado suas habilidades de IA há anos, e quando o ChatGPT lançou uma tábua de salvação, eles tentaram dobrar as ferramentas para seus slogans. A realidade é que a implementação efetiva será diferente do que imaginamos inicialmente. A IA será efetiva quando os slogans corresponderem à ferramenta, e não o contrário.