WTF é um Agente Autônomo?
Se você não está trabalhando diretamente no espaço de IA, é provável que sua introdução ao conceito de agentes autônomos tenha ocorrido por meio de algum influenciador, começando com:
“🤯 Passe para o ChatGPT…”
“A ferramenta que você nunca ouviu falar está nos aproximando um passo da AGI 🤖“
“Você não vai acreditar no que a IA está fazendo agora!! 💪”
Tópicos de engajamento à parte, os agentes autônomos começaram a acumular tração mainstream significativa em março de 2023, após o lançamento de
O AutoGPT representou a primeira instância do que podemos descrever como um agente autônomo geral . Para evitar complicações, no restante deste artigo, assuma a definição de 'agente autônomo' como sendo qualquer entidade não humana que:
Tem a capacidade de atribuir suas próprias tarefas
Pode operar independentemente da entrada do usuário, uma vez fornecida uma função objetiva (por exemplo, aumentar meus assinantes de newsletter em 10 mil este ano)
Tem a capacidade de procurar novas informações além do que foi treinado
Tem capacidade para memória de longo prazo e de curto prazo
Todas essas funcionalidades existiam em algum grau no AutoGPT. No entanto, há uma variedade de outros recursos adicionais que irão separar os agentes dos chatbots estilo ChatGPT daqui para frente. Leve-os para incluir coisas como:
Para obter uma compreensão prática de alguns exemplos de como os agentes inicializam, priorizam e executam essas tarefas, recomendo
O agente como 'funcionário': uma heurística simples para entender os agentes autônomos
Muito tem sido falado sobre 'IA tomando empregos humanos' no discurso da mídia.
Comparativamente, pouco foi gasto discutindo a elevação do papel dos humanos na atividade econômica envolvendo IA .
A principal mudança de paradigma que ocorrerá à medida que a inteligência artificial estreita (ou seja, agentes construídos com propósito) passa a ocupar trabalhos rotineiros de tomada de decisão, como direito, contabilidade, tutoria, etc., não será que os humanos fiquem desempregados. A grande mudança será que todos os humanos terão a oportunidade de se tornar gerentes .
Digamos que eu fosse abrir uma empresa hoje. Por exemplo, iniciarei uma plataforma de mídia social para pessoas sóbrias e curiosas. No passado, se a versão alfa dessa plataforma ganhasse força suficiente, eu seria forçado a contratar várias funções para ajudar na escala da plataforma: gerentes de produto para conversar com os usuários e definir o que eles querem, engenheiros para escrever o código para atender às necessidades do usuário, profissionais de marketing para colocar o produto nas mãos de mais usuários, assessoria jurídica para garantir que toda a operação esteja em conformidade e assim por diante.
Em um mundo com agentes eficazes que passam no 'teste do funcionário' (ou seja, a saída do agente em uma função específica pareceria idêntica à de um humano para o observador externo), eu poderia executar toda essa operação sozinho.
Então, se todos nós vamos nos tornar gerentes dessas organizações complexas, que ferramentas precisamos ter para que possamos fazer isso de forma eficaz, segura e lucrativa?
Problemas comuns
Houve muito progresso na IA nos últimos meses. Mas há muito mais a percorrer.
Se você brincar com essas ferramentas agora, notará muitas deficiências que as impediriam de atender ao 'teste do funcionário'.
Personalização
Em primeiro lugar, muito da produção escrita gerada por esses agentes tende a carecer de criatividade ou originalidade na ' voz '. Isso pouco importa se o agente for projetado para preparar documentos legais ou criar uma análise de mercado para um novo produto. No entanto, importa significativamente se eles são usados em tarefas de construção de marca ou para elevar a reputação de seu 'gerente' humano.
Para superar esse obstáculo de personalização, os agentes precisarão entender a voz pretendida do gerente. A melhor maneira de conseguir isso é treinando os agentes nas saídas do gerente, tanto públicas (por exemplo, postagens de blog) quanto privadas (por exemplo, e-mails). A grande barreira aqui se torna a confiança nos agentes para agir com responsabilidade sobre esses dados. Que mecanismos precisam ser implementados para garantir essa confiança?
Confiabilidade
Possivelmente, a desvantagem mais citada dessa primeira geração de agentes autônomos foi a tendência a alucinar .
Para os não iniciados, a alucinação no contexto da inteligência artificial refere-se à tendência da máquina de afirmar respostas incorretas com confiança. No caso da geração atual de agentes, isso forma uma correspondência decepcionante com sua tendência de ficar preso em loops nos quais continua retornando a tarefas anteriores em vez de progredir em direção a uma saída.
Para que os agentes alcancem qualquer nível razoável de onipresença entre o público convencional (sem falar em serem deixados por conta própria em um contexto de trabalho), eles precisarão atingir um grau de confiabilidade que corresponda e eventualmente supere a habilidade de um agente humano. para fazer o trabalho e verificar os fatos de seu trabalho. Para um exemplo dos efeitos colaterais da alucinação na prática, não procure mais do que o
Em termos de oportunidades neste domínio, a primeira é óbvia. Crie agentes que não alucinam. Em segundo lugar, entretanto, haverá mercados provisórios para i) testes de confiabilidade para agentes e ii) mercados e demanda por produtos que possam testar rigorosamente esses protocolos de agentes contra ataques adversários. Esses conceitos ajudarão a projetar agentes que atinjam o nível de confiabilidade e segurança necessários para uma adoção ampla.
Personalização
Do jeito que está, se você e eu digitássemos o mesmo prompt no ChatGPT ao mesmo tempo, obteríamos uma saída idêntica. Este é um recurso extremamente limitante para o utilitário AI por vários motivos. Em primeiro lugar, respostas universais a qualquer prompt transformarão os líderes centralizados no espaço da IA em monólitos de conhecimento e produção humanos. Se todos passarem a depender de ferramentas cada vez mais avançadas para seu trabalho e diversão, tudo tenderá a um padrão uniforme ditado por qualquer modelo em que os modelos vencedores foram treinados. Se isso soa preocupante é porque é.
Mais importante, torna as coisas chatas . Para questões não objetivas ou para tarefas que precisam ser executadas em um determinado estilo, faz sentido que os agentes aproveitem algum entendimento do usuário para adaptar seus argumentos e saídas. Isso será fundamental para um futuro em que nos sentiremos confortáveis em permitir que eles ajam em nosso nome.
É preciso haver alguma validação de que nossos agentes fornecerão uma representação fiel de quem somos antes de o agente existir.
Segurança
A ideia de ter máquinas operando em seu lugar, com seus dados confidenciais e possivelmente até como uma réplica falante e digitadora de você soa ameaçadora até mesmo para o mais progressista dos tecnólogos. Dar aos agentes acesso a dados de nível empresarial é uma outra lata de worms ainda.
Então, como os riscos de segurança e privacidade podem ser mitigados na medida em que i) os indivíduos podem confiar em agentes para agir em seu nome e ii) as empresas têm garantias inequívocas de que suas informações e atividades estão protegidas contra ataques, apropriação indevida ou exploração?
Alguns mecanismos de privacidade já existem hoje e podem ser mais básicos do que você pensa. A autenticação de dois fatores será uma aposta de mesa para uso de agentes privados.
Quanto aos riscos específicos do agente, mais oportunidades de proteção contra mau comportamento ou manipulação são descritas no RFS abaixo.
Interoperabilidade
Estendendo ainda mais a analogia acima de 'agente como funcionário' - para formar uma organização eficaz, esses agentes precisam ser capazes de se coordenar uns com os outros de forma eficaz. Além do nível organizacional, para remodelar totalmente os ecossistemas de negócios e economias mais amplas, as organizações de agentes também terão que aprender a se coordenar com outras organizações de agentes. Os problemas de coordenação a partir daqui começam a ficar complexos (tanto quanto na sociedade humana).
Já existem alguns sinais iniciais de protocolos de comunicação agente-a-agente promissores, liderados pelo trabalho que está sendo feito na
A comunicação entre agentes é ótima, mas representa apenas o primeiro passo em termos de coordenação de agentes ativos.
Alguns exemplos de alguns problemas de coordenação a serem considerados:
É minha convicção que, uma vez que esta miscelânea de problemas seja resolvida, a humanidade estará a caminho de algo semelhante a uma sociedade 'sem empregados'. Qual é o sentido de fazer tarefas básicas e repetitivas quando somos o segundo melhor?
Essa perda de empregadoismo é, de alguma forma, frequentemente confundida com uma perda de significado quando a IA se torna onipresente. Eu acredito que quase exatamente o oposto seja o caso. Quando a IA “assumir nossos empregos”, será uma mudança de paradigma que leva cada indivíduo de servo a gerente. Todos terão um conjunto de companheiros altamente capazes e confiáveis à disposição para sair e trazer o que desejam ver no mundo. O “trabalho” chave do ser humano neste mundo é gerenciar esses companheiros para executar a visão que você deseja ver.
Daí o título deste post. A penetração de agentes autônomos resultará em uma grande promoção de todos os indivíduos, de macacos-tarefa a gerentes .
Ferramentas de implantação de agentes fáceis de usar. O princípio abrangente dos agentes e, em última análise, da inteligência artificial como um todo, é o da automação de tarefas.
Usando essa definição,
A ideia de Alex Lieberman acima apresenta um ponto de partida para pensar sobre o futuro da automação nos níveis pessoal e empresarial. O problema com o Zapier é que exige que os usuários façam engenharia reversa de seus fluxos de trabalho. E as ferramentas que são treinadas para intuitivamente ou treinando os fluxos de trabalho do usuário?
Para gerenciar com eficiência um universo pessoal de agentes, a oportunidade mais básica para capitalizar é um CRM para agentes individuais . Tal CRM atuaria como uma única fonte de verdade para as instruções/prompts/intenções de cada agente individual à disposição de um indivíduo. Isso pode ser integrado a painéis separados para gerenciamento de desempenho do agente.
Para usuários que desejam ainda menos envolvimento na implantação ou personalização de seus agentes, há uma oportunidade para pacotes de agentes genéricos prontos para uso. Como a produtividade do agente é comprovada, há uma forte probabilidade de desenvolvimento de um mercado para que as pessoas comprem conjuntos de agentes pré-treinados que possam executar conjuntos predefinidos de tarefas, dependendo da descrição da função.
O espaço de design para implantação de agente pessoal tem um bom caminho a seguir nos passos das ferramentas de implantação de desenvolvedor existentes, como Log10 ou Superagent. Por mais boas que essas ferramentas sejam para gerenciar implantações de agentes, elas não são projetadas para usuários finais com pouco conhecimento de como os agentes ou automações funcionam.
Mecanismos de incentivo para alocação de recursos do agente. Independentemente de quão superinteligentes os agentes possam se tornar, eles sempre contarão com recursos para permanecer em operação. Os cérebros das máquinas precisam de nutrição, assim como os cérebros humanos. E assim como economias humanas inteiras se desenvolveram em torno da necessidade de colocar comida em nossos pratos, economias de agentes inteiras serão dedicadas a alocar recursos escassos onde eles são mais demandados.
Nas economias de agentes, os mercados serão necessários para alocar coisas como:
Sensores e atuadores são mais duas peças extensíveis do quebra-cabeça que não são universais, mas serão procuradas pelos agentes. Como tal, eles são abordados em outra seção abaixo.
Há muito tempo sou da opinião de que a criptografia formará o meio de troca para essas economias. Agentes digitais programáticos vão querer moeda digital programática.
Com base nessa suposição, como as redes criptográficas podem ser projetadas para melhor alocar e incentivar o compartilhamento desses escassos recursos habilitados para API entre agentes, de modo que eles sempre sejam aproveitados em seu potencial máximo? O tamanho do mercado para tal token que poderia se tornar o meio de troca para uma réplica digital da economia humana é, compreensivelmente, enorme. Como vimos no espaço criptográfico, haverá oportunidades derivadas para ajudar no dimensionamento dessas redes - o que é necessário para agrupar as solicitações do agente? Vamos precisar de novas formas de liquidação para transações não humanas?
A fruta mais fácil aqui também é o fato de que os agentes provavelmente exigirão carteiras específicas do agente. Assim como protocolos como o Worldcoin correm para desenvolver provas de humanidade, podemos até ver provas de máquina reversas para operar certos protocolos específicos de agentes, como carteiras digitais.
Muitas perguntas a serem feitas para a reinvenção de uma economia não humana.
Mercados para agentes funcionais. Estamos em um estágio do ciclo de vida dos agentes autônomos em que os esforços são extremamente focados no desenvolvedor. Com o tempo, o mercado mudará para o fornecimento de soluções prontas para uso que oferecem pouca personalização, mas são fáceis de implantar e gerenciar.
Isso cria uma imensa oportunidade para qualquer pioneiro que queira construir trocas ou mercados para agentes autônomos. As pessoas não apenas poderão comprar formas genéricas de agentes para implantar de maneira rápida e barata, mas os desenvolvedores poderão ganhar com o desenvolvimento de agentes mais avançados e específicos para diferentes necessidades do usuário. Assim como com qualquer categoria de bem ou serviço no passado, veremos diferentes níveis de preços para diferentes níveis de prestígio.
Os desenvolvedores (ou agentes de desenvolvimento) encontrarão maneiras de cobrar preços premium por soluções de agente de luva branca extremamente interativas para fornecer às pessoas que desejam o melhor da categoria. Da mesma forma, as empresas estarão dispostas a pagar mais por agentes com garantias padrão de segurança e privacidade.
Haverá também mercados prósperos para aluguel de agentes - as pessoas que estão assumindo tarefas temporárias podem não querer gastar as taxas de mercado em novos agentes. As pessoas estarão dispostas a alugar agentes com base no fato de que eles podem ser treinados e aprimorados à medida que são utilizados. Podemos ver os mercados financeiros surgirem para pessoas colocando seus agentes como garantia para outras partes alugarem em troca de dinheiro adiantado e a possibilidade de os agentes serem treinados através da utilização durante o período de aluguel.
Assim como na web atual, o espaço do mercado não será limitado a um player dominante. Haverá um rico ecossistema de diferentes mercados para diferentes usuários, diferentes preços e diferentes especificações. Isso torna o mercado de agentes um espaço de design incrivelmente rico.
Coordenadores de tarefas universais. Isso é quase uma extensão do ponto 'Novo Zapier' acima. Com um exército de agentes à disposição, como podemos garantir que todos estejam na mesma página?
Serão necessárias ferramentas para garantir que os objetivos iniciais de cada agente individual e a saída de priorização de tarefas correspondam aos objetivos gerais "organizacionais" ou do universo.
A visão para os coordenadores de tarefas nesse sentido pode, a curto prazo, ser um sistema human-in-the-loop que pode monitorar a atividade do agente (possivelmente por meio de um CRM, conforme discutido acima) para garantir isso e colocá-los no caminho certo. Eventualmente, com base nesse feedback humano, podem ser projetados protocolos que, com precisão suficiente, possam mapear as prioridades do agente como um ajuste para objetivos organizacionais ou individuais mais amplos.
Agentes IoT. Não serei a primeira nem a última pessoa a fazer a pergunta: onde a IA e a computação espacial se interconectam?
Eu já toquei neste ponto brevemente em meu último artigo. À medida que avançamos em direção a agentes de usuário totalmente personalizados, é inevitável que eles venham a participar de nosso ambiente natural e vivido (além de nossos ambientes aumentados/virtuais/estendidos).
A aplicação mais óbvia disso será na internet das coisas. Cozinhar um bife e precisar dele do jeito que seu parceiro gosta? Seu agente pode cuidar da cozinha. Deixou o frango no freezer por muito tempo? Problema do passado, seu agente disse isso a você 3 horas atrás e colocou alguém na tarefa. Em vez de ser apenas um sistema de 'empurrão' de notificação como o telefone é hoje, esses agentes de IoT terão uma compreensão de seu contexto pessoal para agir nos intervalos convenientes e corretos.
Réplicas de agente humano.
Por mais legal que seja como um brinquedo, é apenas arranhar a superfície do que a IA permitirá que as pessoas façam no que diz respeito a se colocar no lugar de outra pessoa, falar com quem você quiser ou exigir ou, com a ajuda de agentes, viver quase exatamente como eles fazem.
À medida que os agentes autônomos começarem a aprender como replicar o comportamento humano e treinar em experiências vividas, eles começarão a se tornar representações dos humanos que eles representam. Isso representa uma janela para a possibilidade de poder viver no corpo e na mente de outra pessoa.
Por exemplo, digamos que Grimes queria ir um passo além do que
Dependendo de quão detalhada é a visão de alguém que esses agentes podem obter em relação ao seu acesso a biomarcadores e afins, esse tipo de replicação também pode ser aplicado para compartilhar experiências vividas e sentimentos (ou seja, qualia) uns com os outros. Admirável mundo novo, de fato.
Como observação, é inevitável que, conforme os agentes autônomos comecem a ganhar destaque, alguns aprendam a aproveitar essa ferramenta melhor do que outros. Isso permitirá que aqueles que dedicaram tempo ensinando e orientando seus agentes a agir em seu melhor interesse para criar mercados para a replicação de seus agentes para outras pessoas usarem, evitando assim a curva de aprendizado e tecnicalidades de treinar seus próprios agentes.
Redes específicas de agentes para sensores e outros atuadores. Para realizar todo o seu potencial de execução, a maioria dos agentes precisará de acesso a alguma forma de atuadores físicos para dar vida à sua inteligência.
Redes que criem mercados para diferentes agentes obterem acesso a diferentes atuadores em um determinado momento serão necessárias para suavizar a demanda inevitável de trazer essa inteligência para o mundo real. Isso se tornará especialmente crucial quando os agentes autônomos fizerem a transição do mundo do trabalho da informação para o mundo da indústria pesada.
Haverá mais agentes autônomos do que robôs no futuro próximo porque as restrições na construção de software são menores do que na construção de hardware. Assim, há escassez de 'corpos' físicos para realizar o trabalho físico que esses agentes vão querer realizar. Isso cria um mercado de trabalho de fato para a economia agêntica.
Qual dos mecanismos econômicos do mercado de trabalho humano se aplicará quando isso acontecer? Quanto os proprietários de robôs poderão cobrar dos agentes pelo aluguel de seu tempo físico? Os robôs (ou outros atuadores) precisarão ser padronizados ou especializados com base nas especificações do agente? Existem muitas questões em aberto, prontas para serem perturbadas, à medida que os atuadores de máquinas governados pela inteligência artificial passam a ocupar os ambientes vividos.
Assim como na web2, os dados são uma mercadoria crucial que as pessoas estão dispostas a pagar pelo acesso aos canais que os fornecem (por exemplo, Google Ads). Na era autônoma, os sensores serão um 'fornecedor' crucial de dados. Câmeras, GPS, LiDaR e todo um conjunto de outros sensores serão utilizados para fornecer aos agentes dados de tomada de decisão em tempo real. Para tal, precisaremos de i) redes que facilitem a troca de dados entre os agentes e ii) oráculos que permitam aos agentes comunicar esses dados em tempo real .
Padronização de Agentes e Protocolos de Interoperabilidade. Para que os agentes autônomos se coordenem efetivamente uns com os outros, são necessários padrões universais para superar as “barreiras de linguagem” digitais, por assim dizer. O que precisa ser feito para que isso seja alcançado?
Os sistemas de middleware são uma solução, em que atuam como intermediários que 'traduzem' mensagens de um agente para outro. Como alternativa, as pessoas podem criar APIs ou SDKs de interoperabilidade que simplificam os processos de integração ou tradução. Em terceiro lugar, há muito espaço para desenvolver um novo tipo de mercado para padrões de baixo para cima para novos tipos de esquemas que os agentes podem estar apenas começando a encontrar ou que se mostraram problemáticos para a coordenação de agentes no passado.
Testnets de Agentes para Aplicações Avançadas . Para confiar totalmente nos agentes com ferramentas ou informações pessoais, os indivíduos criarão ambientes de sandbox seguros para entender como eles funcionam.
É bastante provável que as testnets tendam a se tornar bens públicos para a segurança da IA, mas, no entanto, é um projeto ambicioso e impactante a ser perseguido.
Mecanismos de votação pública para a ética da máquina. Discuti em um artigo anterior a necessidade contínua de mercados human-in-the-loop para garantir que as pessoas possam participar do lado econômico e dos procedimentos de votação associados ao desenvolvimento responsável da IA.
Mais algumas ideias:
Esta peça teria sido impossível de escrever sem a inspiração dos seguintes recursos abaixo:
brinquedos
Boletins informativos e podcasts
Feeds do Twitter
Publicado também aqui .