¿WTF es un Agente Autónomo?
Si no está trabajando directamente en el espacio de la IA, es probable que su introducción al concepto de agentes autónomos haya sido a través de algún influencer que comenzó con:
"🤯 Muévete sobre ChatGPT..."
“La herramienta de la que no has oído hablar nos acerca un paso más a AGI 🤖“
“¡¡No vas a creer lo que AI está haciendo ahora!! 💪”
Dejando a un lado los hilos de compromiso, los agentes autónomos comenzaron a acumular una tracción importante en marzo de 2023 con el lanzamiento de
AutoGPT representó la primera instancia de lo que podemos describir como un agente autónomo general . Para evitar complicaciones, en el resto de este artículo se asume la definición de un 'agente autónomo' como cualquier entidad no humana que:
Tiene la capacidad de asignar sus propias tareas.
Puede operar independientemente de la entrada del usuario una vez que se proporciona una función objetiva (por ejemplo, aumentar mis suscriptores de boletines en 10k este año)
Tiene la capacidad de buscar nueva información más allá de lo que fue entrenado
Tiene capacidad tanto para la memoria a corto como a largo plazo.
Todas estas funcionalidades existían hasta cierto punto dentro de AutoGPT. Sin embargo, hay una variedad de otras capacidades adicionales que separarán a los agentes de los chatbots estilo ChatGPT en el futuro. Tome estos para incluir cosas como:
Para obtener una comprensión práctica de algunos ejemplos de cómo los agentes inicializan, priorizan y ejecutan estas tareas, recomiendo
El Agente como 'Empleado': Una heurística simple para entender a los agentes autónomos
Mucho se ha hablado de 'IA tomando trabajos humanos' en el discurso de los medios.
Se ha dedicado relativamente poco a discutir la elevación del papel de los humanos en la actividad económica que involucra a la IA .
El cambio de paradigma clave que ocurrirá a medida que la inteligencia artificial limitada (es decir, agentes especialmente diseñados) llegue a ocupar puestos de toma de decisiones rutinarios como leyes, contabilidad, tutoría, etc., no será que los humanos queden desempleados. El gran cambio será que todos los humanos tengan la oportunidad de convertirse en gerentes .
Digamos que iba a iniciar una empresa hoy. Por ejemplo, iniciaré una plataforma de redes sociales para personas sobrias y curiosas. En el pasado, si la versión alfa de esta plataforma ganaba suficiente tracción, me veía obligado a contratar varios roles para ayudar a escalar la plataforma: gerentes de producto para hablar con los usuarios y definir lo que quieren, ingenieros para escribir el código para satisfacer las necesidades de los usuarios, especialistas en marketing para poner el producto en manos de más usuarios, asesoría legal para garantizar que toda la operación cumpla con los requisitos, etc.
En un mundo con agentes efectivos que pasan la 'prueba del empleado' (es decir, la salida del agente en un rol específico parecería idéntica a la de un ser humano para el observador externo), podría ejecutar toda esta operación solo.
Entonces, si todos vamos a convertirnos en gerentes de estas organizaciones complejas, ¿qué herramientas debemos implementar para que podamos hacerlo de manera efectiva, segura y rentable?
Problemas comunes
Ha habido un gran progreso en la IA en los últimos meses. Pero hay mucho más por recorrer.
Si jugara con estas herramientas ahora, notaría muchas deficiencias que les impedirían cumplir con la 'prueba del empleado'.
Personalización
En primer lugar, gran parte de la producción escrita generada por estos agentes tiende a carecer de creatividad u originalidad en la ' voz '. Esto importa poco si el agente está diseñado para preparar documentos legales o crear un análisis de mercado para un nuevo producto. Sin embargo, importa significativamente si se utilizan en tareas de construcción de marca o para elevar la reputación de su 'gerente' humano.
Para superar este obstáculo de personalización, los agentes necesitarán comprender la voz prevista del gerente. La mejor manera de lograr esto es capacitar a los agentes sobre los resultados del administrador, tanto públicos (p. ej., publicaciones de blog) como privados (p. ej., correos electrónicos). La gran barrera aquí se convierte entonces en la confianza en que los agentes actúen de manera responsable sobre estos datos. ¿Qué mecanismos deben implementarse para garantizar esta confianza?
Fiabilidad
Posiblemente, el inconveniente más citado de esta primera generación de agentes autónomos ha sido su tendencia a alucinar .
Para los no iniciados, la alucinación en el contexto de la inteligencia artificial se refiere a la tendencia de la máquina a afirmar con seguridad respuestas incorrectas. En el caso de la generación actual de agentes, esto forma una combinación decepcionante con su tendencia a quedarse atascado en bucles en los que continúa regresando a tareas anteriores en lugar de progresar hacia una salida.
Para que los agentes alcancen un nivel razonable de ubicuidad entre una audiencia mayoritaria (y mucho menos que se les deje a su suerte en un contexto de trabajo), deberán lograr un grado de confiabilidad que iguale y eventualmente supere la capacidad de un agente humano. para hacer el trabajo y verificar su trabajo. Para ver un ejemplo de los efectos secundarios de la alucinación en la práctica, no busque más allá de la
En términos de oportunidades en este ámbito, la primera es obvia. Crea agentes que no alucinen. En segundo lugar, sin embargo, habrá mercados provisionales para i) pruebas de confiabilidad para agentes y ii) mercados y demanda de productos que puedan probar rigurosamente estos protocolos de agentes contra ataques de adversarios. Estos conceptos ayudarán a diseñar agentes que alcancen el nivel de confiabilidad y seguridad necesarios para una adopción generalizada.
Personalización
Tal como está, si tú y yo escribiéramos el mismo aviso en ChatGPT al mismo tiempo, obtendríamos un resultado idéntico. Esta es una característica extremadamente limitante para la utilidad de IA por varias razones. En primer lugar, las respuestas universales a cualquier indicación dada convertirán a los líderes centralizados en el espacio de la IA en monolitos de conocimiento y resultados humanos. Si todos llegan a depender de herramientas cada vez más avanzadas para su trabajo y juego, todo tenderá hacia un estándar uniforme dictado por los modelos ganadores en los que fueron entrenados. Si esto suena preocupante es porque lo es.
Más importante aún, hace que las cosas sean aburridas . Para problemas no objetivos o para tareas que deben realizarse con un cierto estilo, tiene sentido que los agentes aprovechen cierta comprensión del usuario para adaptar sus argumentos y resultados. Esto será fundamental para un futuro en el que nos sintamos cómodos permitiéndoles actuar en nuestro nombre.
Debe haber alguna validación de que nuestros agentes proporcionarán una representación fiel de quiénes somos antes de que existiera el agente.
Seguridad
La idea de tener máquinas operando en su lugar, con sus datos confidenciales y posiblemente incluso como una réplica suya que habla y escribe, suena amenazante incluso para los tecnólogos más progresistas. Dar a los agentes acceso a datos de nivel empresarial es todavía otra lata de gusanos.
Entonces, ¿cómo se pueden mitigar los riesgos de seguridad y privacidad en la medida en que i) las personas puedan confiar en que los agentes actúen en su nombre y ii) las empresas tengan garantías irrefutables de que su información y actividades están a salvo de ataques, apropiación indebida o explotación?
Algunos mecanismos de privacidad ya existen y pueden ser más básicos de lo que cree. La autenticación de dos factores estará en juego para el uso de agentes privados.
En cuanto a los riesgos específicos del agente, en el RFS a continuación se describen más oportunidades de protección contra el mal comportamiento o la manipulación.
interoperabilidad
Ampliando aún más la analogía anterior de 'agente como empleado': para formar una organización efectiva, estos agentes deben poder coordinarse entre sí de manera efectiva. Más allá del nivel organizacional, para remodelar por completo los ecosistemas comerciales y las economías más amplias, las organizaciones de agentes también tendrán que aprender a coordinarse con otras organizaciones de agentes. Los problemas de coordinación a partir de aquí comienzan a volverse complejos (tanto como lo han hecho en la sociedad humana).
Ya hay algunas señales tempranas de protocolos de comunicación de agente a agente prometedores, liderados por el trabajo que se está realizando en
La comunicación de agente a agente es excelente, pero solo representa el primer paso en términos de coordinación de agentes activos.
Algunos ejemplos de algunos problemas de coordinación más para pensar:
Creo que una vez que se resuelva esta mezcolanza de problemas, la humanidad estará en camino hacia algo parecido a una sociedad 'sin empleados'. ¿Cuál es el punto de hacer tareas básicas y repetitivas una vez que somos los segundos mejores?
Esta pérdida de empleadoismo a menudo se combina de alguna manera con una pérdida de significado cuando la IA se vuelve omnipresente. Creo que casi exactamente lo contrario es el caso. CUANDO LA IA “TOME NUESTROS TRABAJOS”, será un cambio de paradigma que llevará a todos los individuos de siervos a gerentes. Todos tendrán a mano un conjunto de compañeros altamente capaces y confiables para salir y traer lo que quieren ver al mundo. El "trabajo" clave del humano en este mundo es administrar a estos compañeros para ejecutar la visión que desea ver.
De ahí el título de este post. La penetración de agentes autónomos dará como resultado una gran promoción de todos los individuos, desde monos de trabajo hasta gerentes .
Herramientas de implementación de agentes fáciles de usar. El principio general de los agentes y, en última instancia, de la inteligencia artificial en su conjunto, es el de la automatización de tareas.
Usando esa definición,
La idea anterior de Alex Lieberman presenta un punto de partida para pensar en el futuro de la automatización tanto a nivel personal como empresarial. El problema con Zapier es que requiere que los usuarios apliquen ingeniería inversa a sus flujos de trabajo. ¿Qué pasa con las herramientas que están entrenadas de manera intuitiva o entrenando los flujos de trabajo de los usuarios?
Para administrar de manera efectiva un universo personal de agentes, la oportunidad más básica para capitalizar es un CRM para agentes individuales . Tal CRM actuaría como una única fuente de verdad para las instrucciones/indicaciones/intenciones de cada agente individual a disposición de un individuo. Esto podría integrarse con tableros separados para la gestión del desempeño de los agentes.
Para los usuarios que desean involucrarse aún menos en la implementación o personalización de sus agentes, existe la oportunidad de paquetes de agentes genéricos listos para usar. A medida que se prueba la productividad de los agentes, existe una gran probabilidad de que se desarrolle un mercado para que las personas compren conjuntos de agentes previamente capacitados que pueden realizar conjuntos predefinidos de tareas según la descripción del rol.
El espacio de diseño para la implementación de agentes personales tiene un buen camino a seguir siguiendo los pasos de las herramientas de implementación de desarrolladores existentes como Log10 o Superagent. Si bien estas herramientas son buenas para administrar implementaciones de agentes, no están diseñadas para usuarios finales con poco conocimiento de cómo funcionan los agentes o las automatizaciones.
Mecanismos de incentivos para la asignación de recursos de los agentes. Independientemente de lo superinteligentes que puedan llegar a ser los agentes, siempre dependerán de los recursos para mantenerse en funcionamiento. Los cerebros de las máquinas necesitan nutrición al igual que los cerebros humanos. Y así como economías humanas enteras se desarrollaron en torno a la necesidad de poner comida en nuestros platos, economías de agentes enteras se dedicarán a asignar recursos escasos donde más se demandan.
En las economías de agentes, se necesitarán mercados para asignar cosas como:
Los sensores y los actuadores son dos piezas más extensibles del rompecabezas que no son universales pero que serán demandadas por los agentes. Como tales, se tratan en otra sección a continuación.
Durante mucho tiempo he sido de la opinión de que las criptomonedas formarán el medio de intercambio para estas economías. Los agentes digitales programáticos querrán moneda digital programática.
Partiendo de esta suposición, ¿cómo se pueden diseñar redes criptográficas que asignen e incentiven mejor el intercambio de estos escasos recursos compatibles con API entre agentes de modo que siempre se aprovechen al máximo su potencial? El tamaño del mercado para un token de este tipo que podría convertirse en el medio de intercambio de una réplica digital de la economía humana es, comprensiblemente, enorme. Como hemos visto en el espacio criptográfico, habrá oportunidades derivadas para ayudar a escalar estas redes: ¿qué se necesita para agrupar las solicitudes de los agentes? ¿Necesitaremos nuevas formas de liquidación para transacciones no humanas?
La fruta madura aquí también es el hecho de que los agentes probablemente requerirán billeteras específicas para agentes. Así como protocolos como Worldcoin corren para desarrollar pruebas de humanidad, incluso podemos ver pruebas de máquinas inversas para operar ciertos protocolos específicos de agentes como billeteras digitales.
Muchas preguntas que hacer para la reinvención de una economía no humana.
Marketplaces para agentes funcionales. Ahora nos encontramos en una etapa del ciclo de vida de los agentes autónomos en la que los esfuerzos se centran extremadamente en el desarrollador. Eventualmente, el mercado cambiará para proporcionar soluciones listas para usar que brindan poca personalización pero que son fáciles de implementar y administrar.
Esto crea una oportunidad inmensa para los pioneros que buscan construir intercambios o mercados para agentes autónomos. Las personas no solo podrán comprar formas genéricas de agentes para implementar de forma rápida y económica, sino que los desarrolladores pueden ganar con el desarrollo de agentes más avanzados y específicos para las diferentes necesidades de los usuarios. Al igual que con cualquier categoría de bien o servicio en el pasado, veremos diferentes niveles de puntos de precio para diferentes niveles de prestigio.
Los desarrolladores (o agentes de desarrolladores) encontrarán formas de cobrar precios premium por soluciones de agentes de guante blanco extremadamente exigentes para proporcionar a las personas que desean lo mejor en su clase. Del mismo modo, las empresas estarán dispuestas a pagar más por agentes con garantías estándar de seguridad y privacidad.
También habrá mercados prósperos para el alquiler de agentes: es posible que las personas que asumen tareas temporales no quieran gastar las tarifas del mercado en nuevos agentes. Las personas estarán dispuestas a alquilar agentes sobre la base de que pueden capacitarse y mejorarse a medida que se utilizan. Es posible que veamos que surgen mercados financieros para las personas que apuestan a sus agentes como garantía para que otras partes los alquilen a cambio de efectivo por adelantado y la posibilidad de que los agentes sean capacitados a través de la utilización durante el período de alquiler.
Al igual que en la web actual, el espacio del mercado no se limitará a un jugador dominante. Habrá un rico ecosistema de diferentes mercados para diferentes usuarios, diferentes puntos de precio y diferentes especificaciones. Esto hace que el mercado de agentes sea un espacio de diseño increíblemente rico.
Coordinadores de tareas universales. Esto es casi una extensión del punto 'Nuevo Zapier' anterior. Con un ejército de agentes a nuestra disposición, ¿cómo podemos asegurarnos de que todos estén en sintonía?
Se requerirán herramientas para garantizar que los objetivos iniciales de cada agente individual y el resultado de la priorización de tareas coincidan con los objetivos generales de la "organización" o del universo.
La visión para los coordinadores de tareas en este sentido puede ser, a corto plazo, un sistema humano en el circuito que pueda monitorear la actividad de los agentes (posiblemente a través de un CRM como se discutió anteriormente) para garantizar esto y ponerlos en el camino correcto. Eventualmente, en base a esta retroalimentación humana, se pueden diseñar protocolos que, con suficiente precisión, puedan mapear las prioridades de los agentes para que se ajusten a los objetivos organizacionales o individuales más amplios.
Agentes IoT. No seré la primera ni la última persona en plantear la pregunta: ¿Dónde se interconectan la IA y la computación espacial?
Ya he tocado este punto brevemente en mi último artículo. A medida que avanzamos hacia agentes de usuario totalmente personalizados, es inevitable que lleguen a participar en nuestro entorno natural vivido (además de nuestros entornos aumentados/virtuales/extendidos).
La aplicación más obvia de esto será en Internet de las cosas. ¿Estás cocinando un bistec y lo necesitas tal como le gusta a tu pareja? Su agente puede encargarse de la cocina. ¿Dejó el pollo en el congelador por mucho tiempo? Cuestión del pasado, su agente le ha dicho que hace 3 horas y consiguió a alguien en la tarea. En lugar de ser simplemente un sistema de notificación 'empujón' como lo es el teléfono hoy en día, estos agentes de IoT comprenderán su contexto personal para actuar en los intervalos convenientes y correctos.
Réplicas de agentes humanos.
A pesar de lo ingenioso que es como un juguete, solo está arañando la superficie de lo que la IA permitirá que las personas hagan con respecto a ponerse en el lugar de otra persona, hablar con quien quiera o exija o, con la ayuda de agentes, vivir casi exactamente como lo hacen.
A medida que los agentes autónomos comiencen a aprender cómo replicar el comportamiento humano y se entrenen en experiencias vividas, comenzarán a convertirse en representaciones de los humanos a quienes representan. Esto presenta una ventana a la posibilidad de poder vivir en el cuerpo y la mente de otra persona.
Por ejemplo, digamos que Grimes quería ir un paso más allá de
Dependiendo de qué tan detallada sea la mirada de alguien que estos agentes puedan obtener con respecto a su acceso a biomarcadores y similares, este tipo de replicación también se puede aplicar para compartir experiencias vividas y sentimientos (es decir, qualia) entre ellos. Valiente nuevo mundo, de hecho.
Como nota al margen, es inevitable que a medida que los agentes autónomos comiencen a ganar protagonismo, algunos aprenderán a aprovechar esta herramienta mejor que otros. Esto permitirá que aquellos que han dedicado tiempo a enseñar y dirigir a sus agentes actúen en su mejor interés para crear mercados para la replicación de sus agentes para que los usen otras personas, evitando así la curva de aprendizaje y los tecnicismos de capacitar a sus propios agentes.
Redes específicas de agentes para sensores y otros actuadores. Para realizar todo su potencial de ejecución, la mayoría de los agentes necesitarán acceso a algún tipo de actuadores físicos para dar vida a su inteligencia.
Se requerirán redes que creen mercados para que diferentes agentes obtengan acceso a diferentes actuadores en un momento dado para suavizar la demanda inevitable de llevar esta inteligencia al mundo real. Esto será especialmente crucial una vez que los agentes autónomos pasen del mundo del trabajo de la información al mundo de la industria pesada.
Habrá más agentes autónomos que robots en el futuro cercano porque las restricciones para construir software son menores que las de construir hardware. Como tal, hay una escasez de 'cuerpos' físicos para realizar el trabajo físico que estos agentes querrán realizar. Esto crea un mercado laboral de facto para la economía agencial.
¿Cuál de los mecanismos económicos del mercado laboral humano se aplicará una vez que esto suceda? ¿Cuánto podrán cobrar los propietarios de robots a los agentes por el alquiler de su tiempo físico? ¿Será necesario estandarizar o especializar los robots (u otros actuadores) según las especificaciones del agente? Hay muchas preguntas abiertas listas para la disrupción a medida que los actuadores de las máquinas gobernados por inteligencia artificial lleguen a ocupar entornos habitados.
Tal como ocurre en web2, los datos son un bien fundamental que las personas están dispuestas a pagar para acceder a los canales que los proporcionan (por ejemplo, Google Ads). En la era autónoma, los sensores serán un "proveedor" crucial de datos. Se confiará en cámaras, GPS, LiDaR y un conjunto completo de otros sensores para proporcionar a los agentes datos de toma de decisiones en tiempo real. Como tal, necesitaremos i) redes para facilitar el intercambio de datos entre agentes y ii) oráculos que permitan a los agentes comunicar estos datos en tiempo real .
Protocolos de estandarización e interoperabilidad de agentes. Para que los agentes autónomos se coordinen de manera efectiva entre sí, se requieren estándares universales para superar, por así decirlo, las "barreras lingüísticas" digitales. ¿Qué se necesita para que esto se logre?
Los sistemas de middleware son una solución, ya que actúan como intermediarios que 'traducen' los mensajes de un agente a otro. Alternativamente, las personas pueden crear API o SDK de interoperabilidad que simplifican los procesos de integración o traducción. En tercer lugar, hay mucho espacio para desarrollar un nuevo tipo de mercado para estándares de abajo hacia arriba para nuevos tipos de esquemas que los agentes pueden estar comenzando a encontrar o que han demostrado ser problemáticos para la coordinación de agentes en el pasado.
Testnets de agentes para aplicaciones avanzadas . Con el fin de confiar plenamente en los agentes con herramientas o información personal, las personas crearán entornos de prueba seguros para comprender cómo funcionan.
Es muy probable que las redes de prueba tiendan a convertirse en bienes públicos para la seguridad de la IA, pero de todos modos es un proyecto ambicioso e impactante.
Mecanismos de votación pública para la ética de las máquinas. Discutí en un artículo anterior la necesidad continua de mercados humanos en el circuito para garantizar que las personas puedan participar en los procesos económicos y de votación asociados con el desarrollo responsable de la IA.
Algunas ideas más:
Esta pieza hubiera sido imposible de escribir sin la inspiración de los siguientes recursos a continuación:
Juguetes
Boletines y podcasts
Fuentes de Twitter
También publicado aquí .