Antropología Pero el mismo día, la compañía hizo otro movimiento que revela una pregunta más profunda acerca de su identidad: , a . anunció una ronda de financiación de 30 mil millones de dólares el 12 de febrero 20 millones de dólares para la primera acción pública grupo bipartidista que apoya a los responsables políticos que quieren guardas federales en torno a la IA anunció una ronda de financiación de 30 mil millones de dólares el 12 de febrero 20 millones de dólares para la primera acción pública grupo bipartidista que apoya a los responsables políticos que quieren guardas federales en torno a la IA Los anuncios capturan una tensión que puede definir la trayectoria de la compañía. Anthropic fue fundada en 2021 por ex ejecutivos de OpenAI que se fueron específicamente por preocupaciones de que la comercialización era un compromiso de seguridad abrumador. ahora, cinco años después, están corriendo hacia el mismo modelo de hiper-crecimiento que una vez rechazaron, al tiempo que también abogaban por las regulaciones que restringirían esa carrera. La cuestión es si una empresa puede perseguir simultáneamente una valoración de 380 mil millones de dólares manteniendo los valores que justificaban su existencia. The PAC Battle and Its Economics La PAC y su economía Los 20 millones de dólares importan menos por su tamaño que por quién se opone. Public First Action existe específicamente para contrarrestar __ _del presidente de OpenAI, Greg Brockman, Andreessen Horowitz, y otros líderes de la industria de la IA. Liderar la misión del Futuro es flagrante: oponerse a la regulación de IA a nivel estatal a favor de un marco federal ligero – o idealmente, ningún marco en absoluto. Liderando el futuro, un super PAC que ha recaudado más de 125 millones de dólares La donación de Anthropic la coloca en el lado opuesto de esa lucha.Están apoyando a los candidatos que quieren requisitos de transparencia, protecciones a nivel estatal y restricciones sobre los modelos de IA más potentes. Aquí es donde la economía se vuelve incómoda. el cumplimiento de la normativa no daña a todas las empresas igualmente. Sólo para navegar por los requisitos de cumplimiento, a menudo superando sus presupuestos de I+D completos.Mientras tanto, las empresas de la escala de Anthropic mantienen departamentos de cumplimiento dedicados, equipos jurídicos e infraestructura de políticas. Small AI startups report spending $300,000+ per deployment project Pequeñas startups de IA reportan gastar más de $ 300,000 por proyecto de implementación Cuando Anthropic aboga por las regulaciones que exigen que las empresas de IA "exigan transparencia real de las empresas que construyen los modelos de IA más potentes", están abogando por los requisitos que ya cumplen. Si esa es la intención o simplemente el efecto es la cuestión que define la credibilidad de la empresa. Research as Both Commitment and Competitive Advantage Investigación como compromiso y ventaja competitiva El equipo de Impactos Sociales de Anthropic ofrece una lente en si la compañía puede mantener sus principios fundacionales mientras persigue un crecimiento agresivo.El grupo estudia cómo la IA como Claude se utiliza realmente en el mundo; cómo las personas dependen de la IA para asesoramiento, apoyo emocional, educación y trabajo, y qué patrones sociales y económicos surgen a medida que la IA se incorpora más en la vida cotidiana. El trabajo parece ser riguroso. , un sistema de conservación de la privacidad para analizar patrones de uso del mundo real a escala. Han estudiado cómo los usuarios forman dependencias emocionales en los asistentes de IA y han llevado a cabo investigaciones de métodos mixtos sobre los efectos de la IA en el trabajo profesional. El equipo ha construido Clio Publican el Índice Económico Antropológico El equipo ha construido Clio Publican el Índice Económico Antropológico Enfatizar el rigor empírico, la colaboración con expertos en políticas y la publicación en lugares revisados por pares.La infraestructura necesaria, como herramientas de análisis que preservan la privacidad, equipos de investigación interfuncionales, asociaciones externas, representa una inversión significativa en la comprensión de los impactos del mundo real de la IA. Posts de trabajo para el equipo Posts de trabajo para el equipo Pero cada descubrimiento sobre los efectos sociales de la IA se convierte en datos que pueden apoyar argumentos regulatorios.Cuando Anthropic documenta cómo el uso de Claude se correlaciona con el estatus socioeconómico, esa investigación puede justificar políticas que requieren acceso equitativo.Cuando estudian patrones de dependencia emocional, esos hallazgos apoyan los requisitos de transparencia en torno a las características de la compañía de IA. Cuando miden los impactos del desplazamiento laboral, los datos se alimentan directamente en debates sobre la gobernanza de la IA. Anthropic aboga por “protecciones significativas” y “verdadera transparencia de las empresas que construyen los modelos de IA más potentes”, que, aquí de nuevo, son requisitos que ya están posicionados para cumplir. La medición del impacto en el mundo real invita a hallar resultados incómodos. También crea un círculo de retroalimentación donde la investigación basada en principios genera pruebas que suceden para justificar regulaciones que benefician a la empresa que la lleva a cabo. When Safety Researchers Leave Cuando los investigadores de seguridad se van Mantener los valores declarados mientras persigue el hipercrecimiento tiene costos.Tres días antes de que Anthropic anunciara su ronda de financiación de 30 mil millones de dólares, Ha liderado el equipo de investigación de la compañía desde su formación a principios de 2025, trabajando en las defensas contra el bioterrorismo asistido por la IA, comprendiendo la sífania de la IA y desarrollando lo que describió como “uno de los primeros casos de seguridad de la IA”. Mrinank Sharma resigned Mrinank Sharma renuncia a su cargo su carta de dimisión, Advirtió que “el mundo está en peligro” de “una serie entera de crisis interconectadas” pero se negó a especificar lo que Anthropic había hecho mal. posted publicly Publicado en Público Lo que dijo fue más revelador: “A lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es realmente dejar que nuestros valores gobiernen nuestras acciones. El timing es interesante. , que es un modelo más poderoso comercializado por sus capacidades de codificación de agentes y características de productividad de oficina. Sharma renunció el 9 de febrero. Claude Opus 4.6 se lanza el 6 de febrero Claude Opus 4.6 se lanza el 6 de febrero La carta de Sharma sugiere algo más difícil de abordar que fallos específicos: la brecha entre los valores declarados y las presiones del mercado ha crecido lo suficiente para que un investigador de seguridad senior no pueda reconciliarlos. Cuando tu jefe de investigación de salvaguardas deja de citar “presiones para poner de lado lo que más importa” mientras se niega a nombrar fallos específicos, te enfrentas a la realidad de que las fuerzas del mercado pueden ser incompatibles con el nivel de precaución que reivindicas para valorar. Mind the Gap Piensa en el gap La defensa de Anthropic por los guardabosques de IA ha atraído fuego de aquellos que quieren que Washington se quede fuera. La compañía sostiene que simplemente quiere una gobernanza que “facilite el potencial transformador de la IA y ayude a gestionar proporcionalmente sus riesgos”. David Sacks, el zar de la Casa Blanca, ha acusado a Anthropic David Sacks, el zar de la Casa Blanca, ha acusado a Anthropic Antropic probablemente cree que la regulación sirve a todos, mientras que reconocer que les sirve particularmente bien. Cuando su infraestructura de investigación de seguridad se duplica como un foso competitivo, cuando su defensa regulatoria se alinea perfectamente con sus ventajas comerciales, y cuando su jefe de salvaguardas deja de citar presiones para abandonar los valores claves . . bien, la brecha entre principio y beneficio se vuelve más difícil de distinguir. ¿Es esta brecha sostenible a medida que las valoraciones se acercan a medio billón de dólares?