Antropoloxía Pero o mesmo día, a compañía fixo outro movemento que revela unha pregunta máis profunda sobre a súa identidade: , a . anuncia unha rolda de financiamento de 30 millóns de dólares o 12 de febreiro 20 millóns de euros para a primeira acción pública grupo bipartidista que apoia os responsables políticos que queren gardas federais en torno á IA anuncia unha rolda de financiamento de 30 millóns de dólares o 12 de febreiro 20 millóns de euros para a primeira acción pública grupo bipartidista que apoia os responsables políticos que queren gardas federais en torno á IA Os anuncios capturan unha tensión que pode definir a traxectoria da empresa. Anthropic foi fundada en 2021 por ex executivos de OpenAI que deixaron especificamente por preocupacións de que a comercialización era un esmagador compromiso de seguridade. A cuestión é se unha empresa pode perseguir simultaneamente unha valoración de 380 mil millóns de dólares mantendo os valores que xustificaban a súa existencia. The PAC Battle and Its Economics A loita da PAC e a súa economía Os 20 millóns de dólares importan menos polo seu tamaño que por quen se opón. Primeira acción pública existe especificamente para contrarrestar __ _do presidente de OpenAI, Greg Brockman, Andreessen Horowitz, e outros líderes da industria de IA. Liderar a misión do Futuro é clara: opoñerse á regulación de IA a nivel estatal en favor dun marco federal de toque lixeiro - ou idealmente, ningún marco en absoluto. Leading the Future, un super PAC que recadou máis de 125 millóns de dólares A doazón de Anthropic ponse no lado oposto desa loita.Están a apoiar candidatos que queren requisitos de transparencia, proteccións a nivel estatal e restricións sobre os modelos de IA máis poderosos. Este é o lugar onde a economía queda incómoda. o cumprimento regulatorio non prexudica todas as empresas igualmente. Mentres tanto, as empresas da escala de Anthropic manteñen departamentos de cumprimento dedicados, equipos xurídicos e infraestrutura de políticas. Small AI startups report spending $300,000+ per deployment project As pequenas startups de IA informan de gastar máis de $ 300,000 por proxecto de implantación Cando Anthropic defende regulacións que esixen que as empresas de IA "exigan transparencia real das empresas que constrúen os modelos de IA máis potentes", están a defender os requisitos que xa cumpren. Se esa é a intención ou simplemente o efecto é a cuestión que define a credibilidade da empresa. Research as Both Commitment and Competitive Advantage Investigación como compromiso e vantaxe competitiva O equipo de Impactos Sociais de Anthropic ofrece unha lente sobre se a empresa pode manter os seus principios fundadores mentres persegue un crecemento agresivo.O grupo estuda como a IA como Claude se usa realmente no mundo; como as persoas dependen da IA para asesoramento, apoio emocional, educación e traballo, e que patróns sociais e económicos emerxen a medida que a IA se incorpora máis na vida cotiá. O traballo parece ser rigoroso. , un sistema de preservación da privacidade para analizar os patróns de uso do mundo real a escala. Estudaron como os usuarios forman dependencias emocionais sobre os asistentes de IA e realizaron investigacións de métodos mixtos sobre os efectos da IA no traballo profesional. O equipo construíu Clio Publican o Índice Económico Antropolóxico O equipo construíu Clio Publican o Índice Económico Antropolóxico A infraestrutura necesaria, como ferramentas de análise que preservan a privacidade, equipos de investigación interfuncionais, asociacións externas, representa un investimento significativo na comprensión dos impactos do mundo real da IA. Posts de traballo para o equipo Posts de traballo para o equipo Pero cada achado sobre os efectos sociais da IA convértese en datos que poden apoiar argumentos regulatorios. Cando Anthropic documenta como o uso de Claude correlaciona co status socioeconómico, esa investigación pode xustificar políticas que requiren acceso equitativo. Cando estudan patróns de dependencia emocional, eses resultados apoian os requisitos de transparencia en torno ás características da compañía de IA. Cando miden os impactos do desprazamento do traballo, os datos alimentan directamente os debates sobre a gobernanza da IA. Anthropic defende "garantías significativas" e "verdadeira transparencia das empresas que constrúen os modelos de IA máis potentes", que, aquí de novo, son requisitos que xa están posicionados para cumprir. A medición do impacto do mundo real convida a resultados incómodos. Tamén crea un círculo de retroalimentación onde a investigación baseada en principios xera evidencias que suceden para xustificar as regulacións que benefician á empresa que a realiza. When Safety Researchers Leave Cando os investigadores de seguridade marchan Manter os valores declarados mentres persegue o hipercrecemento ten custos.Tres días antes de que Anthropic anunciase a súa rolda de financiamento de 30 millóns de dólares, El liderou o equipo de investigación da empresa desde a súa formación a principios de 2025, traballando en defensas contra o bioterrorismo asistido por IA, entendendo a sífania da IA e desenvolvendo o que describiu como "un dos primeiros casos de seguridade da IA". Mrinank Sharma anuncia a súa dimisión Mrinank Sharma anuncia a súa dimisión a súa carta de dimisión, Advertiu de que "o mundo está en perigo" de "unha serie de crises interconectadas" pero rexeitou especificar o que Antropic fixera mal. Publicado en Público Publicado en Público O que dixo foi máis revelador: "Ao longo do meu tempo aquí, vin repetidamente o difícil que é realmente deixar que os nosos valores gobernen as nosas accións. O calendario é interesante. , que é un modelo máis poderoso comercializado polas súas capacidades de codificación de axentes e recursos de produtividade de oficina. Sharma renunciou o 9 de febreiro. Claude Opus 4.6 lanzado o 6 de febreiro Claude Opus 4.6 lanzado o 6 de febreiro A carta de Sharma suxire algo máis difícil de abordar que fallos específicos: a brecha entre os valores declarados e as presións do mercado creceu o suficiente para que un investigador de seguridade superior non puidese reconcilialos. Cando o seu xefe de investigación de salvagardas deixa de citar "presións para poñer de lado o que máis importa" mentres se nega a nomear fallos específicos, está a afrontar a realidade de que as forzas do mercado poden ser incompatibles co nivel de precaución que afirma valorar. Mind the Gap Coñece o gap A defensa de Anthropic de gardas de IA atraeu lume a aqueles que queren que Washington permaneza fóra. A empresa sostén que simplemente quere unha gobernanza que "facilite o potencial transformador da IA e axude a xestionar proporcionalmente os seus riscos". David Sacks, o czar da AI da Casa Branca, acusou a Anthropic David Sacks, o czar da AI da Casa Branca, acusou a Anthropic Antropic probablemente cre que a regulación serve a todos mentres recoñece que lles serve particularmente ben. Cando a súa infraestrutura de investigación de seguridade duplica como un foso competitivo, cando a súa defensa regulatoria se alinea perfectamente coas súas vantaxes comerciais, e cando o seu xefe de salvagardas deixa de citar as presións para abandonar os valores fundamentais . . ben, a brecha entre o principio e o beneficio faise máis difícil de distinguir. É esa diferenza sustentable cando as valoracións se achegan a medio billón de dólares?