Antropický Ve stejný den však společnost učinila další krok, který odhaluje hlubší otázku o své identitě: , a . announced a $30 billion funding round on February 12 a $20 million contribution to Public First Action bipartisan group supporting policymakers who want federal guardrails around AI Oznámil finanční kolo ve výši 30 miliard dolarů 12. února 20 milionů dolarů na první veřejnou akci Bipartitní skupina podporující tvůrce politik, kteří chtějí federální gardy kolem AI Oznámení zachycuje napětí, které může definovat trajektorii společnosti. Anthropic byla založena v roce 2021 bývalými manažery OpenAI, kteří opustili konkrétně kvůli obavám, že komercializace byla ohromující bezpečnostní závazky. Otázkou je, zda společnost může současně usilovat o oceňování ve výši 380 miliard dolarů při zachování hodnot, které odůvodňovaly její existenci. The PAC Battle and Its Economics Bitva o SZP a její hospodářství 20 milionů dolarů je méně důležité pro jeho velikost, než pro to, kdo je proti. Public First Action existuje speciálně pro boj proti __ __od prezidenta OpenAI Greg Brockman, Andreessen Horowitz a dalších lídrů v odvětví umělé inteligence. vedoucí poslání budoucnosti je jasné: odporovat regulaci umělé inteligence na státní úrovni ve prospěch lehkého federálního rámce - nebo ideálně žádný rámec vůbec. Vedoucí budoucnost, super PAC, který získal více než 125 milionů dolarů Dárcovství společnosti Anthropic je na opačné straně tohoto boje.Podporují kandidáty, kteří chtějí požadavky na transparentnost, ochranu na státní úrovni a omezení na nejsilnější modely umělé inteligence. To je místo, kde se ekonomika dostane nepohodlné. dodržování předpisů neublíží všem společnostem stejně. Mezitím společnosti v měřítku společnosti Anthropic udržují specializované oddělení pro dodržování předpisů, právní týmy a infrastrukturu politik. Malé startupy v oblasti umělé inteligence hláší, že utratí více než 300 000 dolarů za projekt nasazení Malé startupy v oblasti umělé inteligence hláší, že utratí více než 300 000 dolarů za projekt nasazení Když Anthropic obhajuje předpisy, které vyžadují, aby společnosti v oblasti umělé inteligence „vyžadovaly skutečnou transparentnost od společností, které budují nejsilnější modely umělé inteligence“, obhajují požadavky, které již splňují. Ať už je to záměr, nebo jen účinek, je otázkou, která určuje důvěryhodnost společnosti. Research as Both Commitment and Competitive Advantage Výzkum jako závazek i konkurenční výhoda Tým společnosti Anthropic Societal Impacts nabízí jeden objektiv, zda společnost může zachovat své zakládající principy a současně usilovat o agresivní růst. skupina studuje, jak se AI jako Claude ve skutečnosti používá ve světě; jak se lidé spoléhají na AI pro poradenství, emocionální podporu, vzdělání a práci a jaké sociální a ekonomické vzory vznikají, když se AI stává více začleněnou do každodenního života. Práce se zdá být přísná. Systém ochrany soukromí pro analýzu vzorců používání v reálném světě v rozsahu. Studovali, jak uživatelé vytvářejí emocionální závislosti na asistentech AI a prováděli výzkum smíšených metod o účincích AI na profesionální práci. Tým vytvořil Clio Zveřejnil antropologický ekonomický index Tým vytvořil Clio Zveřejnil antropologický ekonomický index zdůrazňují empirickou přísnost, spolupráci s odborníky na politiku a zveřejňování v peer-reviewovaných místech.Potřebná infrastruktura, jako jsou analytické nástroje chránící soukromí, cross-funkční výzkumné týmy, externí partnerství, představuje smysluplnou investici do pochopení reálných dopadů umělé inteligence. Pracovní pozice pro tým Pracovní pozice pro tým Ale každé zjištění o společenských účincích umělé inteligence se stává daty, které mohou podpořit regulační argumenty.Když Anthropic dokumentuje, jak se používání Claude koreluje se sociálně-ekonomickým statusem, tento výzkum může odůvodnit politiky vyžadující spravedlivý přístup.Když studují vzory emocionální závislosti, tyto zjištění podporují požadavky na transparentnost kolem funkcí společenství umělé inteligence.Když měří dopady přesunu zaměstnání, data se přímo podílejí na debatách o řízení umělé inteligence. Anthropic obhajuje „smysluplné záruky“ a „skutečnou transparentnost od společností, které budují nejsilnější modely umělé inteligence“, což jsou opět požadavky, které jsou již umístěny na splnění. Měření dopadu v reálném světě vyzývá k nepříjemným zjištěním.Také vytváří zpětnou vazbu, kde principový výzkum vytváří důkazy, které náhodou ospravedlňují předpisy prospěšné společnosti, která jej provádí. When Safety Researchers Leave Když výzkumníci odcházejí Udržování uvedených hodnot při sledování hyperrůst má náklady.Tři dny předtím, než společnost Anthropic oznámila své kolo financování ve výši 30 miliard dolarů, Vedl tým společnosti Safeguards Research od jejího založení na počátku roku 2025, pracoval na obraně proti AI asistovanému bioterorismu, pochopil AI sycophancy a vyvinul to, co popsal jako „jeden z prvních případů bezpečnosti AI“. Mrinank Sharma rezignoval Mrinank Sharma rezignoval jeho rezignační dopis, Varoval, že „svět je v nebezpečí“ před „celou sérií vzájemně propojených krizí“, ale odmítl uvést, co Anthropic udělal špatně. Publikováno veřejně Publikováno veřejně To, co řekl, bylo více odhalující: „Za celý můj čas tady, jsem opakovaně viděl, jak těžké je opravdu nechat naše hodnoty řídit naše akce. Timing je zajímavý. , který je silnějším modelem prodávaným pro své schopnosti kódování agentů a funkce produktivity kanceláří. Sharma rezignovala 9. února. Claude Opus 4.6 vyjde 6. února Claude Opus 4.6 vyjde 6. února Sharmův dopis naznačuje něco obtížnějšího řešit než konkrétní selhání: propast mezi deklarovanými hodnotami a tržním tlakem se zvětšila natolik, že vedoucí bezpečnostní výzkumník je nemohl smířit. Když váš vedoucí výzkumu ochranných opatření přestane citovat „tlak na to, aby odložil to, co je nejdůležitější“, zatímco odmítá jmenovat konkrétní selhání, čelíte skutečnosti, že tržní síly mohou být neslučitelné s úrovní opatrnosti, kterou tvrdíte, že hodnotíte. Mind the Gap Přemýšlejte o Gap Obhajoba společnosti Anthropic pro AI hlídky přitahuje ty, kteří chtějí, aby Washington zůstal mimo. Společnost tvrdí, že chce jednoduše řízení, které „umožňuje transformační potenciál umělé inteligence a pomáhá přiměřeně řídit její rizika“. David Sacks, Bílý dům AI car, obvinil Anthropic David Sacks, Bílý dům AI car, obvinil Anthropic Anthropic pravděpodobně věří, že regulace slouží všem, zatímco uznává, že jim slouží zvláště dobře. Když se vaše bezpečnostní výzkumná infrastruktura zdvojnásobí jako konkurenční trhlina, když se vaše regulační obhajoba dokonale sladí s vašimi komerčními výhodami a když váš šéf ochranných opatření přestane citovat tlaky, aby opustili základní hodnoty . . dobře, rozdíl mezi principem a ziskem se stává obtížnějším rozlišovat. Je tento rozdíl udržitelný, když se hodnocení blíží k půl bilionu dolarů?