antropică Cu toate acestea, în aceeași zi, compania a făcut o altă mișcare care dezvăluie o întrebare mai profundă despre identitatea sa: a . A anunțat o rundă de finanțare de 30 de miliarde de dolari pe 12 februarie 20 de milioane de euro pentru prima acțiune publică bipartisan group supporting policymakers who want federal guardrails around AI A anunțat o rundă de finanțare de 30 de miliarde de dolari pe 12 februarie 20 de milioane de euro pentru prima acțiune publică grup bipartisan care sprijină factorii de decizie care doresc garduri federale în jurul AI Anunțurile captează o tensiune care poate defini traiectoria companiei. Anthropic a fost fondată în 2021 de foști directori OpenAI care au plecat în mod specific din cauza preocupărilor că comercializarea a fost angajamente copleșitoare de securitate. Întrebarea este dacă o companie poate urmări simultan o evaluare de 380 de miliarde de dolari, menținând în același timp valorile care au justificat existența sa. The PAC Battle and Its Economics Bătălia PAC și economia sa Cele 20 de milioane de dolari contează mai puțin pentru mărimea sa decât pentru cine se opune. Public First Action există în mod specific pentru a contracara __ __de la președintele OpenAI, Greg Brockman, Andreessen Horowitz și alți lideri ai industriei AI. Misiunea viitorului este clară: opuneți-vă reglementării AI la nivel de stat în favoarea unui cadru federal ușor de atins - sau, în mod ideal, niciun cadru deloc. Liderul viitorului, un super PAC care a strâns peste 125 de milioane de dolari Donația Anthropic o pune pe partea opusă a acestei lupte, susținând candidații care doresc cerințe de transparență, protecții la nivel de stat și restricții asupra celor mai puternice modele AI. Acesta este punctul în care economia devine incomodă. respectarea reglementărilor nu afectează toate companiile în mod egal. Între timp, companiile la scara Anthropic mențin departamente dedicate de conformitate, echipe juridice și infrastructură de politici. Small AI startups report spending $300,000+ per deployment project Start-up-urile mici de IA raportează că cheltuiesc peste 300.000 de dolari pe proiect de implementare Atunci când Anthropic pledează pentru reglementări care solicită companiilor AI să „exigă transparență reală de la companiile care construiesc cele mai puternice modele AI”, ei pledează pentru cerințe pe care le îndeplinesc deja. Fie că aceasta este intenția sau pur și simplu efectul este întrebarea care definește credibilitatea companiei. Research as Both Commitment and Competitive Advantage Cercetarea ca un angajament și un avantaj competitiv Echipa de impact social a Anthropic oferă o perspectivă asupra faptului dacă compania își poate menține principiile fondatoare în timp ce urmărește o creștere agresivă. grupul studiază modul în care AI ca Claude este de fapt utilizat în lume; modul în care oamenii se bazează pe AI pentru sfaturi, sprijin emoțional, educație și muncă și ce modele sociale și economice apar pe măsură ce AI devine mai încorporată în viața de zi cu zi. Lucrarea pare să fie riguroasă. , un sistem de păstrare a confidențialității pentru a analiza modelele de utilizare din lumea reală la scară. Ei au studiat modul în care utilizatorii formează dependențe emoționale de asistenții AI și au efectuat cercetări mixte privind efectele AI asupra muncii profesionale. Echipa a construit Clio They’ve published the Anthropic Economic Index Echipa a construit Clio A fost publicat Indexul Economic Antropic subliniază rigoarea empirică, colaborarea cu experții în materie de politici și publicarea în locații evaluate de către colegi. Infrastructura necesară, cum ar fi instrumentele de analiză care protejează confidențialitatea, echipele de cercetare interfuncționale, parteneriatele externe, reprezintă o investiție semnificativă în înțelegerea impactului din lumea reală al IA. Postări de muncă pentru echipă Postări de muncă pentru echipă Atunci când Anthropic documentează modul în care utilizarea lui Claude se corelează cu statutul socioeconomic, această cercetare poate justifica politicile care necesită acces echitabil.Atunci când studiază modele de dependență emoțională, aceste constatări susțin cerințele de transparență în jurul caracteristicilor de companie AI. Când măsoară impactul deplasării locurilor de muncă, datele se alimentează direct în dezbateri despre guvernanța AI. Anthropic pledează pentru „garanții semnificative” și „transparență reală din partea companiilor care construiesc cele mai puternice modele AI”, care, din nou, sunt cerințe pe care sunt deja poziționate să le îndeplinească. Măsurarea impactului din lumea reală invită la descoperiri incomode. creează, de asemenea, o buclă de feedback în care cercetarea bazată pe principii generează dovezi care se întâmplă să justifice reglementările care beneficiază compania care o desfășoară. When Safety Researchers Leave Când cercetătorii de securitate pleacă Menținerea valorilor declarate în timp ce urmărește hipercreșterea are costuri.Trei zile înainte ca Anthropic să anunțe runda de finanțare de 30 de miliarde de dolari, El a condus echipa de cercetare a companiei Safeguards de la înființarea sa la începutul anului 2025, lucrând la apărarea împotriva bioterorismului asistat de IA, înțelegerea sicofanței AI și dezvoltarea a ceea ce el a descris ca fiind „unul dintre primele cazuri de securitate AI”. Mrinank Sharma a demisionat Mrinank Sharma a demisionat Scrisoarea de demisie, El a avertizat că „lumea este în pericol” de „o întreagă serie de crize interconectate”, dar a refuzat să specifice ce a făcut Anthropic greșit. Publicat în Public Publicat în Public Ceea ce a spus a fost mai revelator: „De-a lungul timpului meu aici, am văzut în mod repetat cât de greu este să lăsăm valorile noastre să ne guverneze acțiunile. Timpul este interesant. , care este un model mai puternic comercializat pentru capacitățile sale de codificare agentică și caracteristicile de productivitate a biroului. Sharma a demisionat în februarie 9. Claude Opus 4.6 a fost lansat pe 6 februarie Claude Opus 4.6 a fost lansat pe 6 februarie Scrisoarea lui Sharma sugerează ceva mai dificil de abordat decât eșecurile specifice: decalajul dintre valorile declarate și presiunile pieței a crescut suficient de mare încât un cercetător senior în domeniul siguranței nu le-a putut reconcilia. Atunci când șeful dvs. de cercetare de protecție încetează să citeze "presiunile pentru a pune la o parte ceea ce contează cel mai mult", în timp ce refuză să numească eșecuri specifice, vă confruntați cu realitatea că forțele pieței pot fi incompatibile cu nivelul de precauție pe care îl pretindeți să valorifice. Mind the Gap Gândește-te la Gap Promovarea de către Anthropic a gardurilor AI a atras atenția celor care doresc ca Washingtonul să rămână afară. Compania susține că dorește pur și simplu o guvernanță care „permite potențialul transformator al AI și ajută la gestionarea proporțională a riscurilor sale”. David Sacks, țarul Casei Albe, a acuzat Anthropic David Sacks, țarul Casei Albe, a acuzat Anthropic Ambele caracteristici pot fi exacte.Anthropic crede probabil că reglementarea îi servește pe toți în timp ce recunoaște că le servește în mod deosebit bine. Atunci când infrastructura dvs. de cercetare în domeniul siguranței se dublează ca o groapă competitivă, când advocacy-ul dvs. de reglementare se aliniază perfect cu avantajele dvs. comerciale și când șeful dvs. de protecție încetează să citeze presiunile de a abandona valorile de bază . . bine, decalajul dintre principiu și profit devine mai dificil de distins. Este acest decalaj sustenabil pe măsură ce evaluările se apropie de o jumătate de trilion de dolari?