Antropologji Por të njëjtën ditë, kompania bëri një lëvizje tjetër që zbulon një pyetje më të thellë për identitetin e saj: , a . njoftoi një raund financimi prej 30 miliardë dollarësh më 12 shkurt 20 milionë dollarë për aksionin e parë publik Grupi bipartisan mbështet politikanët që duan roje federale rreth AI njoftoi një raund financimi prej 30 miliardë dollarësh më 12 shkurt 20 milionë dollarë për aksionin e parë publik Grupi bipartisan mbështet politikanët që duan roje federale rreth AI Njoftimet kapin një tension që mund të përcaktojë trajektoren e kompanisë. Anthropic u themelua në vitin 2021 nga ish-drejtuesit e OpenAI, të cilët u larguan veçanërisht për shkak të shqetësimeve se komercializimi ishte angazhimet mbizotëruese të sigurisë. Në pyetje është nëse një kompani mund të ndjekë njëkohësisht një vlerësim prej 380 miliardë dollarësh duke ruajtur vlerat që justifikuan ekzistencën e saj. The PAC Battle and Its Economics Beteja e PAC dhe ekonomia e saj 20 milionë dollarë kanë më pak rëndësi për madhësinë e saj sesa për atë që kundërshton. Veprimi i parë publik ekziston posaçërisht për të kundërshtuar __ Kryetari i OpenAI, Greg Brockman, Andreessen Horowitz, dhe udhëheqësit e tjerë të industrisë së AI-së, udhëheqin misionin e së ardhmes: kundërshtojnë rregullimin e AI-së në nivel shtetëror në favor të një kornizë federale të lehtë – ose në mënyrë ideale, asnjë kornizë. Leading the Future, një super PAC që ka mbledhur më shumë se 125 milionë dollarë Dhurimi i Anthropic e vë atë në anën e kundërt të asaj beteje.Ata janë duke mbështetur kandidatët që duan kërkesat e transparencës, mbrojtjet në nivel shtetëror dhe kufizimet në modelet më të fuqishme të AI. Kjo është ajo ku ekonomia bëhet e pakëndshme. pajtueshmëria rregullatore nuk dëmton të gjitha kompanitë në mënyrë të barabartë. Në të njëjtën kohë, kompanitë në shkallën e Anthropic mbajnë departamentet e përkushtuara të pajtueshmërisë, ekipet ligjore dhe infrastrukturën e politikave. Startups të vogla të inteligjencës artificiale raportojnë se shpenzojnë më shumë se 300,000 dollarë për projekt implementimi Startups të vogla të inteligjencës artificiale raportojnë se shpenzojnë më shumë se 300,000 dollarë për projekt implementimi Kur Anthropic mbështet rregulloret që kërkojnë që kompanitë e inteligjencës artificiale “të kërkojnë transparencë të vërtetë nga kompanitë që ndërtojnë modelet më të fuqishme të inteligjencës artificiale”, ata po mbrojnë kërkesat që tashmë i plotësojnë. Nëse kjo është qëllimi apo thjesht efekti është pyetja që përcakton besueshmërinë e kompanisë. Research as Both Commitment and Competitive Advantage Hulumtimi si angazhim dhe avantazh konkurrues Ekipi i ndikimeve shoqërore të Anthropic ofron një lente në nëse kompania mund të ruajë parimet themelore duke ndjekur një rritje agresive. grupi studion se si AI si Claude është përdorur në të vërtetë në botë; se si njerëzit mbështeten në AI për këshilla, mbështetje emocionale, arsimim dhe punë, dhe cilat modele sociale dhe ekonomike dalin si AI bëhet më e integruar në jetën e përditshme. Puna duket se është e rreptë. , një sistem i ruajtjes së privatësisë për të analizuar modelet e përdorimit të botës reale në shkallë. Ata kanë studiuar se si përdoruesit formojnë varësi emocionale ndaj asistentëve të AI dhe kanë kryer hulumtime të përziera mbi efektet e AI në punën profesionale. Ekipi ka ndërtuar Clio Ata kanë publikuar Indeksin Ekonomik Antropik Ekipi ka ndërtuar Clio Ata kanë publikuar Indeksin Ekonomik Antropik theksojnë rreptësinë empirike, bashkëpunimin me ekspertët e politikës dhe publikimin në vende të shqyrtuara nga kolegët. Infrastruktura e nevojshme, si mjetet analitike që ruajnë privatësinë, ekipet hulumtuese ndërfunksionale, partneritetet e jashtme, përfaqësojnë një investim të kuptueshëm në kuptimin e ndikimit të botës reale të AI. Postimi i punës për ekipin Postimi i punës për ekipin Por çdo zbulim në lidhje me efektet shoqërore të AI bëhet të dhëna që mund të mbështesin argumentet rregullatore. Kur Anthropic dokumenton se si përdorimi i Claude korrelon me statusin socio-ekonomik, ky hulumtim mund të justifikojë politikat që kërkojnë qasje të barabartë. Kur ata studiojnë modelet e varësisë emocionale, këto gjetje mbështesin kërkesat e transparencës rreth karakteristikave të shoqëruesve të AI. Kur ata matin ndikimet e zhvendosjes së punës, të dhënat ushqehen drejtpërdrejt në debatet mbi qeverisjen e AI. Anthropic mbështet “mbrojtje të kuptueshme” dhe “transparencë të vërtetë nga kompanitë që ndërtojnë modelet më të fuqishme të AI”, të cilat, këtu përsëri, janë kërkesa që ata janë tashmë të pozicionuar për të përmbushur. Matja e ndikimit në botën reale fton gjetje të pakëndshme.Ajo gjithashtu krijon një rrjedhje të reagimit ku hulumtimi i bazuar në parime gjeneron dëshmi që ndodh të justifikojë rregulloret që përfitojnë kompaninë që e kryen atë.Nëse hulumtimi informon vendimet e produktit të Anthropic ose shërben kryesisht pozicionimin e politikës së saj mbetet një pyetje e hapur. When Safety Researchers Leave Kur hulumtuesit e sigurisë largohen Mbajtja e vlerave të deklaruara ndërsa ndjekja e hypergrowth ka kosto.Tre ditë para se Anthropic njoftoi raundin e saj të financimit 30 miliardë dollarë, Ai e kishte udhëhequr ekipin e kërkimit të kompanisë Safeguards që nga krijimi i saj në fillim të vitit 2025, duke punuar në mbrojtje kundër bioterrorizmit të ndihmuar nga AI, duke kuptuar sycophancy AI, dhe duke zhvilluar atë që ai e përshkroi si “një nga rastet e para të sigurisë së AI”. Mrinank Sharma jep dorëheqjen Mrinank Sharma jep dorëheqjen letrën e tij të dorëheqjes, Ai paralajmëroi se "bota është në rrezik" nga "një seri e tërë e krizave të ndërlidhura" por refuzoi të specifikojë se çfarë Anthropic kishte bërë gabim. posted publicly Postuar publikisht Ajo që ai tha ishte më zbuluese: “Gjatë gjithë kohës sime këtu, kam parë në mënyrë të përsëritur se sa e vështirë është të lejojmë vlerat tona të qeverisin veprimet tona. Koha është interesante. , e cila është një model më i fuqishëm i tregtuar për aftësitë e saj të kodimit të agjencive dhe karakteristikat e produktivitetit të zyrës. Sharma dha dorëheqjen më 9 shkurt. Claude Opus 4.6 lëshohet më 6 shkurt Claude Opus 4.6 lëshohet më 6 shkurt Letra e Sharmës sugjeron diçka më të vështirë për t’u adresuar sesa dështimet specifike: hendeku midis vlerave të deklaruara dhe presioneve të tregut është rritur aq gjerë sa një studiues i lartë i sigurisë nuk mund t’i pajtojë ato. Kur shefi juaj i kërkimeve të mbrojtjes ndalon duke cituar “presionet për të lënë mënjanë atë që ka më shumë rëndësi” ndërsa refuzon të emërojë dështimet specifike, ju jeni përballur me realitetin se forcat e tregut mund të jenë të papajtueshme me nivelin e kujdesit që pretendoni të vlersoni. Mind the Gap Mendoni për Gap Mbështetja e Anthropic për rojet e AI ka tërhequr zjarrin nga ata që duan që Uashingtoni të qëndrojë jashtë. Kompania thotë se thjesht dëshiron një qeverisje që “mundëson potencialin transformues të AI-së dhe ndihmon në menaxhimin e rrezikut në mënyrë proporcionale”. David Sacks, car i Shtëpisë së Bardhë, ka akuzuar Anthropic David Sacks, car i Shtëpisë së Bardhë, ka akuzuar Anthropic Të dy karakterizimet mund të jenë të sakta.Anthropic ndoshta beson se rregullimi i shërben të gjithëve, ndërsa duke njohur se i shërben atyre veçanërisht mirë. Kur infrastruktura juaj e kërkimit të sigurisë dyfishohet si një shkretëtirë konkurruese, kur avokimi juaj rregullator përputhet në mënyrë të përkryer me avantazhet tuaja tregtare, dhe kur kreu juaj i mbrojtjes ndalon duke cituar presionin për të braktisur vlerat kryesore . . mirë, hendeku midis parimit dhe fitimit bëhet më i vështirë për të dalluar. A është kjo diferencë e qëndrueshme pasi vlerësimet afrohen gjysmë trilion dollarë?