人类 ,该公司估值为380亿美元,但在同一天,该公司又采取了另一个举动,揭示了其身份的更深层次问题: , a . 2月12日宣布30亿美元融资轮值 20万美元的公共第一行动捐款 两党支持决策者谁想要联邦围绕AI的警卫队 2月12日宣布30亿美元融资轮值 20万美元的公共第一行动捐款 两党支持决策者谁想要联邦围绕AI的警卫队 这些公告捕捉了可能定义公司轨迹的紧张局势。Anthropic于2021年由前OpenAI高管创立,他们特别因为担心商业化是压倒性的安全承诺而离开。 问题在于,一个公司是否可以同时追求380亿美元的估值,同时保持其存在的价值观。 The PAC Battle and Its Economics PAC战役及其经济 这2000万美元的规模比它反对谁更重要。 公共第一行动存在于专门反对 __ 由OpenAI总裁格雷格·布洛克曼,安德烈森·霍罗维茨和其他AI行业领导者带领未来的使命是明确的:反对国家级的AI监管,以有利于轻松的联邦框架 - 或者理想情况下,根本没有框架。 引领未来,超级PAC已筹集超过12500万美元 Anthropic的捐款将其置于这种斗争的对立面,他们支持那些想要透明度要求,国家级保护和对最强大的AI模型的限制的候选人。 这是经济变得不舒服的地方. 监管遵守不伤害所有公司平等。 同时,在Anthropic规模的公司保持专门的合规部门,法律团队和政策基础设施。 小型AI初创公司报告每项部署项目花费30万美元以上 小型AI初创公司报告每项部署项目花费30万美元以上 当Anthropic倡导要求人工智能公司“要求公司构建最强大的人工智能模型进行真正的透明度”的法规时,他们倡导他们已经满足的要求,每个新的授权都提高了进入的障碍;每个透明度要求都有利于现有测量基础设施的公司。 这是意图还是仅仅是结果,这是决定公司信誉的问题。 Research as Both Commitment and Competitive Advantage 研究既是承诺,又是竞争优势 Anthropic的社会影响团队提供了一个镜头,看看公司是否能够保持其创始原则,同时追求积极的增长,该小组研究克劳德这样的人工智能如何在世界上实际使用;人们如何依赖人工智能来提供建议,情感支持,教育和工作,以及随着人工智能在日常生活中越来越多地嵌入而出现的社会和经济模式。 工作似乎很严格。 ,一个隐私保护系统,用于大规模分析现实世界的使用模式。 他们研究了用户如何对AI助手产生情感依赖,并对AI对专业工作的影响进行了混合方法研究。 团队建立了Clio 他们发布了人类经济指数 团队建立了Clio 他们发布了人类经济指数 强调实证严谨,与政策专家合作,并在同行评审场所发布所所需的基础设施,如隐私保护分析工具,跨功能研究小组,外部伙伴关系,代表了理解人工智能在现实世界的影响有意义的投资。 工作岗位发送给团队 工作岗位发送给团队 但是,关于人工智能对社会的影响的每一个发现都会成为可以支持监管论点的数据。当Anthropic记录克劳德的使用如何与社会经济地位相关时,这项研究可以证明需要公平访问的政策。 Anthropic倡导“有意义的保障”和“公司构建最强大的AI模型的真正透明度”,这再次是他们已经定位的要求。 测量现实世界的影响邀请不舒服的发现,它还创建了一个反馈循环,原则研究产生证据,这会证明有益于公司进行的监管。 When Safety Researchers Leave 当安全研究人员离开时 在追求超级增长的同时维持指定的价值有成本三天前,人类公司宣布其30亿美元的融资轮值, 自2025年初成立以来,他领导了该公司的Safeguards研究团队,致力于防御人工智能辅助生物恐怖主义,了解人工智能的复杂性,并开发他所描述的“第一个人工智能安全案例之一”。 米兰克·沙玛辞职 米兰克·沙玛辞职 他的辞职信, 他警告说,“世界处于危险之中”,因为“一整系列相互关联的危机”,但拒绝具体说明“人类”做错了什么。 公开发布 公开发布 他说的是更有启示性的:“在我这里的整个时间里,我多次看到,真正让我们的价值观指导我们的行动是多么困难。 时间是很有趣的。 ,这是一个更强大的模型,以其代理编码能力和办公室生产力功能出售。 Claude Opus 4.6 将于 2 月 6 日推出 Claude Opus 4.6 将于 2 月 6 日推出 沙玛的信中提出了一些比具体的失败更难解决的问题:声明的价值和市场压力之间的差距已经变得足够大,以至于一名高级安全研究人员无法调和它们。 当你的研究负责人停止引用“排除最重要的压力”,而拒绝命名具体的失败时,你正面临着市场力量可能与你声称价值的谨慎程度不相容的现实。 Mind the Gap 记住差距 Anthropic对AI警卫队的倡导已经吸引了那些希望华盛顿留在外面的那些人。 该公司认为,它只是想要一种治理,这“允许人工智能的变革潜力,并有助于相应地管理其风险”。 David Sacks, the White House AI czar, has accused Anthropic 白宫AI沙皇大卫·萨克斯指责人类 Anthropic可能认为监管服务于每个人,而认识到它服务于他们特别好。 当你的安全研究基础设施翻一番,当你的监管倡导与你的商业优势完美一致时,当你的安全保障负责人停止引用压力放弃核心价值观时,原则和利润之间的差距变得更难区分。 这种差距是否可持续,因为估值接近半万亿美元?