アントロピー しかし、同日、同社は、そのアイデンティティについてより深い疑問を明らかにする別の動きを行った。 「A」 . 2月12日に30億ドルの資金調達を発表した。 公共ファーストアクションへの2000万ドルの貢献 bipartisan group supporting policymakers who want federal guardrails around AI 2月12日に30億ドルの資金調達を発表した。 公共ファーストアクションへの2000万ドルの貢献 AIを取り巻く連邦警備隊を求める政策立案者を支援する二党派グループ これらの発表は、会社の軌道を定義する可能性のある緊張を捉えています。Anthropicは、OpenAIの元幹部によって2021年に設立され、商業化が圧倒的なセキュリティへのコミットメントであるという懸念を理由に離脱しました。 問題は、企業が同時に3億8000億ドルの評価を追求し、その存在を正当化した価値を維持することができるかどうかである。 The PAC Battle and Its Economics PACの戦いとその経済 20百万ドルは、それが誰に反対するかよりも大きさが重要です。 Public First Action は、具体的に対抗するために存在する。 オープンAIのグレッグ・ブラックマン(Greg Brockman)、アンドレセン・ホロウィッツ(Andreessen Horowitz)およびその他のAI業界のリーダーたちから、未来の使命を率いるのは、国家レベルのAI規制に反対し、軽く触れる連邦枠組みに反対すること、または理想的には、まったく枠組みがないことである。 未来をリードし、12500万ドル以上を調達したスーパーPAC Anthropicの寄付は、透明性の要求、州レベルの保護、そして最も強力なAIモデルの制限を求める候補者を支持しています。 これは、経済が不便になる場所です。規制の遵守は、すべての企業を同様に傷つけることはありません。 コンプライアンス要件を管理するだけで、しばしば全R&D予算を超えています。同時に、Anthropicの規模の企業は専用のコンプライアンス部門、法律チーム、政策インフラを維持しています。 Small AI startups report spending $300,000+ per deployment project 小規模AIスタートアップは、展開プロジェクトあたり30万ドル以上を費やしていると報告 Anthropicは、AI企業が「最も強力なAIモデルを構築する企業から真の透明性を要求する」という規制を提唱するとともに、すでに満たしている要件を提唱している。 それが意図なのか、それとも単なる結果なのかは、会社の信頼性を定義する問題です。 Research as Both Commitment and Competitive Advantage コミットメントと競争優位の両方としての研究 AnthropicのSocietal Impactsチームは、同社が積極的な成長を追求しながら設立原則を維持できるかどうかについて一つのレンズを提供しています。このグループは、クラウドのようなAIが世界で実際にどのように使われているか、人々がアドバイス、感情的サポート、教育、仕事のためにAIにどのように依存しているか、そしてAIが日常生活にどのように組み込まれているか、どのような社会的および経済的なパターンが現れるかを研究しています。 仕事は厳しいようだ。 実際の世界の使用パターンを規模で分析するためのプライバシー保存システム。 彼らは、AIアシスタントに対するユーザーの感情的依存をどのように形成するかを研究し、AIのプロフェッショナルな仕事への影響に関する混合方法の研究を行った。 チームはClioを作った。 Anthropic Economic Indexを発表しました。 チームはClioを作った。 Anthropic Economic Indexを発表しました。 経験的厳格さ、政策専門家との協力、および peer-reviewed 会場での出版を強調する。プライバシーを守る分析ツール、クロス機能研究チーム、外部パートナーシップなどの必要なインフラストラクチャは、AIの現実世界の影響を理解するための有意義な投資を表します。 Job postings for the team チームのための仕事ポスト しかし、AIの社会的影響に関するすべての発見は、規制的論点を支持するデータになります。Anthropicがクロードの使用が社会経済的地位とどのように関連しているかを文書化すると、その研究は、公平なアクセスを必要とする政策を正当化することができます。 Anthropicは「有意義な保護」と「最も強力なAIモデルを構築する企業からの真の透明性」を擁護しており、これはまた、彼らがすでに満たすために配置されている要件です。 現実世界の影響を測定することは、不快な発見を招きます。また、原則に基づいた研究が、それを実施する会社に利益をもたらす規制を正当化する証拠を生み出すフィードバックループを作り出します。 When Safety Researchers Leave セキュリティ研究者が去るとき Hypergrowthを追求しながら述べた値を維持するにはコストがあります。Anthropicが30億ドルの資金調達ラウンドを発表する3日前に、 彼は、2025年初頭に設立されて以来、同社のSafeguards Researchチームを率いて、AIによるバイオテロリズムに対する防御、AIのシコファンスの理解、そして「AIの最初のセキュリティケースの1つ」と述べたものを開発してきました。 Mrinank Sharma 辞任 Mrinank Sharma 辞任 辞任の手紙は、 彼は「世界は危険にさらされている」と警告したが、アントロピックが何を間違ったかを明らかにすることを拒否した。 Posted in 公開 Posted in 公開 彼が言ったことはさらに明らかにした:「ここで過ごした時間を通して、私たちの価値観が私たちの行動を支配することを本当に許すことがどれほど難しいかを何度も何度も見てきました。 タイミングは興味深い。 より強力なモデルで、エージェントコード機能とオフィス生産性機能で販売されています。シャルマは2月9日に辞任し、30億ドルの資金調達発表が2月12日に発表されました。 Claude Opus 4.6 2月6日発売 Claude Opus 4.6 2月6日発売 シャルマの手紙は、特定の失敗よりも解決しにくい何かを示唆している:述べられた価値と市場の圧力との間のギャップは、高級安全研究者がそれらを和解することができないほど広くなりました。 あなたのセーフガードの研究の責任者が「最も重要なものを置き去りにするプレッシャー」を引用し、特定の失敗を指名することを拒否すると、あなたは市場の勢力があなたが価値を主張する予防のレベルと相容れないという現実に直面しています。 Mind the Gap タイトル: Mind the Gap アントロピックのAI警備隊の擁護は、ワシントンが外に留まることを望む人々から火をつけている。 同社は単に「AIの変革的潜在力を可能にし、リスクを比例的に管理するのに役立つ」統治を望んでいると主張する。 ホワイトハウスのAI皇帝デヴィッド・サックスが「アントロピック」を非難 ホワイトハウスのAI皇帝デヴィッド・サックスが「アントロピック」を非難 Anthropicは、規制が誰にでも役に立つと信じているが、それを認めると、彼らは特によく役に立つ。 あなたの安全研究インフラストラクチャが競争のとして倍増し、あなたの規制の擁護があなたの商業的優位性と完璧に一致すると、そしてあなたの保護責任者がコアの価値を捨てるための圧力を引用するのをやめると、原則と利益の間のギャップを区別するのが難しくなります。 このギャップは、評価が半兆ドルに近づくと持続可能なのでしょうか。