[No.238]Anthropicとトランプ政権のバトル!! 企業側はAI規制を求め政権側は自由な開発を促進、AI規制緩和が進む中Anthropicは重大な懸念を表明

AIフロンティアモデルを開発しているAnthropicはトランプ政権に対し、AI製品を出荷する前に、政府が試験を実施し安全性を確認することを提唱した。

一方、政権側はAI基本指針「AIアクションプラン」に基づき、AI規制を緩和し開発を促進する政策を取る。AnthropicはAI規制緩和に重大な懸念を表明し政府に対策を求めた。

政府側はAnthropicが過度に危機感を煽っていると解釈し、両者でAI政策を巡るバトルが勃発した。

出典: Generated with Google Gemini 3 Pro Image

Anthropicと政権のバトル

AnthropicのCEOであるDario Amodei(下の写真、左側)は講演会などのイベントで、AIフロンティアモデルは理解できていないリスクを内包しており、安全対策が必要と主張する。

これに対し、トランプ政権のAI責任者David Sacks(右側)は、Anthropicは過度に恐怖を駆り立て、政府にAI規制を導入することを求め、事業を優位に展開する作戦であると主張する。

この戦略は「Regulatory Capture(社会の利益より特定企業の利益を優先する政策)」で、AI規制が導入されるとスタートアップ企業などはこれに準拠することができず、Anthropicが優位にビジネスを進めることができると解析する。

出典: Generated with Google Gemini 3 Pro Image

Anthropicの提言

これに対し、Anthropicは会社としての公式な見解を公表し意図を明らかにした(下の写真)。

また、米国がAI市場でリーダーのポジションを維持するために必要な項目を提示した。この中で、連邦政府が統一したAI規制政策を示すことが重要としている。

州政府が独自にAI規制を施行すると、全米で50の規制政策が運用されることになり、企業にとって大きな負担となる。

出典: Anthropic

安全試験の実施を求める

更に、AnthropicはAI製品を出荷する前に安全試験を実施すべきと提言している。対象はAIフロンティアモデルを開発している大企業で、スタートアップ企業などを除外する。

Anthropicの他に、OpenAIやGoogleなどが安全試験の対象となる。

この指針は先に制定されたカリフォルニア州のAI規制法「SB 53」を踏襲するもので、年収が5億ドル以上の企業を対象とする。

Anthropicは公共営利法人

Anthropicは営利団体であるが「Public Benefit Corporation(公共営利法人)」として設立された。

Anthropicは利益を上げることを目的とするが、同時に、公共の営利を探求することをミッションとする。実際に、AnthropicはAIモデルの安全技術開発を最重要項目と位置付け、信頼できるAIモデルを開発している。

AIフロンティアモデルの判断ロジックを解明する研究や、アルゴリズムが人間の価値にアラインする研究を展開し、その成果を一般に公開している。

米国政府との共同作業

Anthropicと政権側で指針について意見が対立するが、実際には、Anthropicは米国政府とフロンティアモデルの安全性に関し共同プロジェクトを進めている。

トランプ政権はAI開発を推進しリスクを評価する部門として「Center for AI Standards & Innovation (CAISI)」を設立した。

AnthropicはCAISIと共同で安全評価プログラムを実施しその成果を公開した。また、Anthropicは英国政府の「UK AISI」と提携し、安全試験を実施しており、米英両国間でAIセーフティに関するコラボレーションを進めている。

出典: Generated with Google Gemini 3 Pro Image

安全試験のプロセス

このトライアルは安全試験の標準テンプレートを確立することを目的としている。

AI安全試験は政府側CAISIが実施し、Anthropicは出荷前のAIモデルへのアクセスを許諾し、試験に必要な情報を提供する。CAISIはモデルに対しストレス試験を実施しシステムの脆弱性を洗い出す。

この方式は「Red-Teaming」と呼ばれ、開発者がモデルに対しジェイルブレイクなどのサイバー攻撃を展開する。

また、攻撃チームは生物兵器製造に関する危険性を検証する。検証結果はAnthropicと共有し、この情報を元にモデルを強化する。

自主規制

安全試験の標準プロセスが確定したら、各企業は自主的にこれを適用し安全性を確認することができる。

Anthropicは製品出荷前の安全試験はあくまで自主規制で法令で縛るべきでないとのポジションを取る。OpenAIなどの大企業がこの安全試験に自主的に参加しAIフロンティアモデルの安全性を担保することを目標とする。

企業としては、政府と安全試験を実施することで、事実上の政府認証を受けることになり信用度が向上する。

また、この安全試験プロトコールをベースとして、安全評価技術の標準化が進むと期待される。

Anthropicが孤軍奮闘

トランプ政権はAIアクションプランでAI規制を緩和しイノベーションを推進する政策を取る。

AI開発企業はこの政策が強い追い風となり、開発の自由度が増し、実際にAI技術開発が急進している。一方、業界の中でAnthropicだけがこの指針に異を唱え、政府に全米を統括するAI規制を求めている。

AnthropicはAIフロンティアモデルの安全性に関し重大な懸念を示し、政府に対応を求めているが、他のAI開発企業は目立った動きを示していない。

Anthropicとトランプ政権のバトルはどう決着するのか業界が注目している。