Commmonn Ground

Tech & AI

トランプ政権、Anthropicを政府から排除 — AIセーフティを巡る対立が業界に意味するもの

2026年2月27日、トランプ大統領はAI業界を真っ二つに引き裂く6つの言葉を投稿しました。「We don't need it, we don't want it.(我々には必要ない、欲しくもない)」

この「it」とはAnthropic(アンソロピック)のこと、具体的には国防総省の機密ネットワーク内で初めて稼働したAIモデル「Claude」を指していました。それから数時間のうちに、トランプ氏はすべての連邦機関に対し、Anthropicの技術使用を直ちに停止するよう指示。ピート・ヘグセス国防長官はこれに続き、Anthropicを「サプライチェーン・リスク」に指定しました。これは通常、Huawei(ファーウェイ)のような外国の敵対勢力に関連する企業に適用されるラベルです。

そして、その7時間足らず後、OpenAIのCEOであるサム・アルトマン氏がXにこう投稿しました。「国防省(Department of War)と、彼らの機密ネットワークに我々のモデルを導入することで合意に達した」

AIセーフティ(安全性)に関する議論は、学術的なものから地政学的なものへと一変しました。

実際に何が起きたのか

争点は、**「あらゆる合法的目的(all lawful purposes)」**という言葉に集約されていました。

国防総省はAnthropicに対し、軍がClaudeをあらゆる合法的な用途に使用することを認め、同社の利用規約による制限を受けないことに同意するよう要求しました。これに対し、AnthropicのCEOであるダリオ・アモデイ氏は2つのレッドライン(譲れない一線)を引きました。それは、Claudeをアメリカ市民に対する大規模な国内監視に使用しないこと、そして人間の監視なしに標的を選択・攻撃する完全自律型兵器の動力源にしないことでした。

国防総省の立場は明快でした。軍はすでに独自の法律と監視の下で運用されており、ベンダーの利用規約によってミッションクリティカルな決定が制約されることは許されないというものです。「例外事項を抱えたまま戦術作戦を指揮することはできない」と、国防総省の関係者はCNNに語っています。

Anthropicの立場も同様に明確でした。現在のAIモデルは、完全に自律的な殺傷の決定を下せるほど信頼性が高くなく、市民への大規模監視は基本的人権を侵害するというものです。「国防省からのいかなる威嚇や罰も、我々の立場を変えることはない」と同社は声明を出しました。

数週間にわたる交渉、国防総省でのヘグセス氏とアモデイ氏による緊迫した会談、そして午後5時1分という期限付きの最後通牒を経て、Anthropicは屈するよりも決裂することを選びました。

OpenAIの矛盾

ここからが興味深い展開です。

サム・アルトマン氏はその日の早い段階で、監視や自律型兵器に関する「レッドライン」をOpenAIも共有しているとスタッフに語り、Anthropicの姿勢を公に支持していました。しかし、その数時間後、彼は国防総省との契約締結を発表したのです。

彼の投稿には重要な詳細が含まれていました。「我々の最も重要な安全原則のうちの2つは、国内の大規模監視の禁止と、自律型兵器システムを含む武力行使における人間の責任です。国防省はこれらの原則に同意し、法律と政策に反映させており、我々はそれらを契約に盛り込みました」

言い換えれば、OpenAIは、Anthropicが要求して拒絶されたのと全く同じ安全上の例外条項を(名目上は)手に入れたことになります。国防総省は、Anthropicから提示された条件を拒否し、OpenAIからの条件は受け入れたのです。

これにはいくつかの解釈が可能です。国防総省は最初から原則に反対していたわけではなく、Anthropicが既存の法律に頼るのではなく利用規約に明記することに固執したのが気に入らなかったのかもしれません。あるいは、トランプ氏が個人的に介入したことで政治的な力学が変化したのかもしれません。もしくは、この結果は最初から政策ではなく、交渉の「レバレッジ(有利な立場)」の問題だったのかもしれません。

理由が何であれ、見え方は鮮明です。一方の企業は信念を貫いてブラックリストに載り、そのライバルは連帯を表明しながらも契約にサインしたのです。

なぜこれがワシントン以外でも重要なのか

Anthropicへの直接的なビジネス上の影響は、管理可能な範囲です。国防総省の契約は最大2億ドル規模で、大きな金額ではありますが、企業価値3,800億ドル、年間収益140億ドルの企業にとって存亡に関わるほどではありません。

真の武器は「サプライチェーン・リスク」の指定です。これは、米軍と取引のあるすべての企業が、国防総省関連の業務でAnthropicのClaudeを使用していないことを証明しなければならないことを意味します。成長を法人契約に依存している企業にとって、その多くが政府にもサービスを提供している企業であることを考えると、これはドミノ倒しのような顧客喪失につながる可能性があります。

しかし、より広範な影響は、一企業の貸借対照表をはるかに超えたところにあります。

AI企業にとって、メッセージは明確です。政府契約が欲しければ、「あらゆる合法的利用」という条件を受け入れろ、ということです。Center for American Progressのアダム・コナー氏が述べたように、「これは現在交渉中の他のAI企業に対し、AIの用途にいかなる制限も設けようとするなというメッセージを送っている」のです。

AIセーフティ運動にとって、これは決定的な瞬間です。AI企業が政府による技術の使用方法に境界線を引けるかどうかという問いに対し、少なくとも現政権からは現実的な回答が突きつけられました。AIの調整(アライメント)や責任ある展開に関する理論的な議論は、今や2億ドルの値札がついた契約交渉の場へと移りました。

開発者やビルダーにとって、状況は一変しました。もし政府関連の業務でClaudeを利用して構築している場合、移行までに6ヶ月の猶予しかありません。政府契約に触れる可能性のある法人業務のためにAIプロバイダーを選択する場合、サプライチェーン・リスクの指定はベンダー選定における新たな変数となります。

Anthropicが賭けているもの

Anthropicは引き下がる気配を見せていません。同社はこのサプライチェーン・リスク指定を「法的に根拠がない」として裁判で争う姿勢を見せています。アモデイ氏は、この対立が始まってからもAnthropicの評価額と収益は成長し続けていると指摘しています。

ここには戦略的な論理があります。Anthropicは、チェック機能のない軍事用AI利用に「ノー」と言った企業であることは、安易に「イエス」と言った企業であることよりも有利なポジショニングになると賭けているのです。信頼性、安全性の実績、そして規制への適合性がますます重要視される市場(特に欧州や責任あるAIを重視する企業顧客の間)において、Anthropicの姿勢は競争上の優位性になる可能性があります。

GoogleやOpenAIの何百人もの従業員がAnthropicを支持する署名を行いました。複数の元国防総省高官も、現政権のアプローチを「極めて脆弱」と批判しています。同社が計画しているIPO(新規株式公開)も、むしろ「信念ある抵抗」というナラティブによって恩恵を受ける可能性さえあります。

あるいは、もしサプライチェーン指定が解除されず、法人顧客が離れ始めれば、この賭けは悲劇的な裏目に出るかもしれません。

大きな問い

政治、個性、契約の詳細を剥ぎ取ってみると、AI業界が長年避けてきた一つの問いが残ります。

AIに何ができて何ができないかを決めるのは誰か — それを作る企業か、それを買う政府か?

今のところ、米国政府は自らの答えを出しました。その答えが、法廷闘争、政権交代、そして避けられないAI能力の進化を経て維持されるかどうか。それが、今後10年のこの業界を定義する物語となるでしょう。

一つ確かなことは、AI企業が密室で静かに安全条件を交渉する時代は終わったということです。Anthropicの禁止令は、それを公にし、政治化し、個人的な問題へと変えました。今や、すべてのAI企業は、政府から声がかかったときに何が賭けられているのか、そして「ノー」と言うのにどれほどのコストがかかるのかを知っています。