米国防総省(ペンタゴン)が、主要AIベンダー8社との調達契約を締結した。OpenAI、Google、Microsoft、Amazonなどが名を連ねる中、ひとつだけ外れた企業がある——Claude(クロード)を開発するAnthropicだ。AI安全性を企業理念の中心に置いてきたAnthropicが軍の大型契約から外れた事実は、「安全重視」という姿勢が商業的リスクになり得ることを示している。ビジネスパーソンにとってこれは、AIベンダーの「企業スタンス」が政府調達の勝敗を左右する時代の到来を意味する。
ペンタゴンが選んだ8社、選ばれなかった1社
米国防総省は2025年、生成AI(ジェネレーティブAI)の調達フレームワークとして複数のベンダーと包括契約を結んだとAI Business が報じている。契約企業にはOpenAI、Google、Microsoft、Amazon Web Services(AWS)などが含まれるとされる。これらは米軍の情報分析・意思決定支援・サイバーセキュリティといった用途に活用される見通しだ。
一方でAnthropicの名前は契約リストにない。現時点でペンタゴンもAnthropicも除外の理由について公式コメントを出していないが、業界関係者の間では「利用規約の制限」と「企業文化の差異」が影響したとの見方が広がっている。
Anthropicの「安全性優先」がもたらすトレードオフ
Anthropicは2021年にOpenAIから独立した研究者グループが創業した企業だ。「AIの安全な開発」を最大の使命として掲げ、モデルの振る舞いを人間の価値観に沿わせる「Constitutional AI(憲法的AI)」という独自手法を採用している。
同社の利用規約は、兵器開発・監視システム・軍事意思決定への直接的な活用を原則禁止または制限していると広く認識されている。これは企業の倫理的立場を明確にする一方で、政府の安全保障分野への参入障壁になりうる。実際、競合他社がペンタゴンとの連携を深める中、Anthropicは慎重な姿勢を維持してきた。
Claudeを活用したビジネス向けツールの最新動向については、コードなしでAIがPC仕事——AnthropicのCoworkでも紹介している。同社が民間領域でのユーザー拡大を進める一方、政府との関係が定まっていない現状が浮き彫りになる。
競合はなぜ契約できたのか
OpenAIは2024年以降、軍・情報機関との連携を急速に拡大させた。同社はかつて利用規約で軍事利用を制限していたが、2024年初頭にその条項を改定し、国家安全保障分野への提供を可能にした。この方針転換が、ペンタゴン契約への道を開いたとされる。
GoogleはDefense Innovation Unit(国防イノベーションユニット)との協力実績を持ち、Microsoftはクラウドサービス「Azure Government」を通じて長年にわたり米政府機関への供給を続けてきた。AWSも「AWS GovCloud」という政府専用クラウド環境を整備しており、安全保障分野での実績は豊富だ。
つまり今回の8社との契約は、突発的な出来事ではない。各社が数年をかけて政府との信頼関係を構築し、利用規約・セキュリティ認証・インフラ整備を整えてきた結果と見るべきだ。
So What——ビジネスへの影響を読む
この出来事が示す最大の示唆は、「AIベンダーの企業スタンスが、調達判断の主要変数になった」という事実だ。かつての政府調達は価格・性能・セキュリティ認証が主な評価軸だった。だが今や「そのAI企業は何を禁止しているか」「どんな価値観でモデルを訓練しているか」が、取引可否を左右する。
企業がAnthropicを社内AIとして採用する場合も、この構図は無縁ではない。防衛産業・公共インフラ・医療情報システムなど、政府との接点を持つ企業がAnthropicのAPIを活用しようとすれば、利用規約の解釈をめぐる確認作業が必要になるケースが出てくる可能性がある。
一方でAnthropicの除外は、必ずしも同社の「負け」を意味しない。安全性重視の姿勢は欧州規制当局や消費者団体からの信頼につながり、規制が厳格化するほどブランド価値が上がるという見方もある。OpenAIが利用規約を変えて軍に近づいたことで失ったもの——倫理的な企業というイメージ——をAnthropicは守り続けているともいえる。
AIガバナンスの複雑さについては、設計図のない方の未来でも論じているとおり、AI開発の方向性をどう設計するかという問いは、企業の存続そのものと直結している。
今後の焦点——Anthropicは方針を変えるか
Anthropicには現在、GoogleとAmazonという二大クラウド企業が出資している。Amazonは今回の8社契約にAWSとして名を連ねており、出資先であるAnthropicが政府契約から外れているという捻れた状況が生じている。
この構造的な矛盾が続けば、Anthropicが軍事・安全保障領域への方針を緩和するよう、出資者から圧力がかかる可能性は否定できない。あるいは逆に、民間・医療・教育領域に特化することで差別化を図るという戦略を選ぶかもしれない。いずれにせよ、次の1〜2年でAnthropicの方向性が明確になるはずだ。
AI企業が「何をしないか」を競争優位にできるかどうか——その答えを、Anthropicは今まさに試されている。
まとめ
ペンタゴンの8社契約は、AIベンダー選定において「企業の倫理的スタンス」が実質的な参入障壁になる時代を象徴する出来事だ。Anthropicを採用・検討している企業は、同社の利用規約と自社の事業領域との整合性を改めて確認しておくことが、今後の調達判断における第一歩になる。





