OpenAIのモデルが長らくMicrosoft Azureの専売品であった時代が終わった。TechCrunchの報道によると、2026年4月28日にOpenAIとAmazon Web Servicesが戦略的パートナーシップを発表し、GPT-5.5およびGPT-5.4がAmazon Bedrockのプレビュー環境で利用可能になった。AI業界の構造を大きく塗り替える提携だ。
何が使えるようになったのか
Amazon Bedrockは、AWSが提供するフルマネージド型の基盤モデルサービスだ。今回の提携により、企業開発者はBedrock経由でGPT-5.5とGPT-5.4を呼び出せるようになった。さらにOpenAIのコーディングエージェント「Codex」もBedrockに統合され、VS CodeおよびCLI(コマンドラインインターフェース)から直接利用できる。
注目すべきはセキュリティ統合の深さだ。Bedrockを通じてOpenAIモデルを呼び出す場合、IAM(Identity and Access Management)によるアクセス制御、PrivateLink(VPC内のプライベート通信)、CloudTrail(API呼び出し監査ログ)といったAWSの企業向けセキュリティ機能がそのまま適用される。これはAzure上のOpenAIサービスが提供していたガバナンス機能に匹敵する水準であり、「OpenAIを使いたいがAzureは嫌だ」というGCP・AWS既存ユーザーの最大の障壁を取り除く。
Azureとの独占契約終了が転換点
背景にあるのはMicrosoftとOpenAIの関係変化だ。2019年に始まりその後100億ドル規模に膨らんだMicrosoft-OpenAI提携は、クラウド展開においてAzureを優先パートナーとする条項を含んでいた。その独占的な条件が緩和されたことで、OpenAIは他クラウドとの直接契約を結べるようになった。
AWSはこのタイミングを逃さなかった。Amazon BedrockはすでにAnthropic(Claude)、Meta(Llama)、Mistral、Stability AIなどの主要モデルを揃えており、OpenAIモデルの追加は「マルチモデルのハブ」としての地位を決定的なものにする。企業がモデルを切り替えながら使うマルチモデル戦略において、Bedrockの優位性はさらに高まる。
Stateful Runtime Environmentという技術的賭け
今回の提携にはモデル展開にとどまらない技術協力も含まれる。OpenAIとAWSは「Stateful Runtime Environment」の共同開発を進めているとされる。これはAIエージェントが長時間にわたる複雑なタスクを実行する際に、処理の途中状態(ステート)を保持し続けるインフラ環境だ。現状のLLM呼び出しはステートレス(各リクエストが独立)が基本だが、エージェント型AIが現実の業務に入り込むには、複数ステップをまたいだ記憶と文脈の維持が不可欠になる。
Amazon Bedrock Managed Agentsも同時に発表された。こちらはAWS上でAIエージェントのオーケストレーション(複数エージェントの連携・調整)を管理するフレームワークで、OpenAIのエージェントと組み合わせることで、企業がAWS既存システムとAIエージェントを統合しやすくする狙いがある。
企業システムの導入障壁が下がる
この提携がビジネスパーソンにとって最も直接的な影響をもたらすのは、企業IT部門のAI導入判断においてだ。これまで「OpenAIを使いたいがAzureに移行するコストが払えない」という企業は、既存のAWS環境を活かしながらGPT-5.5を試せるようになった。IAM・PrivateLinkによるセキュリティ統合は、金融・医療・製造など規制業種での導入承認を格段に取りやすくする。
競争は「Azureだけ」から「AWS・GCP・Azure」の三社横断へ移った。企業は今後、コスト・レイテンシ・コンプライアンス要件に応じてOpenAIモデルの実行基盤を選べるようになる。これはOpenAIにとってもリーチの拡大を意味し、API収益の多様化に直結する。





