企業がAIを導入するほど、サイバー攻撃者に渡す「侵入口」が増える——MIT Technology Reviewが2026年5月に報じた分析が、セキュリティ業界に重い問いを投げかけている。AIエージェントが社内システムの深部まで権限を持つようになった今、従来型の防御策はその前提条件ごと崩れ始めている。問題は技術の欠陥ではなく、AI時代に対応していない「守り方の設計」そのものにある。
AIが広げた「攻撃面」とは何か
サイバーセキュリティの世界では、攻撃者が狙える経路や脆弱点の総体を「アタックサーフェス(攻撃面)」と呼ぶ。ネットワークにつながる端末が増えるほど、外部に公開するAPIが増えるほど、この面積は広がる。
AIの導入は、この攻撃面を質・量ともに変えた。AIエージェントはメールを読み、カレンダーを操作し、社内データベースに問い合わせ、外部サービスと連携する。人間の従業員と同等かそれ以上の「権限」を持ちながら、24時間自律的に動く存在だ。MIT Technology Reviewの報告によると、こうしたエージェントが組み込まれたシステムは、攻撃者にとって「人間を騙すより、AIを騙す方が早い」標的になりつつあるとされる。
特に問題視されているのが「プロンプトインジェクション」と呼ばれる攻撃手法だ。悪意ある指示をデータやメール本文に埋め込み、AIエージェントに意図しない行動を取らせる。人間なら怪しいと気づくような指示でも、AIはテキストとして忠実に処理してしまう場合がある。AIが広げた穴を、AIで塞げるかという問いは、すでに現場レベルの課題として浮上している。
従来型セキュリティの前提が崩れた
これまでのサイバーセキュリティは「境界防御」を基本にしてきた。社内ネットワークと外部の間に壁を築き、不正な侵入を弾く。ファイアウォール、VPN、多要素認証——これらはすべて「外と内を分ける」発想に基づく。
しかしAIエージェントはその境界を、業務として日常的に越える。外部APIを呼び出し、クラウド上のデータを処理し、複数システムをまたいで動く。「境界の外側にいるものは信用しない」というルールが、AIによって形骸化しつつある。
加えて、AIが生成するコードやコンテンツ自体がリスクになるケースも報告されている。AIが書いたコードに脆弱性が含まれていても、レビューが追いつかない——AIが書いたコードで、人間が消えたという現象と表裏一体の問題だ。開発速度は上がるが、セキュリティ確認に割く人員は減っている。
攻撃側もAIを使っている
防御側だけがAIを活用しているわけではない。MIT Technology Reviewの報告は、攻撃者側もAIを使ってフィッシングメールの精度を上げ、脆弱性の探索を自動化し、マルウェアのコードを生成していると指摘する。
以前のフィッシングメールは、日本語の不自然さや送信元アドレスの違和感で見破れることが多かった。今は生成AIが自然な文章を大量生成できる。取引先を装ったメール、上司の文体を模したメッセージ——こうした「見分けがつかない偽物」が、一般のビジネスパーソンの受信箱に届くようになっている。騙された男と、盗んだ男の構図が、AIによって量産されている。
特に危険なのは、攻撃の「敷居」が下がったことだ。高度な技術知識がなくても、AIに攻撃コードの生成を手伝わせることができる。セキュリティ専門家が「スキルド・アタッカー(熟練した攻撃者)」の脅威を語っていた時代は終わり、今は「AI武装した素人」も脅威になっている。
ビジネスパーソンへの直接的な影響
「サイバーセキュリティは専門家の問題」という認識は、もはや通用しない。AIツールを業務に使うすべてのビジネスパーソンが、新しいリスクの当事者になっている。
具体的に何が変わるか。まず、業務で使うAIツールへのデータ入力が、そのまま情報漏洩リスクになりうる。顧客情報や社内の機密データをAIに貼り付けてプロンプトを送る行為は、そのデータがどこに保存・学習されるかを把握していなければ、管理外の流出につながる。
次に、AIが自動化した業務プロセスそのものが攻撃経路になる。たとえば「受信メールを自動分類して対応するAIエージェント」があるとすると、そのエージェントが悪意あるメールの指示を「業務指示」と誤解して実行するリスクがある。自動化の便利さとリスクは、同じコインの表裏だ。
MIT Technology Reviewは、企業がAIを導入する際に「セキュリティの設計を後回しにしている」と指摘する。コスト削減・業務効率化の圧力が強い中で、リスク評価が追いついていないのが現状だとされる。
規制と責任——誰が「塞ぐ」のか
技術的な問題は、技術だけでは解決しない。MIT Technology Reviewの報告が問いかける核心は、責任の所在だ。AIツールのベンダーか、導入した企業か、利用した個人か——セキュリティ上のインシデントが起きたとき、誰が責任を取るのかが曖昧なままになっている。
EUのAI法(EU AI Act)は、高リスクAIシステムに対してセキュリティ要件を課す方向を定めているが、AIエージェントが引き起こすサイバーリスクへの具体的な対応はまだ発展途上とされる。米国でも、NIST(米国国立標準技術研究所)がAIリスク管理フレームワークを整備しているが、企業の自主的な対応に依存する部分が大きい。
日本でも経済産業省や総務省がAIガバナンスの指針を出しているが、法的拘束力のある規制の整備は遅れている。結果として、セキュリティ投資の判断は各企業に委ねられており、リソースの少ない中小企業ほどリスクにさらされやすい構造がある。
「AIが広げた穴を、誰かが塞いでくれる」という期待は幻想だ。ベンダーはツールを売り、規制当局は指針を出す。しかし最終的に、自社のシステムとデータを守る責任は、AIを導入した組織自身にある。
今、企業が取れる具体的な対策
完全な防御は存在しない。それでも、リスクを最小化するための実践的なアプローチはある。MIT Technology Reviewの報告が示唆する方向をまとめると、以下のような考え方になる。
まず「最小権限の原則」をAIエージェントにも適用することだ。人間の従業員でも、業務に必要な最小限の権限しか与えないのがセキュリティの基本だ。AIエージェントも同様に、必要以上のシステムアクセスを持たせない設計が求められる。
次に、AIが行った操作のログを記録・監視することだ。何のデータにアクセスし、何を実行したか——人間の目が届く監査の仕組みがないと、インシデントが起きても原因追跡ができない。
そして、社員教育をアップデートすることだ。AIが生成したフィッシングメールの見分け方、社内のAIツールへのデータ入力ルール——これらを「ITの話」として専門部署に任せるのではなく、全社的なリテラシーとして底上げする必要がある。
まとめ
AIはビジネスの速度を上げると同時に、守るべき場所を増やした。技術の恩恵を受け続けるために、セキュリティを「後から考えるもの」ではなく「AI導入と同時に設計するもの」として位置づけることが、今すべての組織に求められている。





