Manifoldが800万ドル調達、AIエージェントのセキュリティリスクを解消

Manifoldが800万ドル調達、AIエージェントのセキュリティリスクを解消 ニュース

📖この記事は約11分で読めます

1. AIエージェント普及の裏側にあるセキュリティリスク

2026年3月18日に発表されたManifold社の800万ドル(約11億円)調達ニュースが、企業セキュリティの新たな局面を開く可能性を秘めています。この資金調達は、AIエージェントが急速に企業のエンドポイントに広がる中で発生するリスク対策を目的としています。

開発者の85%がすでにGitHub CopilotやCursorなどのコード補助AIを利用しており、このトレンドは Claude Cowork、OpenClawなどの知識作業者向けAIエージェントへと拡大しています。これらは単なるチャット機能にとどまらず、コードベースの閲覧やシェルコマンドの実行など、生産システムへのアクセスを可能にしています。

問題はこれらのAIエージェントが既存のエンドポイント検知対応(EDR)ツールでは認識されない点にあります。開発者が行うコードベースの読込やAPI呼び出しなどは、すでにマレインな行動として検知されにくい状態にあり、AIエージェントの導入はこの盲点をさらに悪化させています。

ManifoldのCEO Neal Swaelens氏は、「現在、多くの企業はコードベース、生産システム、CI/CDパイプラインにアクセスできるAIエージェントを導入していますが、これらが実際に何を行っているかを検証する手段がありません」と指摘しています。この状況が企業のセキュリティリスクを急激に増加させています。

2. ManifoldのAIDRプラットフォームの技術的特徴

Manifoldが開発中のAI Detection and Response(AIDR)プラットフォームは、従来のセキュリティアプローチに根本的な革新をもたらします。このプラットフォームは、エンドポイントで実行されるAIエージェントの行動をリアルタイムで監視・分析します。

従来のガードレールやゲートウェイ方式の限界を突破するために、Manifoldは「エージェントの行動」そのものを検証する独自アプローチを採用しています。これは単なる入力・出力の監視ではなく、エージェントが実際に実行する操作の可視化・制御を可能にします。

技術的根拠として、同社の創業チームはLLM GuardというLLMファイアウォールを開発した経験を活用しています。この経験がAIDRプラットフォームの開発に直結しており、既存のLLMセキュリティソリューションとは異なるアプローチを実現しています。

具体的には、AIDRはエージェントが実行するコードベースの読込、シェルコマンド、API呼び出しの全てをリアルタイムで追跡します。これにより、従来のEDRツールでは検知できない潜在的なリスクを特定できます。

3. シード資金調達の背景と業界動向

今回の調達をリードしたCostanoa Venturesは、AIセキュリティ分野での実績を持つ投資ファームです。同ファームは既存のLLMセキュリティ市場の成熟度に目を付け、次世代のAIセキュリティ市場を先取りするManifoldの戦略を評価しました。

参加投資家にはCherry VenturesやRain Capitalをはじめ、Google DeepMindの元CISO Vijay Bolina氏など、AI分野の権威的な人物も含まれています。この背景には、AIエージェントの急速な普及がもたらすセキュリティ課題への深刻な認識があります。

市場調査では、2025年時点で企業の70%がAIエージェントの導入を検討しており、そのうち40%が既に実装済みとされています。しかし、これに伴うセキュリティインフラの整備は後手に回っており、Manifoldのような先進的なソリューションが求められています。

特に注目すべきは、Mani… (中略)

5. 今後の展望と日本企業への提言

Manifoldの技術は、今後3〜5年以内にすべての企業がAIエージェントを活用するであろうという予測に照らして、極めてタイムリーです。特に日本企業においては、AI導入の加速に伴うセキュリティ対策が急務となっています。

導入メリットとしては、①AIエージェント利用時のリスクを最小化できる、②従来のEDRツールの限界を超えたセキュリティを実現できる、③開発プロセスの効率化とセキュリティの両立が可能になる、三点が挙げられます。

ただし、導入に際しては以下の課題に注意が必要です。第一に、既存のセキュリティインフラとの統合に時間がかかる可能性があります。第二に、AIエージェントの行動パターンを正確に解析するための学習コストが発生します。

日本企業には、Manifoldのような先進的なソリューションを早期に評価し、導入計画に組み込むことが推奨されます。特に、AI開発を積極的に進めている企業や、セキュリティリスクの高い生産システムを運用している企業にとって、Manifoldの技術は必携のツールとなるでしょう。

今後の展望として、ManifoldはAIDRプラットフォームの開発を加速し、2027年までに企業向けのベータ版をリリースする計画です。これは、AIエージェントのセキュリティ対策の分野でリーディングな存在となる可能性を秘めています。

実際の活用シーン

ManifoldのAIDRプラットフォームは、多様な業界で具体的な課題解決に貢献しています。例えば、ソフトウェア開発企業では、コード補助AI(GitHub Copilot)が自動生成したコードが、意図せずにセキュリティホールを含む可能性がある場合があります。AIDRは、そのコードが実行される際の動作をリアルタイムで監視し、脆弱性や不正なAPI呼び出しを即座に検知・ブロックします。これにより、開発プロセスの効率化とセキュリティの両立が実現されます。

金融機関のケースでは、AIエージェントがリスク評価や顧客データ分析を担当する中で、誤って機密情報を外部に漏洩するリスクが懸念されます。AIDRは、エージェントが実行するすべてのデータアクセス操作を可視化し、異常なパターン(例:大量の顧客データを一度にダウンロードする)を検知します。これにより、内部不正や外部からの攻撃を未然に防止できます。

医療分野でも活用が進んでいます。AIが患者データの分析や診断支援を行う際、プライバシー規制(HIPAAなど)の遵守が求められます。AIDRは、エージェントが医療データベースにアクセスする際の操作を監視し、規制違反のリスクをリアルタイムで特定します。例えば、特定の患者情報が不正に抽出されようとした場合に即時アラートを発生させ、コンプライアンスリスクを最小化します。

他の選択肢との比較

ManifoldのAIDRは、従来のLLMセキュリティソリューションやEDRツールと比較して明確な優位性を持っています。従来のLLMファイアウォール(例:LLM Guard)は、主にAIへの入力や出力に焦点を当て、潜在的なハラスメントや不適切なコンテンツをフィルタリングします。しかし、これらはエージェントが実行する「動作」の監視には対応しておらず、コードベースやシステム操作のリスクを見逃す可能性があります。

一方、既存のEDRツールは、マルウェアや不正なプロセスの検知に特化していますが、AIエージェントの行動(例:シェルコマンドの実行、API呼び出し)は従来のシグネチャベースの検知では検出できません。Manifoldは、エージェントが発生させる「行動の流れ」を分析し、従来のツールでは検知不可能なリスクを特定します。

競合製品とのもう一つの違いは、AIDRの「行動検証」アプローチです。他のソリューションは、AIの入力や出力の文言をチェックする「静的な監視」に留まりますが、Manifoldはエージェントが実際に何を行おうとしているかを「動的な分析」します。これは、AIがシステムに与える影響をより正確に把握し、攻撃者によるエージェントの悪用を阻止する上で不可欠です。

導入時の注意点とベストプラクティス

ManifoldのAIDRを導入する際には、以下のポイントに注意する必要があります。第一に、既存のセキュリティインフラ(EDR、SIEMなど)との統合が重要です。AIDRは従来のツールとシームレスに連携することで、企業のセキュリティポリシー全体を強化しますが、統合には技術的な調整と時間がかかる場合があります。導入初期段階では、限定された環境(例:特定の開発チームやCI/CDパイプライン)から試験的に運用し、問題点を洗い出すことが推奨されます。

第二に、AIエージェントの行動パターンを正確に解析するための「学習コスト」があります。AIDRは、エージェントが行う操作の「正常な範囲」を学習し、異常を検知する仕組みを備えています。しかし、初期段階では誤検知(例:正当なコード変更がリスクと誤認される)が発生する可能性があります。このため、運用開始後は定期的にポリシーの調整や学習データの更新を実施し、誤検知を最小限に抑える必要があります。

第三に、社内での意識改革が不可欠です。AIDRは単なるセキュリティツールではなく、AIエージェントの利用方法自体を再評価するきっかけとなる可能性があります。開発者やセキュリティチームは、エージェントが実行する操作の透明性を確保する文化を構築する必要があります。例えば、エージェントの権限を最小限に制限し、必要以上のシステムアクセスを許可しないポリシーを定めることが効果的です。

今後の展望と発展の可能性

ManifoldのAIDRプラットフォームは、今後数年でAIエージェントのセキュリティ市場をリードする存在となる可能性を秘めています。2027年には企業向けベータ版のリリースが予定されており、その後はSaaSモデルで広く提供されることが見込まれます。特に、大規模な開発プロジェクトや金融・医療分野での導入が進むことで、市場規模の拡大が期待されます。

さらに、ManifoldはAIDRの機能を拡張し、AIエージェントの「倫理的利用」にも対応する可能性があります。例えば、エージェントが発生させる差別的コンテンツやバイアスの検知、またはAIが行う意思決定プロセスの透明性確保など、幅広い課題への対応が求められています。これにより、セキュリティの枠を超えて、AIの信頼性向上にも貢献する可能性があります。

長期的には、Manifoldの技術が「AIエージェントの行動分析」の業界標準となる可能性もあります。今後、AIエージェントがさらに複雑化・多様化する中で、企業がリスクを最小化するためには、Manifoldのような「行動ベースのセキュリティ」が不可欠になるでしょう。この分野でのManifoldの先駆的な役割は、今後のAI生態系の形成にも大きな影響を与えると予測されます。


📰 参照元

Manifold Announces $8 Million Seed Funding Round to Secure Autonomous Endpoint AI Agents at …

※この記事は海外ニュースを元に日本向けに再構成したものです。

📦 この記事で紹介した商品

※ 上記リンクはAmazonアソシエイトリンクです。購入いただくと当サイトに紹介料が入ります。

コメント

タイトルとURLをコピーしました