AIエージェントは便利です。ファイルを読み、コマンドを実行し、APIを呼び出し、コードを書いてくれる。しかし、その「何でもできる力」が攻撃者にとっても魅力的なターゲットになっています。IPAの情報セキュリティ白書でもAIシステムへの攻撃が年々増加していることが報告されており、JPCERT/CCはAI関連の脆弱性情報を継続的に公開しています。プロンプトインジェクション、認証情報の漏洩、不正なツール実行——これらは理論上の脅威ではなく、実際に起きているインシデントです。
このコースでは、OWASP Top 10 for Agentic Applicationsをベースに、AIエージェントの脅威モデリングからDocker分離、権限境界の設計、サードパーティスキルの審査、リアルタイム監視、プロンプトインジェクション防御までを体系的に学びます。実際のCVEと攻撃データを使い、「何が起きうるか」ではなく「何がすでに起きているか」から出発する実践的なセキュリティコースです。
このコースの対象者
AIエージェント(Claude Code、OpenClaw、Cursor、Copilotなど)を日常的に使っている開発者やパワーユーザー、チームにAIツールを導入する立場のエンジニアリングマネージャー、そしてセキュリティに不安を感じながらもどこから手をつけていいかわからない方に最適です。
学べること
- 実際のCVEとセキュリティ研究データを使い、AIエージェントを標的とする攻撃ベクトルを特定する
- OWASP Top 10 for Agentic Applicationsを適用し、AIエージェント展開の脅威モデルを構築する
- 最も一般的なエージェント攻撃をブロックする5つのハードニングフラグでDocker分離を実装する
- 最小権限、スコープ付きトークン、認証情報分離を用いた権限境界を設計する
- 5ポイント審査フレームワークでサードパーティスキルをインストール前に評価する
- 認証情報漏洩、不正ツール呼び出し、異常なエージェント動作を検出する監視体制を構築する
- プロンプトインジェクションが85%以上の防御に成功する理由を理解し、多層的緩和策を適用する
- エージェント権限、インシデント対応、週次レビューをカバーする個人セキュリティポリシーを作成する
カリキュラム
前提条件
- AIエージェント(チャットボット、コーディングアシスタント、OpenClaw/Claude Codeなどのツール)の基本的な使用経験
- ターミナル操作に慣れていること(コマンドラインの基礎)
- セキュリティの専門知識は不要——すべてゼロから教えます
よくある質問
セキュリティの専門知識が必要ですか?
いいえ。このコースは実例を使ってセキュリティ概念をゼロから教えます。ターミナルを使えてAIエージェントを触ったことがあれば準備万端です。
OpenClawだけの話ですか?
OpenClawはセキュリティ研究が最も多いため主要なケーススタディとして使いますが、脅威モデリング、分離、権限管理、監視のすべての原則はClaude Code、Cursor、Windsurf、その他すべてのAIエージェントに適用できます。
AIエージェントのハッキングを学ぶコースですか?
これは防御的セキュリティコースです。攻撃を防ぐために攻撃の仕組みを学びます。セキュリティ研究者の実際の攻撃データを扱いますが、攻撃ツールは扱いません。
すでにDockerを使っています。レッスン3は必要ですか?
おそらく必要です。AIエージェントコンテナには特定のハードニングフラグ(--cap-drop=ALL、--read-only、非rootユーザー)が必要で、ほとんどのDockerチュートリアルではカバーされていません。レッスン3はエージェント固有の分離に焦点を当てています。