学べること
- 実際のCVEとセキュリティ研究データを使い、AIエージェントを標的とする攻撃ベクトルを特定する
- OWASP Top 10 for Agentic Applicationsを適用し、AIエージェント展開の脅威モデルを構築する
- 最も一般的なエージェント攻撃をブロックする5つのハードニングフラグでDocker分離を実装する
- 最小権限、スコープ付きトークン、認証情報分離を用いた権限境界を設計する
- 5ポイント審査フレームワークでサードパーティスキルをインストール前に評価する
- 認証情報漏洩、不正ツール呼び出し、異常なエージェント動作を検出する監視体制を構築する
- プロンプトインジェクションが85%以上の防御に成功する理由を理解し、多層的緩和策を適用する
- エージェント権限、インシデント対応、週次レビューをカバーする個人セキュリティポリシーを作成する
カリキュラム
前提条件
- AIエージェント(チャットボット、コーディングアシスタント、OpenClaw/Claude Codeなどのツール)の基本的な使用経験
- ターミナル操作に慣れていること(コマンドラインの基礎)
- セキュリティの専門知識は不要——すべてゼロから教えます
関連スキル
よくある質問
セキュリティの専門知識が必要ですか?
いいえ。このコースは実例を使ってセキュリティ概念をゼロから教えます。ターミナルを使えてAIエージェントを触ったことがあれば準備万端です。
OpenClawだけの話ですか?
OpenClawはセキュリティ研究が最も多いため主要なケーススタディとして使いますが、脅威モデリング、分離、権限管理、監視のすべての原則はClaude Code、Cursor、Windsurf、その他すべてのAIエージェントに適用できます。
AIエージェントのハッキングを学ぶコースですか?
これは防御的セキュリティコースです。攻撃を防ぐために攻撃の仕組みを学びます。セキュリティ研究者の実際の攻撃データを扱いますが、攻撃ツールは扱いません。
すでにDockerを使っています。レッスン3は必要ですか?
おそらく必要です。AIエージェントコンテナには特定のハードニングフラグ(--cap-drop=ALL、--read-only、非rootユーザー)が必要で、ほとんどのDockerチュートリアルではカバーされていません。レッスン3はエージェント固有の分離に焦点を当てています。