PRO 中級

AIエージェントを信用するな(このコースを受けるまでは)

すべてのAIエージェントユーザーに必要なセキュリティコース。脅威モデリング、Docker分離、権限境界、スキル審査、監視、プロンプトインジェクション防御を実際のCVEと攻撃データで学ぶ。

8 レッスン
2.5時間
修了証付き

学べること

  • 実際のCVEとセキュリティ研究データを使い、AIエージェントを標的とする攻撃ベクトルを特定する
  • OWASP Top 10 for Agentic Applicationsを適用し、AIエージェント展開の脅威モデルを構築する
  • 最も一般的なエージェント攻撃をブロックする5つのハードニングフラグでDocker分離を実装する
  • 最小権限、スコープ付きトークン、認証情報分離を用いた権限境界を設計する
  • 5ポイント審査フレームワークでサードパーティスキルをインストール前に評価する
  • 認証情報漏洩、不正ツール呼び出し、異常なエージェント動作を検出する監視体制を構築する
  • プロンプトインジェクションが85%以上の防御に成功する理由を理解し、多層的緩和策を適用する
  • エージェント権限、インシデント対応、週次レビューをカバーする個人セキュリティポリシーを作成する

カリキュラム

前提条件

  • AIエージェント(チャットボット、コーディングアシスタント、OpenClaw/Claude Codeなどのツール)の基本的な使用経験
  • ターミナル操作に慣れていること(コマンドラインの基礎)
  • セキュリティの専門知識は不要——すべてゼロから教えます

関連スキル

よくある質問

セキュリティの専門知識が必要ですか?

いいえ。このコースは実例を使ってセキュリティ概念をゼロから教えます。ターミナルを使えてAIエージェントを触ったことがあれば準備万端です。

OpenClawだけの話ですか?

OpenClawはセキュリティ研究が最も多いため主要なケーススタディとして使いますが、脅威モデリング、分離、権限管理、監視のすべての原則はClaude Code、Cursor、Windsurf、その他すべてのAIエージェントに適用できます。

AIエージェントのハッキングを学ぶコースですか?

これは防御的セキュリティコースです。攻撃を防ぐために攻撃の仕組みを学びます。セキュリティ研究者の実際の攻撃データを扱いますが、攻撃ツールは扱いません。

すでにDockerを使っています。レッスン3は必要ですか?

おそらく必要です。AIエージェントコンテナには特定のハードニングフラグ(--cap-drop=ALL、--read-only、非rootユーザー)が必要で、ほとんどのDockerチュートリアルではカバーされていません。レッスン3はエージェント固有の分離に焦点を当てています。

今すぐ学習開始