こんにちは!
最近、こんな投稿をSNSで見かけませんでしたか?
「AIが自動でメール返信してくれる」「Slackのまとめを勝手に作ってくれる」「自分のパソコンで動くから安全」
投稿主はたいてい大興奮で、スクリーンショット付き。便利そうに見えますよね。
そのアプリの名前は Moltbot(モルトボット)。GitHubで10万スターを1ヶ月で突破した、いま世界で最も注目されているAIアシスタントです。
ただ、先日セキュリティ研究者が衝撃的な事実を発見しました。1,800件以上のMoltbot環境がインターネット上に丸見えの状態で放置されていて、個人のメッセージやパスワードが誰でも閲覧できる状態だったのです。
これ、他人事じゃないかもしれません。
Moltbotって何?なぜみんなハマってるの?
まず簡単に説明すると、Moltbotは自分のパソコンにインストールして使う無料のAIアシスタントです。
特徴的なのは、メールやSlack、WhatsApp、Signalなど、普段使っているコミュニケーションツールに直接接続できること。チャットボットとは違って、24時間あなたの代わりに動いてくれる「AIエージェント」なんですよね。
たとえば、こんなことができます。
- 受信メールを自動で読んで返信の下書きを作成
- Slackの未読メッセージをまとめてくれる
- カレンダーの予定を管理
- ブラウザ操作を自動化
「自分のパソコンで動くからクラウドにデータが出ない。だから安心!」
…と、みんなそう思って使い始めるわけです。
でも実は、その「安心」が大きな落とし穴だったんです。
1,862件の「鍵のかかっていない家」
2026年1月25日、2人のセキュリティ研究者がインターネット上でMoltbotの管理画面を調査しました。
見つかったのは、パスワードなしで誰でもアクセスできる管理画面が約1,009件。
翌日、セキュリティ企業Knosticが追加調査をしたところ、その数は1,862件に増えていました。
少し想像してみてください。1,862人分のメール、Slackのやりとり、メッセージアプリの会話が、インターネット上で誰でも見られる状態だったということです。
しかも、これらの管理画面は「見るだけ」ではありませんでした。アクセスした人は以下のことが可能でした。
- AIが処理したすべてのプライベートな会話を読む
- 平文で保存されたAPIキーやパスワードを盗む
- 接続されたアプリを通じて本人になりすましてメッセージを送る
- ホストマシンでコマンドを実行する
ある事例では、暗号化メッセージアプリSignalのアカウントにフルアクセスできる状態で放置されていました。「エンドツーエンド暗号化で安全」のはずが、AIアシスタントが玄関のドアを開けっ放しにしていたわけです。
パスワードが「テキストファイル」に保存されている問題
ここからが、情報セキュリティの専門家が頭を抱えた部分です。
Moltbotは、メールやSlackに接続するためのパスワード・APIキー・認証トークンを、パソコン上のテキストファイルにそのまま保存しています。
暗号化なし。セキュアな保管庫なし。ただのテキストファイルです。
日本の会社で考えてみてください。社内のSlackトークン、業務メールのパスワード、Googleカレンダーのアクセス権限。これが全部、パソコンの中の1つのフォルダに平文で入っている状態です。
セキュリティ企業Hudson Rockによると、RedLineやLummaといった情報窃取マルウェア(パソコン内のパスワードを自動で盗むプログラム)が、Moltbotの保存フォルダを標的にし始めているとのこと。
ちなみに、日本では個人情報保護法の改正で、企業の情報漏洩に対する罰則が強化されています。もし社員が個人判断でMoltbotを業務端末にインストールして、ここから顧客情報が流出したら…考えただけでゾッとしますよね。
メール1通で突破された「5分間ハック」
Archestra AIのCEO、Matvey Kukuy氏がMoltbotの脆弱性を実証しました。
やったことはシンプルです。Moltbotに接続されたメールアドレスに、仕掛けを仕込んだメールを1通送っただけ。
メールの中に、人間の目には見えない隠しテキストが含まれていました。AIがそのメールを自動で読むと、隠された指示に従ってユーザーの秘密鍵を外部に送信してしまったのです。
所要時間、たったの5分。
ハッキングツールも専門知識も不要。必要だったのは「メールを書く力」だけです。
これは「プロンプトインジェクション」と呼ばれる攻撃手法で、OpenAIもAnthropicも「完全な解決は難しい」と認めている問題です。ただ、通常のAIアシスタントはブラウザの中で動くので被害は限定的。でもMoltbotはあなたのパソコンそのもので動いていて、メール・ファイル・メッセージアプリに直接アクセスできます。
もし職場で「AIがメールを自動で読んでくれるんだ」と嬉しそうに話している同僚がいたら、ちょっと心配した方がいいかもしれません。
審査なしの「スキルストア」に毒入りプラグイン
Moltbotには「MoltHub」というスキルマーケットプレイスがあります。コミュニティが作った追加機能をインストールできる仕組みで、経費管理やSNS自動投稿など、いろいろなスキルが公開されています。
セキュリティ研究者のJamieson O’Reilly氏が、このマーケットプレイスの安全性をテストしました。
悪意のあるスキルを作成し、MoltHubにアップロード。ダウンロード数を水増しして人気があるように見せかけたところ…
8時間以内に、7か国の16人の開発者がインストールしました。
このスキルが本当に悪意あるものだったら、16台のパソコンでファイルアクセス、データ窃取、バックドアのインストールが可能だったことになります。
さらにCiscoのセキュリティチームが別のスキル「What Would Elon Do?」を調査したところ、1つのスキルから9件のセキュリティ問題が見つかりました。そのうち2件は「重大」レベル。外部サーバーにデータを送信するコマンドがこっそり仕込まれていたんです。
スキルの公開前に誰もレビューしていない。セキュリティスキャンもない。審査なしのアプリストアです。
日本のApp StoreやGoogle Playの審査の厳しさを考えると、この状況がいかに異常かわかるんじゃないかなと思います。
偽のVS Code拡張機能にスパイウェア
2026年1月27日、セキュリティ企業Aikidoが「ClawdBot Agent」というVS Code拡張機能を発見しました。
見た目はプロフェッショナル。UIもきれい。実際に動作もする。7つのAIプロバイダーに接続できました。
ただし、裏でScreenConnectという遠隔操作ツールをこっそりインストールしていました。
VS Codeを起動するだけで自動的に動作開始。隠しファイルをダウンロードし、攻撃者のサーバーに接続。しかもScreenConnect自体は正規の署名がされているので、ウイルス対策ソフトにほぼ検知されません。
Moltbot公式はVS Code拡張機能を出していません。話題のツールに便乗した「なりすまし」です。Microsoftは削除しましたが、それまでの被害は不明です。
会社が把握していない「シャドーIT」の恐怖
ここからは、特に日本の会社員の方に読んでほしい内容です。
認証管理企業Token Securityが発表したデータによると、企業顧客の22%で、従業員がIT部門の承認なしにMoltbotを使用していることが判明しました。
情シス部門に申請せず、個人の判断で業務端末にインストール。会社のSlack、業務メール、Googleカレンダーに接続。セキュリティ審査なし。誰も知らない。
日本企業の情報セキュリティ管理の厳しさを考えると、これは相当まずい話です。
Ciscoのセキュリティチームはこの状況を「まさに悪夢」と表現しています。大げさではありません。Moltbotはファイルの読み書き、コマンド実行、スクリプトの実行ができます。企業システムに接続された状態で1台が侵害されれば、1人の情報漏洩では済まず、組織全体への侵入口になりかねません。
しかも、従来のエンドポイント監視やDLP(情報漏洩防止)ツールでは検知できません。AIエージェントがメッセージアプリ経由でデータを持ち出す、なんて想定は従来のセキュリティ設計にないんですよね。
日本では2022年の個人情報保護法改正以降、情報漏洩の報告義務が厳格化されています。もし従業員のMoltbot経由で顧客データが流出すれば、個人情報保護委員会への報告義務、最大1億円の罰金、そして何より企業の信用失墜という事態になりかねません。
国家安全保障コミュニティからの警告
2026年1月29日、Legion IntelligenceのCEO、Ben Van Roo氏がAIアシスタントに関する公開書簡を発表しました。
要点はこうです。個人のメール、メッセージアプリ、位置情報をMoltbotに接続すると、「たった1つの侵害ポイント」から全情報にアクセスできる状態を作ってしまう、と。
同氏が指摘した典型的な利用パターンが印象的でした。
「1日目にカレンダー、2日目にメール、3日目にメッセージ…8日目にはもう全部繋いでいる」
便利さが、長年のセキュリティ訓練を無力にしてしまう。
これは軍関係者に限った話ではありません。企業の機密情報を扱う方、取引先の個人情報を日常的に触る方にも、まったく同じリスクが当てはまります。
Moltbotは「悪い」ツールなのか?
正直に言うと、そう単純な話ではないと思います。
Moltbotの技術自体は素晴らしいものです。メッセージアプリ横断で動くAIエージェントを、自分のマシンで、無料で使える。このコンセプトは本当に魅力的ですし、1,862件の設定ミスについてはすでにパッチが公開されています。
ただ、問題は「この製品」だけじゃなくて「このパターン」なんですよね。
今後、同じようなツールはどんどん出てきます。メールに接続したい、メッセージを読みたい、ファイルにアクセスしたい。どれも「プライバシーを守る」と謳うでしょう。そしてそのセキュリティレベルは、設定する人のスキル次第になります。
ほとんどの人はセキュリティの専門家ではありません。ポート番号って何?ファイアウォールの設定?ソースコードのレビュー?普通の会社員にそこまで求めるのは無理があります。
でも、それが現実です。
いますぐやるべきこと
すでにMoltbotを使っている方へ:
- インターネットから直接アクセスできない設定になっているか確認する
- Dockerサンドボックスを有効にして、AIのシステムアクセスを制限する
~/.moltbot/フォルダを確認し、どんな認証情報が平文で保存されているかチェックする- スキルをインストールする前に、必ず内容を確認する
- APIキーをすべてローテーション(再発行)する
使ってみようと思っている方へ:
- セキュリティモデルが成熟するまで待つのが賢明です
- 業務用アカウントを個人のAIツールに絶対に接続しない
- 便利さと引き換えに何をリスクにさらすのか、立ち止まって考えてみてください
情シス・セキュリティ担当の方へ:
- 社内ネットワークでMoltbotインスタンスの有無を調査する(ポート18789)
- シャドーIT監視の対象にMoltbotを追加する
- 業務アカウントを個人AIツールに接続するリスクについて、社員への周知を検討する
本当に大切なこと
AIエージェントの時代は、準備ができていようがいまいが、やってきます。Moltbotは最初の大きな事例にすぎません。今後、スタートアップからも大手テック企業からも、同じようなツールが続々と登場するでしょう。
どのツールも同じジレンマを抱えています。AIエージェントにできることが増えるほど、侵害された場合の被害も大きくなる。接続するアカウントが増えるほど、標的としての価値が上がる。セットアップが簡単なほど、安全に設定される可能性が下がる。
不審なメールのリンクをクリックしない。これを学ぶのに何年もかかりました。
次に学ぶべきことは「AIエージェントにデジタルライフの鍵をまるごと渡さない」ということなのかもしれません。
AIを安全に活用するために
自前ホスティングのリスクなしにAIを活用したいなら、ブラウザで使えるスキルがおすすめです。インストール不要で、すぐに使えます。
- セキュリティレビューチェックリスト生成 – セットアップの脆弱性を監査
- Webアプリセキュリティ監査 – Webツールのセキュリティをチェック
- プロフェッショナルメール作成 – 攻撃対象を増やさずにAIでメール作成
- システムプロンプト設計師 – 安全でサンドボックス化されたAIワークフローを構築
その他のセキュリティスキルはこちらからどうぞ。
最後までお読みいただき、ありがとうございました。少しでも参考になれば嬉しいです。