「人類のために」→「ペンタゴンのために」──OpenAI、嘘の10年

OpenAIは「人類のためのオープンなAI」を約束した。10年後、そのモデルは米軍の機密ネットワークに。サム・アルトマンが破った約束を、証拠つきで振り返る。

2月27日(金曜夜)、サム・アルトマンがXに投稿した。OpenAIが米国防総省と契約した、と。自社のAIモデルが軍の機密ネットワークに載る。

しかもアルトマン、国防総省を「戦争省(Department of War)」と呼んだんですよね。「国防省」じゃなくて。まるで自慢するみたいに。

その数時間前、Anthropic(アンソロピック)がトランプ政権にブラックリスト入りされた。理由は、自律型兵器と大規模監視にAIを使わせることを拒否したから。

Anthropicが「ノー」と言った。罰を受けた。OpenAIがその契約を拾い上げた。

ちなみに、メールの下書きや企画のブレストで使ってるあのチャットボット。あれと同じ技術が、いま「誰を殺し、誰を生かすか」を決めるシステムに接続されようとしてる。そして、それを作った男は10年間ずっと「こんなことは絶対にしない」と言い続けてきたんです。


日本のお金が流れている先

ここで、ちょっと立ち止まって考えたいことがある。

この話、「アメリカの出来事だから関係ない」って思いました? 実は、めっちゃ関係あるんですよね。

ソフトバンクグループはOpenAIに累計646億ドル(約9.7兆円)を投資している。2025年に400億ドル、さらに2026年2月27日——そう、ペンタゴン契約と同じ日——に300億ドルの追加出資を発表した。OpenAI株の約13%を握る最大級の株主です。

しかも「SB OAI Japan」っていう合弁会社まで作っている。OpenAIの法人向けプラットフォーム「Frontier」を使った「クリスタル・インテリジェンス」を、2026年中に日本企業向けに展開する計画です。

つまり、日本の企業がこれから使おうとしているAI基盤は、ペンタゴンの機密ネットワークにも載っている同じ技術。そして、その開発資金の大部分を出しているのは日本のお金。

孫正義さんがASI(人工超知能)のビジョンを掲げて巨額投資を続けるのは自由だけど、その投資先が軍事利用にゴーサインを出したとき、投資家として何も言わないのかな、と。個人的にはすごく気になります。


「機密ネットワーク」って何をするところ?

「ペンタゴンとの契約」と聞くと、ちょっと遠い話に感じるかもしれない。だから具体的に書きます。

機密軍事ネットワークが処理するのは、情報データ。標的の識別。脅威の評価。通信の傍受。つまり、現代の戦争と監視のインフラそのものです。

アルトマンが「OpenAIのモデルを機密ネットワークに展開する」と言ったのは、ChatGPTの中核技術を、米軍が人を見つけ、追跡し、対処を決めるシステムに組み込むということ。

アルトマンは、この契約には「国内の大規模監視の禁止」と「自律型兵器への使用禁止」が含まれていると主張しています。ペンタゴンは「安全性を深く尊重した」とも。

ただ、ここで引っかかることがある。Anthropicもまったく同じ制限を求めたんです。ペンタゴンはそれを拒否した。ピート・ヘグセス国防長官は、その制限を「哲学的で、ウォーク(woke)だ」と切り捨てた。そしてAnthropicを「サプライチェーン上の安全保障リスク」に指定した——普通、ファーウェイみたいな中国企業に使う分類ですよ。

同じガードレールを、Anthropicが出したら拒否。OpenAIが出したら受け入れ。同じ条件、違う会社。

なんか、おかしくないですか。


「軍事AIがどうなるか」はもう見えている

想像する必要なんてない。もう起きてるんです。

ガザの「ラベンダー」

イスラエル国防軍は、ガザで「ラベンダー(Lavender)」というAIシステムを使った。電話記録、SNSの人間関係、行動パターンといった大量の監視データを処理して、最大37,000人のパレスチナ人を標的候補としてマークした。

もうひとつの「Where’s Daddy?(パパはどこ?)」というシステムは、マークされた人の携帯電話の位置情報を追跡して、その人が自宅に帰ったタイミングで通知を送った。家族と一緒にいるタイミングで。

人間による1件あたりの確認時間は約20秒。名前をチェックするのがやっと。アルゴリズムの判断を疑う余裕なんてない。

このシステムには既知の10%の誤認率があった。37,000人のうち約3,700人が誤って標的にされた計算になる——警察官、援助活動家、たまたま同じ名前の人。国連の専門家は、AI標的選定が多用された最初の6週間だけで15,000人以上の民間人が死亡したと報告している。

SFじゃない。もう起きたこと。しかも、いまOpenAIが機密ネットワークに載せようとしているモデルより、はるかに「バカ」なAIで。

リビアの前例

2020年3月、トルコ製のKargu-2ドローンがリビアで人間を自律的に追跡・攻撃した。操作者とのデータ接続なしに。国連安保理の報告書はこれを「fire, forget and find(撃て、忘れろ、見つけろ)」能力と呼んだ。ドローンが自分で標的を選んだんです。

2020年の技術ですよ。GPT-4以降と比べたら原始的もいいところ。

スケールの問題

DARPAは現在、250機の自律型致死ドローンの群れを研究中。インドは1,000機規模を目指している。国連事務総長は2026年までに自律型兵器を禁止する法的拘束力のある条約を求めている。

そこに、世界最強クラスの言語モデルを載せてみてください。情報報告書を処理し、データベースを横断検索し、何百万ものデータポイントからパターンを見つけ、行動推奨を生成できるモデルを。

それが、いま機密ネットワークに載ろうとしているもの。


憲法9条の国で、これをどう考えるか

ここからは、日本に住んでいるからこそ考えたいこと。

日本は「人間の関与が及ばない完全自律型の致死性兵器の開発を行う意図はない」と国際社会に表明してきた。憲法9条の平和主義を掲げ、自律型兵器の国際規制を支持する立場です。

防衛省は2024年7月に「AI活用推進基本方針」を出しているけど、自律型兵器とは距離を置き、情報分析やサイバー防衛、ロジスティクスが中心。日本学術会議は1950年から「戦争を目的とする科学の研究には絶対従わない」と宣言してきた歴史がある。

でも、ですよ。

その日本の代表的企業であるソフトバンクが、ペンタゴン向けAIを作っている会社の最大株主。合弁会社まで作って、同じ技術を日本企業に展開しようとしている。

外務省は「AIと自律性の責任ある軍事利用に関する政治宣言」に参加して、「人間の指揮命令系統の下で」運用することを求めている。国連でもLAWSの規制に前向きな立場を取っている。

その一方で、日米安全保障条約で米軍と深く結びついた同盟国として、アメリカの軍事AIインフラから完全に距離を取ることは現実的に難しい。

この矛盾を、正面から議論している政治家やメディアが、どれくらいいるだろう。個人的にはほとんど見かけたことがない。


誰も言わない「この先」の話

ペンタゴン契約は終点じゃない。出発点なんです。そして、この先に見えるものがかなり怖い。

監視の工業化

AIは監視を「可能にする」だけじゃない。自動にする

いまの監視には人間が必要。アナリストが傍受した通信を読み、カメラ映像をチェックし、データ間の点をつなぐ。時間もコストもかかる。実はこの「面倒くささ」がブレーキになっていて、政府がすべての国民を24時間監視することを防いでいる。

AIはそのブレーキを外す。

AnthropicのCEOダリオ・アモデイが、自社がレッドラインを引いた理由をこう説明した。AIを使えば、政府は*「散在する、個別には無害なデータを、あらゆる個人の生活を包括的に描写するプロファイルへと、自動的に大規模に組み上げることができる」*と。

位置情報。購買履歴。SNSのつながり。メールのメタデータ。ひとつひとつは何でもないもの。でもAIモデルはそれをつなぎ合わせて、あなたが誰で、どこに行き、誰と話し、何を信じているかの完全なプロファイルを組み立てられる。

しかも、全員分を同時に。疲れもせず、疑問も持たず。

アルトマンは「国内の大規模監視は禁止」と言っている。でも「国内」の定義ってどこまで? 海外在住の米国市民は? 国境をまたぐ通信は? 米国のサーバーにある外国人のデータは?

そして誰が禁止を監視するのか。OpenAIはセキュリティクリアランスを持つ社員を配置して使用状況を見ると言っている。一握りの民間企業社員が、世界最大の軍が機密ネットワーク——定義上、外部の誰にも見えない場所——で自社の技術をどう使っているかを監視する。

正直なところ、このガバナンス構造で安心できる人がいたら、逆にすごいと思う。

自律的キルチェーン

「武力行使における人間の責任」って、実際にはこういうこと。どこかの人間が「承認」をクリックする。

でも、AIがすでに標的を識別し、脅威スコアを計算し、対応を推奨し、兵器を選択した段階で、人間が「決定」しているって言えるのか? 人間はAIの決定にゴム印を押しているだけ。ガザの20秒レビューとまったく同じ構造です。

ブルッキングス研究所のトーマス・ライトはこう述べた。「これらのシステムが準備できる前に無条件のアクセスを要求することは、権威の主張ではない。未知のリスクが問題にならないことへの賭けだ」と。

未知のリスクというのは具体的にこういうこと。GPTレベルのモデルは、ドローンの映像から戦闘員と民間人を確実に見分けられるのか? 情報分析で文化的コンテキストを理解できるのか? 武器のように見えるものを持っている人が、実は農具を持っている可能性を考慮できるのか?

いまの時点では、答えは「ノー」。Anthropic自身が、自社のモデルは*「完全自律型兵器に使用するには十分な信頼性がない」と認め、「現在のモデルをこのように使用することは、アメリカの軍人と民間人を危険にさらす」*と警告した

これがAnthropicの主張。ペンタゴンはそれを「ウォーク」と呼んだ。

「当たり前」になっていく問題

この契約で一番怖いのは、契約そのものじゃない。その次に何が来るか

一度AIが機密ネットワークに載れば、それはインフラになる。ワークフローに組み込まれ、みんながそれに依存し始める。そして今日あるガードレール? 交渉可能になっていく。次の契約更新は公の場では起きない。機密の壁の向こう側で、ペンタゴンとOpenAI以外の誰にも見えないところで行われる。

今日:「大規模監視なし、自律型兵器なし」

来年:「限定的なシナリオでの自律的ターゲティング」

再来年:「進化する脅威環境に合わせた拡大使用」

こうやって制度的なクリープは進む。大きな劇的な飛躍じゃなく、もともと曖昧な言葉の小さな再定義の積み重ねで。


約束と現実——証拠つき年表

サム・アルトマンは、その場その場で「ちょうどいいこと」を言う天才です。何を言って、実際に何が起きたかを並べてみます。

「オープンソース、人類のために」→ クローズド、営利目的に

2015年: OpenAIの設立憲章は、*「金銭的リターンを生む必要性に縛られることなく、人類全体に最も利益をもたらす方法でデジタル知性を前進させる」*と宣言した。研究は公開、コードは共有された。

2019年: OpenAIは100倍の投資家リターンを認める「上限付き営利」子会社を設立。マイクロソフトが10億ドルを投資した。「OpenAIファイル」調査で明らかになった2016-2017年の内部文書では、共同創設者のグレッグ・ブロックマンが*「非営利にコミットしているとは言えない。言いたくない」*と書いていた。

2025年: OpenAIは時価総額5,000億ドルの営利企業(PBC)へ転換完了。ソフトバンクが410億ドルを投資。

「株式は持っていない」→ 持ってた

2023年5月: アルトマンは米上院で証言した。「OpenAIの株式は持っていません。好きだからやっています」。

2024年12月: TechCrunchが、アルトマンがSequoiaファンドとのファンドを通じて間接的な株式を保有していたと報じた。

2024年9月: ロイターは、営利化がアルトマンに初めて株式を付与する設計だったと報道。しかし2025年10月の最終合意では株式は付与されなかった — だが上院証言は、ずっと保有していた間接持分によって既に矛盾していた。

「強い規制が必要」→ 規制は行き過ぎ

2023年5月: アルトマンは議会で*「ますます強力になるモデルのリスクを軽減するには、規制介入が不可欠」*と述べた。

2025年5月: 同じ男、同じ上院。テッド・クルーズ上院議員と「過剰規制」こそが本当の危険だと同意。

「計算資源の20%を安全性に」→ 安全チームは解散

2023年: OpenAIは長期AI安全研究のためにスーパーアラインメントチームに計算資源の20%を充てると約束した。

2024年5月: チームの両リーダーが辞任。ヤン・ライケは*「安全文化とプロセスが、派手な製品の後回しにされた」*と述べた。彼はAnthropicに移った。チームは解散。計算資源はChatGPTへ。その後、AGI Readinessチームも解散。2026年初頭にはMission Alignmentチームも。2年で安全チーム3つが消えた。

「NDAのことは知らなかった」→ 署名してた

2024年: OpenAIの株式没収NDAが公になったとき、アルトマンは謝罪して知らなかったと主張した。だがVoxが入手した2023年4月の法人設立文書には、アルトマンの署名があった。

安全研究者のダニエル・ココタイロは、会社の安全性の問題について自由に発言する権利を守るために、家族の純資産の85%に相当する株式を放棄した

「軍事利用禁止」→ ペンタゴンの機密ネットワーク

2024年1月10日まで: OpenAIの利用規約は明確に「軍事および戦争」用途を禁止していた。

2024年1月10日: その文言がひっそりと削除された。ブログ記事もアナウンスもなし。The Interceptが気づいた。

2025年11月: OpenAIはミッションステートメントから「safely(安全に)」という単語を削除した。旧:「安全に人類全体に利益をもたらす」。新:「人類全体に利益をもたらす」

2026年2月: ペンタゴンの機密ネットワークに全面展開。「ノー」と言った会社がブラックリスト入りされた数時間後に。

「Anthropicのレッドラインと同じ」→ Anthropicが断った契約にサイン

これが一番新しいやつ。アルトマンは社員向けメモで、OpenAIも同じ立場なら*「おおむねAnthropicのアプローチに従う」*と言った。

でも同じ立場にいないんですよね。Anthropicはブラックリスト入り。OpenAIは契約を持っている。相手が断った取引を受けておいて「同じ原則だ」と言うのは、ただの言葉でしかない。

GoogleとOpenAIの社員、数百人がAnthropicの実際の立場を支持する署名を行った。言葉だけじゃなく行動を、と。


パターンを見てほしい

アルトマンの発言実際にやったこと
「オープンソース、人類のために」時価総額5,000億ドルの営利企業
「株式は持っていない」ずっと間接保有していた
「強い規制が必要」2年後に「過剰規制」と発言
「計算資源の20%を安全性に」2年で安全チーム3つ解散
「NDAのことは知らなかった」文書に署名してた
「軍事利用禁止」禁止文言を削除→ペンタゴンと契約
「安全に人類のために」「安全に」をミッションから削除
「Anthropicと同じレッドライン」Anthropicが断った契約にサイン

公式記録に残っているだけで8回。すべて、都合が悪くなった瞬間に撤回された。

考え方が変わったんじゃない。パターンなんです。そしてパターンが示していることは明確で——サム・アルトマンが今日言っていることは、「いまこの瞬間に何が真実であってほしいか」から逆算すればわかる、ということ。


日本には別の道がある

ここまで暗い話ばかりしてしまったけど、実は希望もあるんですよね。

日本にはPreferred Networks(PFN)がいる。独自のAIチップ「MN-Core」を自社開発し、さくらインターネットやNICTと国産LLM「PLaMo」を共同開発している。NTTの「tsuzumi」、サイバーエージェントやELYZA、Sakana AIも日本語特化のLLMを作っている。

日本政府は2026年度から5年間で約1兆円を国産AI開発に投じる計画で、特に製造業×AIの「フィジカルAI」領域で独自のポジションを目指している。ChatGPTと同じ土俵で戦うんじゃなく、日本が強い分野で勝負しようというアプローチです。

つまり、「OpenAI一択」じゃない。選択肢はある。


あなたにできること

ペンタゴンの調達に影響を与えるのは難しいかもしれない。でも、無力じゃない。

使うAIは選べる。 ChatGPTだけが選択肢じゃないし、そもそもそうだったことは一度もない。Claude、Gemini、Copilot、Llama、Mistral——価値観も組織構造も軍事権力との関係も異なる企業が作ったモデルがある。複数使って、比べてみてください。足元でどんどん方針が変わる企業にロックインされる必要はない。

AIスキルはポータブル。 よくできたプロンプトは、ChatGPTでもClaudeでもGeminiでも動く。AIスキルをダウンロードして保存しておけば、それはあなたのもの。テキストファイルだから、どの会社のモデルで動かしても関係ない。プロバイダーがまた方針を変えても、スキルは使える。

「ノー」と言った人に注目してほしい。 金銭的インセンティブがすべて「イエス」を後押しする業界で、「ノー」と言う企業は自社の本当の価値観について何かを教えてくれている。マーケティングじゃなく、価値観を。Anthropicは2億ドルの契約を失い、連邦政府にブラックリスト入りされた。安全ガードレールを外すことを拒否したから。それはリアルなコストを伴っている。

ミッションステートメントの変更を追ってほしい。 プレスリリースじゃなく。ミッションから「安全に」という言葉を消して、同じ四半期に軍の機密ネットワークに技術を載せる企業。それは混合メッセージじゃない。明確なメッセージです。


夜、考えてしまうこと

この件で一番モヤモヤするのは、ここなんですよね。

技術そのもの——大規模言語モデル——はニュートラル。テキストを処理して、トークンを予測する。そのテキストがメールの下書きなのか情報ブリーフィングなのか、トークンがレシピなのか標的リストなのか、モデルは区別しない。

問題は、誰がコントロールしていて、どんなガードレールがあるのか。

いまのガードレールは:サム・アルトマンが安全制限があると言っている契約。それを監視するのはOpenAIの一握りの社員。場所は機密ネットワーク、つまり外部からの監査は定義上不可能。署名しているCEOは、過去10年で主要な約束をすべて破ってきた人物。

これが、「文章をうまく書くのを手伝ってくれるAIアシスタント」と「世界最大の軍の大規模監視データを処理するAIシステム」の間にあるガードレール。

もしそのガードレールが壊れたら? わからない。機密だから。

そして日本は、そのAIの最大の出資者であり、同盟国であり、これから同じ技術を企業に導入しようとしている国。

この問題について、もっと多くの人が声を上げるべきだと思います。少なくとも、知っておくべきだと。

長文になってしまいましたが、最後まで読んでいただきありがとうございました。


関連スキル