"인류를 위해" → "펜타곤을 위해" — 샘 올트먼이 10년간 깨뜨린 약속들

OpenAI는 인류를 위한 오픈소스 AI를 약속했다. 10년 후, 그 모델은 펜타곤 기밀 네트워크에 올라갔다. 샘 올트먼이 깨뜨린 모든 약속, 증거 포함.

결론부터 말할게요.

금요일 밤, 샘 올트먼이 X에 글을 올렸어요. OpenAI가 펜타곤과 계약했다고. 자기네 AI 모델을 미군 기밀 네트워크에 올린다는 거예요.

근데 올트먼이 펜타곤을 뭐라고 불렀는지 아세요? “국방부(Department of Defense)“가 아니라 **“전쟁부(Department of War)”**라고요. 마치 자랑하듯이. 소름 돋았어요, 진짜.

그 몇 시간 전, Anthropic — OpenAI에서 안전 문제로 나온 사람들이 만든 회사 — 이 트럼프 행정부 블랙리스트에 올랐어요. 죄목이요? 자율 무기와 대규모 감시에 안전장치 없이 AI를 쓰겠다는 펜타곤 요구를 거부한 거예요.

Anthropic은 “아니요"라고 했어요. 벌 받았죠. OpenAI는 그 위를 밟고 지나가서 계약서에 사인했고요.

우리가 이메일 대필시키고 아이디어 정리하던 그 챗봇 있잖아요? 지금 그게 누가 사는지, 누가 죽는지 결정하는 시스템에 연결되고 있는 거예요. 이걸 만든 사람이 10년 동안 “절대 이런 일은 없을 것"이라고 맹세해왔는데요.


우리한테 왜 이게 중요하냐면

여기서 잠깐. “미국 얘기 아니야?“라고 생각하실 수 있어요.

근데요, 우리나라는 이미 자율 무기를 실전 배치한 나라예요.

DMZ에 있는 SGR-A1 아시죠? 삼성테크윈(지금 한화에어로스페이스)이 고려대랑 같이 만든 자율 초소 로봇이요. 열화상 카메라랑 패턴 인식으로 사람, 동물, 물체를 구분하고, 5.56mm 기관총까지 장착돼 있어요. 2010년부터 DMZ에 배치됐고, 주간 4km, 야간 2km까지 표적 식별이 가능하다고 해요.

공식적으로는 “사격 전 인간 승인 필요"라고 하는데, 미국 신(新)미국안보센터 연구원은 “자율 사격이 가능한 시스템을 갖추고 있다고 볼 만한 상당한 근거가 있다”고 주장했어요. 삼성테크윈은 부인했지만, 정확한 배치 수량은 기밀이에요.

2026년 현재, 한국군은 여기서 훨씬 더 나아갔거든요.

  • AI 기반 유무인 복합 전투 차량(K-CEV) — 2026년 2월 양평 훈련장에서 첫 실전 훈련 공개. 360도 AI 상황인식 장치가 피아 식별을 자동으로 해요
  • 자율 전투 드론 1,500기 양산 계획
  • 2027년 FA-50 전투기에 AI 파일럿 탑재 예정, 2030년 이후 완전 자율화 목표
  • 5G 기반 지능형 드론 군집 비행 체계 개발 중

우리가 OpenAI 펜타곤 계약을 남의 나라 얘기로 보면 안 되는 이유가 여기 있어요. 주한미군 28,500명이 이 땅에 있고, 제12차 한미 방위비분담 특별협정으로 우리가 2026년 1조 5,192억 원을 내고 있거든요. 미군이 쓰는 AI 시스템이 바뀌면, 한미 연합작전도 바뀌는 거예요.

이건 워싱턴 뉴스가 아니라 서울 뉴스예요.


“기밀 네트워크"가 실제로 뭘 하는 건지

“펜타곤 계약"이라고 하면 좀 뜬구름 잡는 느낌이잖아요. 기밀 군사 네트워크가 실제로 뭘 하는지 얘기해볼게요.

정보 데이터 처리해요. 표적 식별. 위협 평가. 통신 감청. 현대전이랑 감시를 돌리는 인프라가 바로 이 네트워크에 있어요.

올트먼이 “기밀 네트워크에 모델을 배치한다"고 할 때, 이게 뜻하는 건 ChatGPT 핵심 기술이 미군의 사람 찾기, 사람 추적, 그 사람한테 뭘 할지 결정하는 시스템에 꽂힌다는 거예요.

올트먼은 계약에 “국내 대규모 감시"와 “자율 무기 시스템” 금지 조항이 포함돼 있다고 했어요. 펜타곤이 “안전에 깊은 존중을 보여줬다"고요.

근데요. 여기서 이상한 점이 하나 있어요.

Anthropic이 똑같은 제한 조건을 요구했거든요. 펜타곤이 뭐라고 했냐면 — 안 된다고 했어요. 피트 헤그세스 국방장관은 그 제한 조건을 “철학적"이고 “워크(woke)“하다고 불렀어요. 그러고는 Anthropic을 국가안보 공급망 위험으로 지정했어요. 보통 화웨이 같은 중국 기업한테나 쓰는 조치를요.

같은 안전장치를 Anthropic이 제안하면 거부하고, OpenAI가 제안하면 수락.

뭔가 안 맞죠?


AI 군사 활용이 어떤 건지, 우리는 이미 봤어요

AI가 군사 표적 시스템에 들어가면 무슨 일이 벌어지는지 상상할 필요 없어요. 이미 일어났으니까요.

라벤더(Lavender) 시스템

가자에서 이스라엘 방위군이 “라벤더”라는 AI 시스템을 썼어요. 대규모 감시 데이터 — 전화 기록, 사회적 연결, 행동 패턴 — 를 처리해서 37,000명의 팔레스타인인을 잠재 표적으로 표시했어요.

두 번째 시스템 “아빠는 어디?(Where’s Daddy?)“는 표시된 개인을 휴대폰 위치로 추적하고, 표적이 집에 도착하면 운영자한테 알림을 보냈어요. 가족이랑 같이 있는 집에요.

각 표적에 대한 인간 검토 시간? 약 20초. 이름 확인하기엔 충분하지만, 알고리즘에 의문을 제기하기엔 턱없이 부족한 시간이죠.

시스템의 알려진 오류율은 10%였어요. 37,000명 중 약 3,700명이 잘못 식별됐을 가능성이 있다는 거예요 — 경찰관, 구호 활동가, 동명이인. UN 전문가들은 이 AI 시스템이 표적 선정에 집중 활용된 첫 6주 동안 15,000명 이상의 민간인이 사망했다고 보고했어요.

SF가 아니에요. 이미 일어난 일이에요. 그리고 그때 AI 시스템은 지금 OpenAI가 기밀 네트워크에 올리는 것보다 훨씬 덜 똑똑한 거였거든요.

리비아 사례

2020년 3월, 터키제 Kargu-2 드론이 리비아에서 인간 표적을 자율적으로 추적하고 공격했어요. 운영자랑 무기 사이에 어떤 데이터 연결도 없이요. UN 안보리 보고서는 이걸 “발사하고, 잊고, 찾는” 능력이라고 설명했어요.

드론이 스스로 표적을 선택한 거예요.

그게 2020년 기술이에요. GPT-4나 OpenAI가 지금 배치하는 것에 비하면 원시적인 수준이죠.

규모의 문제

미국 DARPA는 현재 250기 자율 치명 드론 군집 개발 중이에요. 인도는 1,000기 드론 군집을 원하고요. UN 사무총장은 2026년까지 자율 무기 금지 법적 구속력 있는 조약을 촉구했어요.

여기에 세계 최고 수준 언어 모델을 더해보세요. 정보 보고서를 처리하고, 데이터베이스를 교차 참조하고, 수백만 데이터 포인트에서 패턴 찾고, 행동 권고안을 생성할 수 있는 모델이요.

그게 지금 기밀 네트워크에 올라가는 거예요.


한국이 이미 걸어가고 있는 길

솔직히 말해야 할 게 있어요.

한국은 자율 무기 분야에서 관전자가 아니라 참여자거든요. 1997년에 이스라엘에서 Harpy 대레이더 무인항공기 100대를 구매했는데, 이 드론은 사전 프로그래밍된 지역에서 인간 개입 없이 표적을 탐지하고 공격할 수 있어요.

DMZ SGR-A1은 시작에 불과했어요.

근데 여기서 진짜 소름 끼치는 건 뭐냐면 — 2026년 1월부터 시행된 한국 AI 기본법이 국방 분야를 명시적으로 제외했다는 거예요. 시행령 제2조에서 국방부가 수행하는 지정 업무는 규제 대상에서 빠졌어요. 민간 AI는 투명성, 안전성, 영향 평가를 의무화하면서, 군사 AI는 사실상 규제 사각지대인 거죠.

한국일보가 “목숨 좌우할 AI 무기, 기술 계획만 있고 ‘윤리 로드맵’이 없다”고 보도한 게 있어요. 국방부 내부에 ‘AI 관련 데이터제도·윤리담당’이 신설됐는데, 담당자가 딱 1명이에요.

자율 드론 1,500기를 양산하겠다면서 윤리 담당은 1명이라니. 이 균형이 맞다고 보시나요?

그리고 한미동맹 구조가 바뀌고 있어요. 트럼프 2기 행정부의 2026 국방전략은 재래식 위협 방어를 한국이 주도하도록 역할을 재편했고, 주한미군은 ‘선택적 재배치’ 방향으로 가고 있거든요. 미군이 OpenAI 모델을 기밀 네트워크에서 쓰게 되면, 한미 연합작전의 AI 의존도가 올라가는 건 시간 문제예요.

참고로, 한국은 2024년 REAIM(군사 AI 책임있는 사용) 고위급회의를 네덜란드와 공동 주도했어요. 61개국이 ‘행동을 위한 청사진’에 합의한 자리였죠. 국제 무대에서는 리더십을 주장하면서 국내 군사 AI 규제는 사실상 공백 상태라니, 이거 아이러니 아닌가요?


아무도 안 하는 이야기 — 이 미래가 가져올 것들

펜타곤 계약은 끝이 아니에요. 출발선이에요. 그리고 결승선이 두렵네요.

대규모 감시의 산업화

AI는 감시를 가능하게만 하는 게 아니에요. 자동화해요.

지금은 감시에 사람이 필요하잖아요. 분석관이 통신 감청 내용 읽고, 카메라 영상 확인하고, 데이터 포인트 사이에서 연결고리를 찾아야 해요. 비용도 들고 느려요. 근데 사실 그 마찰이 정부가 모든 사람을 항상 감시하지 못하게 막는 일종의 안전장치였거든요.

AI가 그 마찰을 싹 없애버려요.

Anthropic CEO 다리오 아모데이가 자기 회사가 선을 그은 이유를 설명했어요. AI는 정부가 *“개인 미국인에 대해 흩어져 있고 개별적으로는 무해한 데이터를 자동으로, 대규모로 종합적인 삶의 그림으로 조립”*할 수 있게 한다고요.

휴대폰 위치 데이터. 구매 내역. 소셜 미디어 연결. 이메일 메타데이터. 각각은 아무것도 아니에요. 근데 AI 모델은 이걸 꿰매서 내가 누군지, 어디 가는지, 누구랑 얘기하는지, 뭘 믿는지 완전한 프로필로 만들 수 있어요.

그리고 이걸 모든 사람한테 동시에 할 수 있어요. 지치지도 않고 질문도 안 하면서.

TMI인데, 이거 한국에서 특히 무서운 이유가 있어요. 우리나라 인터넷 실명제, 공인인증서 체계, 카카오톡 사용률 93%… 개인 데이터가 이미 몇 개 플랫폼에 초집중돼 있잖아요. AI가 이 데이터를 교차 분석하기 시작하면, 한국만큼 감시하기 쉬운 나라도 드물 거예요. 솔직히 좀 오싹하죠.

올트먼은 계약이 “국내 대규모 감시"를 금지한다고 했어요. 근데 “국내"의 정의가 슬슬 흐려져요. 해외 거주 미국 시민은요? 국경을 넘는 통신은요? 미국 서버에 있는 외국인 데이터는요? 그리고 한국인 데이터는요?

누가 이 금지를 감시하냐고요? OpenAI가 보안 인가 받은 직원을 배치해서 사용을 모니터링한다고 해요. 회사 직원 몇 명이 미군 전체가 기밀 네트워크에서 자기네 기술을 어떻게 쓰는지 지켜본다고요 — 기밀 네트워크라서 외부인이 볼 수 없는 곳에서요.

이거 현실적으로 되는 건가요?

자율 킬 체인

“무력 사용에 대한 인간의 책임"이 실제로 뭘 뜻하는지 한번 생각해봐요. 루프 어딘가에 있는 인간이 “승인” 버튼을 누르는 거예요.

근데 AI가 이미 표적을 식별하고, 위협 점수 계산하고, 대응을 권고하고, 무기를 선택한 상태에서 그 승인이 어떻게 생겼을까요? 인간이 결정을 내리는 게 아니에요. AI 결정에 도장 찍는 거예요. 가자에서의 20초 검토랑 똑같이요.

브루킹스 연구소 토마스 라이트가 직설적으로 말했어요: “이 시스템이 준비되기 전에 무조건적 접근을 요구하는 것은 권위의 행사가 아니라, 미지의 것이 중요하지 않을 거라는 도박이다.”

미지의 것에는 이런 게 포함돼요. GPT 수준 모델이 드론 영상에서 전투원이랑 민간인을 신뢰성 있게 구별할 수 있을까? 정보 분석에서 문화적 맥락을 고려할 수 있을까? 무기처럼 보이는 걸 들고 있는 사람이 사실은 농기구를 들고 있을 수도 있다는 걸 이해할 수 있을까?

지금 기준 답은 아니에요. Anthropic도 인정했거든요. 자기네 모델이 “완전 자율 무기에 사용하기엔 충분히 신뢰할 수 없으며”, *“현재 모델을 이런 식으로 사용하면 미국의 전투원과 민간인을 위험에 빠뜨릴 것”*이라고요.

그게 Anthropic의 주장이었어요. 펜타곤은 그걸 “워크"하다고 불렀고요.

정상화 — 진짜 무서운 부분

이 계약에서 가장 위험한 건 계약 자체가 아니에요. 그 다음에 오는 것들이에요.

AI가 기밀 네트워크에 한번 올라가면 인프라가 돼요. 워크플로우에 녹아들고, 사람들이 의존하기 시작하죠. 오늘 존재하는 안전장치? 슬슬 협상 가능해져요. 다음 계약 갱신은 공개적으로 안 하거든요. 분류 장벽 뒤에서 일어나는데, 펜타곤이랑 OpenAI 외에는 아무도 뭐가 바뀌었는지 모르는 거예요.

오늘: “대규모 감시 없음, 자율 무기 없음.” 내년: “정의된 시나리오에서 제한적 자율 표적 지정.” 내후년: “진화하는 위협 환경에 맞춰 확대 사용.”

이게 제도적 점진주의가 작동하는 방식이에요. 큰 극적인 도약이 아니라, 원래부터 유연하게 들렸던 용어를 조금씩 재정의하면서요.

우리나라도 마찬가지예요. SGR-A1이 “사격 전 인간 승인 필요"로 시작했지만, AI 전투 차량은 이미 피아 식별을 “자동으로” 하고 있잖아요. 2027년 AI 파일럿, 2030년 완전 자율화… 이 궤적이 뭘 향하고 있는지 안 보이시나요?


모든 모순, 증거 포함

샘 올트먼은 적시적소에 맞는 말을 하는 데 정말 능숙해요. 뭐라고 했는지, 실제로 뭘 했는지 정리해볼게요.

“오픈소스, 인류를 위해” → 비공개, 이윤을 위해

2015년: OpenAI 설립 헌장은 *“재정적 수익 창출 필요에 구애받지 않고, 인류 전체에 가장 이로운 방향으로 디지털 지능을 발전시킨다”*고 약속했어요. 연구는 자유롭게 공개됐고, 코드도 공유했어요.

2019년: OpenAI가 투자자 100배 수익을 허용하는 “수익 제한” 자회사를 만들었어요. Microsoft가 10억 달러를 투자했고요. OpenAI Files 조사로 밝혀진 2016-2017년 내부 통신에서 공동 창업자 그렉 브록먼이 이렇게 썼어요: “비영리에 전념한다고 말할 수 없다. 전념한다고 말하고 싶지도 않다.”

2025년: OpenAI가 5,000억 달러 가치의 영리 공익법인으로 전환 완료. SoftBank가 410억 달러 투자.

“지분이 없다” → 사실 있었다

2023년 5월: 올트먼이 미국 상원에서 증언: “OpenAI에 지분이 없습니다. 이 일이 좋아서 합니다.”

2024년 12월: TechCrunch가 올트먼이 Sequoia 펀드와 Y Combinator 펀드를 통해 간접 지분을 보유하고 있었다고 보도.

2024년 9월: 로이터는 영리 전환이 올트먼에게 처음으로 지분을 부여하도록 설계되었다고 보도. 그러나 2025년 10월 최종 합의에서 지분은 받지 않았다 — 하지만 상원 증언은 줄곧 보유하고 있던 간접 지분으로 이미 거짓이었다.

대박이죠? 상원에서 “지분 없다"고 증언한 사람이요.

“강한 규제가 필요” → 규제는 과잉이다

2023년 5월: 올트먼이 의회에서 *“점점 강력해지는 모델의 위험을 완화하려면 규제 개입이 중요할 것”*이라고 말함.

2025년 5월: 같은 사람, 같은 상원. 테드 크루즈 상원의원이랑 “과잉 규제"가 진짜 위험이라는 데 동의함.

2년 만에 180도 회전이에요.

“컴퓨팅 20%를 안전에” → 안전팀 해산

2023년: OpenAI가 장기 AI 안전 연구를 위해 슈퍼얼라인먼트 팀에 컴퓨팅 파워 20% 약속.

2024년 5월: 팀 리더 둘 다 사임. 얀 라이케가 *“안전 문화와 프로세스가 화려한 제품에 뒷전으로 밀렸다”*고 말하면서 Anthropic에 합류. 팀은 해산됐고, 그 컴퓨팅 파워는 ChatGPT에 갔어요. 같은 해 AGI 준비팀도 해산. 2026년 초 미션 얼라인먼트 팀도요.

안전팀 3개. 2년. 전부 사라짐.

“NDA 몰랐다” → 서명은 본인 거였다

2024년: OpenAI의 지분 몰수 NDA가 공개됐을 때, 올트먼은 사과하면서 몰랐다고 했어요. 그런데 Vox가 2023년 4월자 법인 문서를 입수했는데, 해당 조항을 승인하는 올트먼 서명이 떡하니 있었어요.

안전 연구원 다니엘 코코타일로는 회사의 안전 실패에 대해 자유롭게 말할 권리를 지키려고 자기 가족 순자산의 85%에 해당하는 지분을 포기했어요. 가족 전 재산의 85%요. 입 다물라는 압박이 그 정도였다는 거예요.

“군사 사용 금지” → 펜타곤 기밀 네트워크

2024년 1월 10일 이전: OpenAI 사용 정책은 “군사 및 전쟁” 응용을 명시적으로 금지했어요.

2024년 1월 10일: 그 문구가 조용히 삭제됨. 블로그 포스트도 없고, 공지도 없었어요. The Intercept가 발견했죠.

2025년 11월: OpenAI가 미션 스테이트먼트에서 “안전하게(safely)“라는 단어 자체를 삭제. 이전: “인류 전체에 안전하게 이익이 되도록.” 이후: “인류 전체에 이익이 되도록.”

한 단어 삭제가 뭐가 중요하냐고요? 그 한 단어가 전부였거든요.

2026년 2월: 펜타곤 기밀 네트워크 전면 배치. “아니요"라고 말한 회사가 블랙리스트에 오른 지 몇 시간 만에.

“Anthropic의 레드라인을 공유한다” → Anthropic이 거부한 계약에 사인

가장 최신이에요. 올트먼이 직원 메모에서 같은 상황이라면 OpenAI도 *“대체로 Anthropic의 접근 방식을 따를 것”*이라고 했어요.

근데 같은 상황이 아니잖아요. Anthropic은 블랙리스트에 올랐고 OpenAI는 계약서를 받았어요. 상대가 거부한 거래를 가져가면서 원칙을 공유한다고 말하는 건 그냥 말이에요. 행동이 아니라요.

Google이랑 OpenAI 직원 수백 명이 자사 기업이 Anthropic의 실제 입장 — 말이 아니라 — 을 따르도록 청원에 서명했어요.


패턴이 핵심이에요

올트먼이 한 말실제로 한 것
“오픈소스, 인류를 위해”5,000억 달러 영리 법인
“지분이 없다”처음부터 간접 지분을 보유하고 있었음
“강한 규제 필요”2년 뒤 “과잉 규제"라 부름
“컴퓨팅 20% 안전에”2년간 안전팀 3개 해산
“NDA 몰랐다”본인 서명이 문서에 있었음
“군사 사용 금지”금지 삭제 후 펜타곤과 계약
“안전하게 인류에 이익”미션에서 “안전하게” 삭제
“Anthropic 레드라인 공유”Anthropic이 거부한 계약에 사인

공개 기록에 남아 있는 것만 8번이에요. 불편해질 때마다 입장을 바꿨어요.

마음을 바꾼 게 아니에요. 패턴이에요. 샘 올트먼이 오늘 뭘 말하든, 지금 당장 왜 그 말이 필요한지 역산해 보면 이유를 알 수 있어요.


우리가 할 수 있는 것들

펜타곤 조달 정책에 영향을 줄 수는 없겠죠. 근데 무력한 건 아니에요.

쓰는 AI를 분산하세요. ChatGPT만 쓸 이유가 없어요. Claude, Gemini, Copilot, Llama, Mistral — 다양한 가치관과 구조를 가진 회사가 만든 모델이 있어요. 편의성 때문에 하나에 묶이면, 그 회사가 방향을 틀 때 같이 끌려가는 거예요.

AI 스킬은 내 거예요. 잘 만든 프롬프트는 ChatGPT에서도, Claude에서도, Gemini에서도 작동해요. AI 스킬을 다운받아서 보관하면 텍스트 파일이에요. 어느 회사 모델이 돌리든 상관없어요. 서비스가 방향을 바꿔도 내 스킬은 여전히 작동하거든요.

“아니요"라고 말하는 회사를 주목하세요. 모든 재정적 인센티브가 “네"로 향하는 산업에서, “아니요"라고 말하는 건 마케팅이 아니라 실제 가치관이에요. Anthropic은 2억 달러 계약을 잃었고 연방 정부 블랙리스트에 올랐어요. 안전장치를 제거하지 않겠다고 해서요. 그 대가가 진짜인 거예요.

AI 기본법 국방 면제를 문제삼으세요. 민간 AI는 투명성과 안전성을 요구하면서 군사 AI는 예외? 자율 드론 1,500기 양산하겠다는 나라에서 윤리 담당 1명? 국제 무대에서 REAIM 리더십을 주장하면서 국내 규제는 공백? 이건 우리가 물어봐야 하는 질문이에요.

미션 스테이트먼트를 추적하세요. 한 분기 안에 미션에서 “안전하게"를 삭제하고 기밀 군사 네트워크에 기술을 올리는 회사? 그건 혼합 신호가 아니에요. 명확한 신호예요.


아무도 대답하고 싶지 않은 질문

개인적으로 이거 생각하면 두근두근해지는 게 아니라 등이 서늘해져요.

기술 자체는 중립이에요. 대규모 언어 모델은 텍스트를 처리하고 토큰을 예측해요. 그 텍스트가 이메일 초안인지 정보 브리핑인지, 토큰이 레시피인지 표적 목록인지 상관 안 하죠.

문제는 누가 통제하느냐, 어떤 안전장치가 있느냐예요.

지금의 안전장치는: 올트먼이 안전 제한이 포함돼 있다고 말하는 계약, 외부 감독이 불가능한 기밀 네트워크에서 OpenAI 직원 몇 명이 감시, 지난 10년간 모든 주요 약속을 깨뜨린 CEO의 서명.

이게 “글쓰기 도와주는 AI"와 “세계 최대 군사력의 대규모 감시 데이터를 처리하는 AI 시스템” 사이의 안전장치예요.

안전장치가 무너지면? 우리는 모를 거예요. 기밀이니까.

DMZ에 자율 무기가 있는 나라에서, 미군과 연합작전을 하는 나라에서, 1조 5천억 원을 방위비로 내는 나라에서 — 이건 남의 나라 뉴스가 아니에요.

우리 모두의 질문이에요.

다들 어떻게 생각하세요?


관련 스킬

Build Real AI Skills

Step-by-step courses with quizzes and certificates for your resume