Từ 'Vì Nhân Loại' Đến 'Vì Lầu Năm Góc' — Mười Năm Nói Một Đằng Làm Một Nẻo Của OpenAI

OpenAI hứa mã nguồn mở vì nhân loại. Mười năm sau, AI của họ chạy trên mạng mật Lầu Năm Góc. Mọi lời hứa Sam Altman đã nuốt — kèm bằng chứng.

Tối thứ Sáu tuần trước, Sam Altman lên X thông báo OpenAI vừa ký hợp đồng với Lầu Năm Góc. Mô hình AI của họ sẽ được triển khai trên mạng lưới mật của Bộ Quốc phòng Mỹ.

Altman gọi nó là “Bộ Chiến tranh.” Không phải Bộ Quốc phòng. Chiến tranh. Như thể đó là điều đáng tự hào.

Chỉ vài giờ trước đó, Anthropic — công ty do chính những người rời OpenAI vì lo ngại an toàn thành lập — bị chính quyền Trump đưa vào danh sách đen. Tội của họ? Từ chối cho quân đội dùng AI để chế tạo vũ khí tự động và giám sát hàng loạt mà không có giới hạn.

Anthropic nói không. Bị trừng phạt. OpenAI bước qua họ để ký hợp đồng.

Cái chatbot mà hàng chục triệu người Việt mình dùng hằng ngày để viết email, dịch tài liệu, làm bài tập? Giờ nó đang được nối vào hệ thống quyết định ai sống ai chết. Và người xây dựng nó đã dành cả thập kỷ thề rằng chuyện này sẽ không bao giờ xảy ra.


Với Người Việt, “Bộ Chiến Tranh” Mang Một Ý Nghĩa Khác

Mình cần nói thẳng điều này, vì đây là thứ mà truyền thông phương Tây sẽ không bao giờ nhắc tới.

Khi Sam Altman tự hào gọi Lầu Năm Góc là “Bộ Chiến tranh,” người Mỹ có thể thấy đó là một câu nói táo bạo. Với người Việt Nam, cụm từ đó gợi lại ký ức khác hẳn.

Từ năm 1961 đến 1971, quân đội Mỹ đã rải 76,9 triệu lít chất độc hóa học xuống rừng núi và đồng ruộng Việt Nam. 64% trong số đó là chất độc da cam, chứa khoảng 370 kg dioxin — chất mà chỉ cần 80 gram pha vào nước uống là đủ giết sạch dân một thành phố 8 triệu người.

Kết quả? Khoảng 400.000 người chết hoặc tàn phế. 500.000 trẻ em sinh ra dị tật. Di chứng truyền sang thế hệ thứ tư. Gần 5 triệu người Việt sống trong vùng bị ảnh hưởng.

Và khi Việt Nam kiện ra tòa quốc tế? Không ai chịu trách nhiệm.

Bây giờ, cũng chính cái “Bộ Chiến tranh” đó đang đưa AI — công nghệ mạnh nhất thế kỷ 21 — vào hệ thống nhắm mục tiêu quân sự. Cũng với lời hứa “có giới hạn,” “có kiểm soát,” “chỉ dùng hợp pháp.”

Nghe quen không? Hồi đó họ cũng nói chất diệt cỏ “chỉ nhắm vào cây rừng, không ảnh hưởng con người.”

Mình không so sánh AI với chất độc da cam theo nghĩa đen. Nhưng cái logic — đưa một công nghệ hủy diệt vào tay quân đội rồi hứa “sẽ dùng có trách nhiệm” — thì giống hệt. Và lịch sử đã chứng minh: lời hứa của Lầu Năm Góc có giá trị bao nhiêu khi được che giấu sau rào chắn bảo mật.


“Mạng Lưới Mật” Nghĩa Là Gì — Nói Cho Dễ Hiểu

“Hợp đồng với Lầu Năm Góc” nghe trừu tượng lắm. Nên mình nói cụ thể nhé.

Mạng lưới mật của Bộ Quốc phòng Mỹ xử lý dữ liệu tình báo. Nhận diện mục tiêu. Đánh giá mối đe dọa. Nghe lén thông tin liên lạc. Toàn bộ hạ tầng phục vụ chiến tranh và giám sát hiện đại nằm trên mạng này.

Khi Altman nói OpenAI sẽ triển khai mô hình trên mạng mật, nghĩa là công nghệ lõi của ChatGPT sẽ được cắm vào hệ thống mà quân đội Mỹ dùng để tìm người, theo dõi người, và quyết định phải làm gì với họ.

Altman cam kết rằng thỏa thuận cấm “giám sát hàng loạt trong nước” và “hệ thống vũ khí tự động”. Ông ta nói Lầu Năm Góc “thể hiện sự tôn trọng sâu sắc đối với an toàn.”

Nhưng thế này nhé. Anthropic cũng đề xuất đúng những hạn chế đó. Lầu Năm Góc bác bỏ. Bộ trưởng Quốc phòng Pete Hegseth gọi những hạn chế đó là “triết lý viển vông” và “thức tỉnh” (woke). Rồi chính phủ liệt Anthropic vào danh sách rủi ro chuỗi cung ứng an ninh quốc gia — cái nhãn thường chỉ dành cho các công ty Trung Quốc như Huawei.

Lầu Năm Góc từ chối rào chắn an toàn khi Anthropic đề xuất. Rồi chấp nhận khi OpenAI đề xuất. Cùng một rào chắn. Khác công ty.

Có gì đó sai sai ở đây, đúng không?


Chúng Ta Đã Biết “AI Trên Mạng Quân Sự” Trông Như Thế Nào Rồi

Không cần tưởng tượng. Chuyện đã xảy ra.

Hệ Thống Lavender Ở Gaza

Tại Gaza, quân đội Israel triển khai hệ thống AI mang tên “Lavender” — xử lý dữ liệu giám sát hàng loạt gồm hồ sơ điện thoại, quan hệ xã hội, hành vi di chuyển — và đánh dấu 37.000 người Palestine là mục tiêu tiềm năng.

Một hệ thống khác tên “Where’s Daddy?” theo dõi vị trí điện thoại những người bị đánh dấu và thông báo khi mục tiêu… về nhà. Về nhà với gia đình.

Thời gian một người kiểm tra mỗi mục tiêu? Khoảng 20 giây. Đủ để liếc tên. Không đủ để đặt câu hỏi với thuật toán.

Tỉ lệ sai của hệ thống là 10%. Tức khoảng 3.700 trong số 37.000 người bị đánh dấu có thể bị nhận nhầm — cảnh sát, nhân viên cứu trợ, người trùng tên. Chuyên gia Liên Hợp Quốc báo cáo rằng hơn 15.000 dân thường thiệt mạng trong sáu tuần đầu tiên khi các hệ thống AI này được sử dụng chính để chọn mục tiêu.

Báo Pháp Luật TP.HCM đã gọi đây là “nỗi ám ảnh mang tên Lavender.” VietnamNet viết về “nỗi ám ảnh mang tên trí tuệ nhân tạo của người dân Dải Gaza.”

Đó không phải khoa học viễn tưởng. Đã xảy ra rồi. Và mấy cái hệ thống AI đó còn kém xa so với thứ OpenAI đang đưa lên mạng mật bây giờ.

UAV Bầy Đàn — Chuyện Không Xa Vời

Theo VnExpress, OpenAI đang tham gia cuộc thi phát triển công nghệ chỉ huy bầy UAV tự động của Lầu Năm Góc, trị giá 100 triệu USD. DARPA đang nghiên cứu bầy 250 drone tự động có khả năng sát thương. Ấn Độ muốn bầy 1.000 drone. Tổng Thư ký Liên Hợp Quốc kêu gọi hiệp ước cấm vũ khí tự động trước năm 2026.

Năm 2020, một drone Kargu-2 của Thổ Nhĩ Kỳ đã tự săn lùng và tấn công con người ở Libya mà không cần kết nối dữ liệu với người điều khiển. Drone tự chọn mục tiêu. Đó là công nghệ 2020 — thô sơ so với GPT-4 hay bất cứ thứ gì OpenAI đang triển khai bây giờ.

Giờ thêm vào bức tranh đó mô hình ngôn ngữ mạnh nhất thế giới. Mô hình có thể xử lý báo cáo tình báo, đối chiếu cơ sở dữ liệu, nhận diện mẫu hành vi qua hàng triệu điểm dữ liệu, và đưa ra khuyến nghị hành động.

Đó là thứ đang được cắm vào mạng mật.


Tương Lai Mà Chẳng Ai Muốn Nói Tới

Hợp đồng Lầu Năm Góc không phải đích đến. Nó là điểm xuất phát. Và đường về đích mới đáng sợ.

Giám Sát Hàng Loạt — Phiên Bản Công Nghiệp

AI không chỉ giúp giám sát khả thi. Nó biến giám sát thành tự động.

Bây giờ, giám sát cần con người. Phân tích viên phải đọc thông tin liên lạc bị chặn, xem lại hình ảnh camera, kết nối các manh mối. Tốn kém và chậm. Nhưng thực ra đó là tính năng, không phải lỗi — cái sức ì đó ngăn chính phủ giám sát tất cả mọi người mọi lúc.

AI xóa bỏ sức ì đó.

Giám đốc Anthropic Dario Amodei giải thích vì sao công ty ông vạch ranh giới: AI cho phép chính phủ ghép “dữ liệu rời rạc, riêng lẻ vô hại [về từng người dân Mỹ] thành bức tranh toàn diện về cuộc đời bất kỳ ai — tự động và ở quy mô khổng lồ.”

Dữ liệu định vị điện thoại. Lịch sử mua sắm. Mạng lưới quan hệ. Siêu dữ liệu email. Mỗi mảnh đơn lẻ chẳng có gì. Nhưng mô hình AI có thể ghép tất cả thành hồ sơ hoàn chỉnh: bạn là ai, đi đâu, nói chuyện với ai, tin vào điều gì.

Và nó làm được điều này cho tất cả mọi người. Cùng lúc. Không mệt, không hỏi.

Chuyện Này Liên Quan Gì Đến Việt Nam?

Rất nhiều, thực ra.

78% người dùng internet tại Việt Nam đã sử dụng AI, trong đó ChatGPT chiếm 81% thị phần. 92% sinh viên Việt đang dùng. Mỗi tuần, 800 triệu người trên toàn thế giới sử dụng ChatGPT — và Việt Nam là một trong những thị trường tăng trưởng nhanh nhất.

Mỗi cuộc hội thoại, mỗi câu hỏi, mỗi dữ liệu bạn gửi cho ChatGPT đều đi qua máy chủ OpenAI. Cùng một công ty vừa ký hợp đồng với Lầu Năm Góc. Cùng một công ty đang đưa mô hình lên mạng mật quân sự.

Mình không nói là OpenAI đang chia sẻ dữ liệu chat cá nhân với quân đội. Nhưng đặt câu hỏi này: khi công nghệ cốt lõi phục vụ cả người dân lẫn hệ thống quân sự, ranh giới nằm ở đâu? Ai giám sát? Và nếu ranh giới bị vi phạm trên mạng mật — định nghĩa của “mật” là người ngoài không được biết — thì làm sao bạn phát hiện?

Ngay tại Việt Nam, Hà Nội đã lắp hơn 23.000 camera giám sát tích hợp AI nhận diện khuôn mặt. FPT, VNPT đều đang đẩy mạnh camera AI. Luật Trí tuệ nhân tạo có hiệu lực từ ngày 1/3/2026 — đúng ngày mai khi bài này lên sóng.

Câu hỏi không phải liệu AI có được dùng để giám sát không. Câu hỏi là ai đặt ra luật chơiai kiểm tra xem luật có được tuân thủ không.

Chuỗi Tiêu Diệt Tự Động

“Con người chịu trách nhiệm cuối cùng trong việc sử dụng vũ lực” — nghe hay lắm trên giấy. Nhưng trên thực tế thì sao?

Khi AI đã nhận diện mục tiêu, tính điểm mối đe dọa, đề xuất phản ứng, chọn vũ khí — con người không ra quyết định nữa. Họ bấm nút xác nhận quyết định của AI. Y hệt cái kiểu duyệt 20 giây ở Gaza.

Thomas Wright thuộc Viện Brookings nói thẳng: “Yêu cầu quyền tiếp cận vô điều kiện trước khi hệ thống sẵn sàng không phải là khẳng định quyền lực. Đó là đánh cược rằng những ẩn số sẽ không quan trọng.”

Ẩn số bao gồm: GPT có phân biệt được lính chiến đấu với dân thường từ hình ảnh drone không? Có hiểu bối cảnh văn hóa trong phân tích tình báo không? Có biết rằng người cầm thứ trông giống súng có thể đang cầm cuốc không?

Câu trả lời hiện tại: không. Chính Anthropic thừa nhận mô hình của họ “chưa đủ tin cậy để sử dụng trong vũ khí tự động hoàn toàn”“cho phép mô hình hiện tại được dùng như vậy sẽ gây nguy hiểm cho binh lính Mỹ và dân thường.”

Đó là lý lẽ của Anthropic. Lầu Năm Góc gọi nó là “thức tỉnh.”

Vấn Đề Bình Thường Hóa

Thứ nguy hiểm nhất không phải hợp đồng này. Là thứ đến sau.

Khi AI nằm trên mạng mật, nó trở thành hạ tầng. Được tích hợp vào quy trình. Người ta phụ thuộc vào nó. Và những rào chắn hôm nay? Chúng trở nên “linh hoạt.” Bởi lần gia hạn hợp đồng tiếp theo sẽ không diễn ra công khai. Nó sẽ xảy ra sau lớp bảo mật, nơi không ai bên ngoài Lầu Năm Góc và OpenAI biết điều gì thay đổi.

Hôm nay: “Không giám sát hàng loạt, không vũ khí tự động.”

Năm sau: “Nhắm mục tiêu tự động hạn chế trong các tình huống xác định.”

Năm sau nữa: “Mở rộng sử dụng phù hợp với môi trường đe dọa đang thay đổi.”

Đó là cách “trượt dần” hoạt động. Không phải nhảy bước lớn mà là những lần định nghĩa lại nhỏ cho thuật ngữ vốn đã mơ hồ.


Mười Năm, Tám Lần Lật Kèo — Kèm Bằng Chứng

Sam Altman rất giỏi nói đúng thứ người ta muốn nghe, đúng lúc. Đây là những gì ông ta nói, và thực tế đã xảy ra.

“Mã Nguồn Mở, Vì Nhân Loại” → Đóng, Vì Lợi Nhuận

2015: Tuyên bố thành lập OpenAI cam kết “thúc đẩy trí tuệ số theo cách có lợi nhất cho toàn nhân loại, không bị ràng buộc bởi nhu cầu tạo ra lợi nhuận tài chính.” Nghiên cứu công bố tự do. Mã nguồn chia sẻ công khai.

2019: OpenAI tạo công ty con “lợi nhuận giới hạn” cho phép nhà đầu tư thu lời gấp 100 lần. Microsoft rót 1 tỷ USD. Tài liệu nội bộ 2016-2017 do cuộc điều tra OpenAI Files tiết lộ cho thấy đồng sáng lập Greg Brockman viết: “Không thể nói rằng chúng ta cam kết với tổ chức phi lợi nhuận. Không muốn nói điều đó.”

2025: OpenAI hoàn tất chuyển đổi sang công ty lợi nhuận định giá 500 tỷ USD. SoftBank rót 41 tỷ USD.

“Mình Không Sở Hữu Cổ Phần” → Thực Ra Có

Tháng 5/2023: Altman nói trước Thượng viện Mỹ: “Tôi không có cổ phần nào ở OpenAI. Tôi làm vì yêu thích.”

Tháng 12/2024: TechCrunch tiết lộ Altman sở hữu cổ phần gián tiếp qua quỹ Sequoia và Y Combinator.

Tháng 9/2024: Reuters đưa tin rằng việc tái cấu trúc được thiết kế để trao cổ phần cho Altman lần đầu tiên. Trong thỏa thuận cuối cùng tháng 10/2025, ông không nhận cổ phần — nhưng lời khai trước Thượng viện đã bị bác bỏ bởi các khoản sở hữu gián tiếp mà ông nắm giữ từ đầu.

“Cần Quản Lý Chặt” → Quản Lý Là Làm Quá

Tháng 5/2023: Altman nói với Quốc hội rằng “sự can thiệp quản lý sẽ rất quan trọng để giảm rủi ro của các mô hình ngày càng mạnh.”

Tháng 5/2025: Cũng ông đó, cũng Thượng viện đó. Đồng ý với Thượng nghị sĩ Ted Cruz rằng “quản lý quá mức” mới là nguy hiểm thật sự.

“20% Năng Lực Tính Toán Cho An Toàn” → Giải Tán Đội An Toàn

2023: OpenAI cam kết dành 20% năng lực tính toán cho đội Superalignment nghiên cứu an toàn AI dài hạn.

Tháng 5/2024: Cả hai trưởng nhóm từ chức. Jan Leike nói “văn hóa an toàn và quy trình đã bị đẩy xuống hàng ghế sau để nhường chỗ cho sản phẩm bóng bẩy.” Ông sang Anthropic. Đội bị giải tán. Năng lực tính toán đó chuyển cho ChatGPT. Cuối năm đó, đội AGI Readiness cũng giải tán. Đầu 2026, đội Mission Alignment nữa. Ba đội an toàn, biến mất.

“Không Biết Về NDA” → Chữ Ký Của Ông Nằm Trên Đó

2024: Khi điều khoản tịch thu cổ phần kèm NDA của OpenAI bị phơi bày, Altman xin lỗi và nói không biết. Vox tìm được giấy tờ thành lập tháng 4/2023 có chữ ký Altman cho phép chính điều khoản đó.

Daniel Kokotajlo, nhà nghiên cứu an toàn, từ bỏ cổ phần trị giá 85% tài sản gia đình để giữ quyền nói tự do về thất bại an toàn của công ty.

“Cấm Dùng Cho Quân Sự” → Mạng Mật Lầu Năm Góc

Đến ngày 10/1/2024: Chính sách sử dụng của OpenAI cấm rõ ràng ứng dụng “quân sự và chiến tranh”.

Ngày 10/1/2024: Những từ đó bị xóa âm thầm. Không bài viết nào. Không thông báo. The Intercept phát hiện.

Tháng 11/2025: OpenAI xóa từ “an toàn” khỏi sứ mệnh. Cũ: “mang lại lợi ích an toàn cho toàn nhân loại.” Mới: “mang lại lợi ích cho toàn nhân loại.”

Tháng 2/2026: Triển khai toàn diện trên mạng mật Lầu Năm Góc. Vài giờ sau khi công ty nói “không” bị đưa vào danh sách đen.

“Chia Sẻ Ranh Giới Đỏ Của Anthropic” → Ký Hợp Đồng Anthropic Từ Chối

Cái mới nhất đây. Trong thư gửi nhân viên, Altman nói OpenAI sẽ “phần lớn theo cách tiếp cận của Anthropic” nếu ở vị trí tương tự.

Nhưng họ không ở vị trí tương tự. Anthropic bị đưa vào danh sách đen. OpenAI có hợp đồng. Nói rằng bạn chia sẻ nguyên tắc của ai đó trong khi nhận hợp đồng họ từ chối — đó chỉ là lời nói.

Hàng trăm nhân viên Google và OpenAI đã ký thư ngỏ kêu gọi công ty ủng hộ lập trường thực sự của Anthropic — không chỉ ngôn từ.


Bảng Tổng Hợp: Nói Một Đằng, Làm Một Nẻo

Altman NóiAltman Làm
“Mã nguồn mở, vì nhân loại”Công ty lợi nhuận 500 tỷ USD
“Không sở hữu cổ phần”Nắm giữ cổ phần gián tiếp từ đầu
“Cần quản lý chặt”Gọi quản lý là “làm quá” hai năm sau
“20% năng lực cho an toàn”Giải tán 3 đội an toàn trong 2 năm
“Không biết về NDA”Chữ ký nằm trên giấy tờ
“Cấm dùng cho quân sự”Xóa lệnh cấm, ký với Lầu Năm Góc
“Mang lại lợi ích an toàn cho nhân loại”Xóa từ “an toàn” khỏi sứ mệnh
“Chia sẻ ranh giới đỏ Anthropic”Ký hợp đồng Anthropic từ chối

Tám lần. Trên hồ sơ công khai. Mỗi lập trường đều bị bỏ ngay khi trở nên bất tiện.

Đây không phải người đổi ý. Đây là mô hình hành vi. Và mô hình đó cho biết: bất cứ điều gì Sam Altman nói hôm nay, hãy tự hỏi ông ta cần điều gì là thật ngay lúc này, và bạn sẽ hiểu vì sao ông ta nói vậy.


Việt Nam Đang Ở Đâu Trong Bức Tranh Này?

Đây mới là phần quan trọng nhất với người Việt mình.

Việt Nam vừa xác định AI là công nghệ chiến lược số 1. Thủ tướng Phạm Minh Chính tuyên bố 2026 là năm bứt phá kinh tế số, lấy AI và dữ liệu làm trụ cột. Ngân sách 95 nghìn tỷ đồng cho khoa học công nghệ. FPT đạt doanh thu AI gần 100 triệu USD. VinAI đang xây dựng hệ thống thị giác máy tính tiên tiến.

Việt Nam đang xây dựng hệ sinh thái AI của riêng mình. Và đó là điều tốt.

Nhưng bài học từ thương vụ OpenAI-Lầu Năm Góc là gì?

Một: Đừng để phụ thuộc hoàn toàn vào một nhà cung cấp AI nước ngoài. Khi công ty đó thay đổi ưu tiên — từ “vì nhân loại” sang “vì Lầu Năm Góc” — người dùng không có quyền phản đối. Bạn chỉ là khách hàng.

Hai: Luật AI Việt Nam có hiệu lực ngày 1/3/2026. Khung đạo đức AI quốc gia cũng vậy. Chúng ta có cơ hội đi trước bằng cách xây dựng khuôn khổ pháp lý minh bạch — điều mà thung lũng Silicon đã chứng minh là không thể tự làm.

Ba: 78% người dùng internet Việt đã dùng AI. 92% sinh viên đang dùng. Đó là hàng chục triệu người. Họ cần biết rằng AI không phải phép thuật — nó là công cụ do con người tạo ra, với mục đích do con người quyết định. Và mục đích đó có thể thay đổi bất cứ lúc nào mà bạn không hay biết.


Vậy Mình Làm Được Gì?

Bạn có lẽ không ảnh hưởng được đến hợp đồng quốc phòng. Nhưng bạn cũng không hoàn toàn bất lực.

AI bạn dùng là một sự lựa chọn. ChatGPT không phải lựa chọn duy nhất. Chưa bao giờ là. Claude, Gemini, Copilot, Llama, Mistral — có nhiều mô hình được xây dựng bởi các công ty với giá trị khác nhau, cấu trúc khác nhau, và mối quan hệ khác nhau với quyền lực quân sự. Dùng nhiều hơn một. So sánh. Đừng để sự tiện lợi khóa bạn vào một nhà cung cấp đang thay đổi ưu tiên dưới chân bạn.

Kỹ năng AI là tài sản di động. Một câu lệnh hay hoạt động trên ChatGPT, Claude, Gemini, hay bất kỳ mô hình nào khác. Khi bạn tải về và lưu kỹ năng AI của riêng mình, bạn sở hữu chúng. Chúng là tập tin văn bản. Không quan tâm mô hình nào chạy chúng. Nếu nhà cung cấp thay đổi — lại nữa — kỹ năng của bạn vẫn dùng được.

Chú ý đến ai nói không. Trong một ngành mà mọi động lực tài chính đều đẩy về phía nói có, công ty nào nói không đang cho bạn biết giá trị thật sự của họ. Không phải lời quảng cáo. Giá trị. Anthropic vừa mất hợp đồng 200 triệu USD và bị chính phủ liên bang đưa vào danh sách đen vì từ chối gỡ rào chắn an toàn. Cái giá đó rất thực.

Theo dõi sứ mệnh, không phải thông cáo báo chí. Khi một công ty xóa từ “an toàn” khỏi sứ mệnh và đưa công nghệ lên mạng mật quân sự trong cùng quý — đó không phải tín hiệu mơ hồ. Đó là tín hiệu rõ ràng.


Câu Hỏi Không Ai Muốn Trả Lời

Đây là thứ khiến mình mất ngủ.

Công nghệ tự nó trung lập. Mô hình ngôn ngữ lớn xử lý văn bản. Dự đoán từ tiếp theo. Không phân biệt bản nháp email với báo cáo tình báo, công thức nấu ăn với danh sách mục tiêu.

Câu hỏi là ai kiểm soát chúng và rào chắn nào tồn tại.

Bây giờ, rào chắn là: một hợp đồng mà Sam Altman nói có hạn chế an toàn, được thực thi bởi một nhóm nhỏ nhân viên OpenAI có giấy phép an ninh trên mạng mật nơi không ai bên ngoài giám sát được, ký bởi CEO đã phá vỡ mọi lời hứa lớn trong thập kỷ qua.

Đó là rào chắn giữa “trợ lý AI giúp bạn viết tốt hơn” và “hệ thống AI xử lý dữ liệu giám sát hàng loạt cho quân đội lớn nhất thế giới.”

Và nếu rào chắn sụp? Chúng ta sẽ không biết. Vì nó được bảo mật.

Một dân tộc đã trải qua hậu quả của “vũ khí có kiểm soát” từ chính cái “Bộ Chiến tranh” đó — hậu quả kéo dài bốn thế hệ và vẫn chưa dứt — có quyền đặt câu hỏi nhiều hơn bất kỳ ai.


Kỹ Năng Liên Quan

Muốn kiểm soát cách bạn dùng AI thay vì để AI kiểm soát bạn? Tham khảo mấy kỹ năng này: