Mình nói thật nhé, có lần mình suýt gửi báo cáo cho sếp với một con số thống kê hoàn toàn… bịa đặt.
AI nó tự tin quá đi mất. Kiểu “theo nghiên cứu của Harvard năm 2023, 87% doanh nghiệp đã…” - nghe chuẩn chỉnh luôn. Mình tin, mình sao chép vào báo cáo. May mà trước khi gửi mình có thói quen Google kiểm tra lại.
Kết quả? Nghiên cứu đó không tồn tại. Con số đó bịa. Cái “Harvard” đó cũng là tưởng tượng của AI thôi.
Ối giời ơi, mình suýt mất mặt với sếp. Từ đó mình mới bắt đầu nghiên cứu nghiêm túc về cái gọi là “AI hallucination” - hiểu nôm na là AI bị ảo giác, nói bậy một cách tự tin.
Tại sao AI cứ bịa đặt thế nhỉ?
À thì, nói thật ra AI không “biết” như con người đâu anh em ạ.
Nó chỉ đoán từ tiếp theo có vẻ hợp lý nhất thôi. Giống như bạn đang chơi trò nối chữ vậy - cứ nối cho xuôi tai là được, đúng sai tính sau.
Mình để ý thấy AI hay bịa nhất khi:
- Hỏi về tin tức gần đây (dữ liệu huấn luyện của nó cũ rồi mà)
- Yêu cầu số liệu cụ thể (ngày tháng, phần trăm, con số)
- Hỏi về người Việt Nam, công ty Việt Nam (ít dữ liệu tiếng Việt nên nó đoán bừa)
- Ép nó phải trả lời bằng được, không cho nói “không biết”
Mình từng hỏi ChatGPT về doanh thu của một công ty startup Việt, nó bịa ra một con số cụ thể đến hai chữ số thập phân luôn. Tự tin như thật. Sau mình tìm thì công ty đó còn chưa công bố tài chính bao giờ cơ.
Cách 1: Cho phép AI nói “Tôi không biết”
Đây là mẹo đơn giản nhất mà hiệu quả vãi.
Theo tài liệu của Claude, chỉ cần thêm một câu đơn giản vào câu lệnh là giảm đáng kể tình trạng bịa đặt rồi.
Mình hay viết thế này:
Nếu không chắc chắn, cứ nói thẳng là không biết nhé.
Mình thà không có câu trả lời còn hơn câu trả lời sai.
Đơn giản vậy thôi. Nhưng mà hiệu quả lắm luôn. AI sẽ bớt cố đoán bừa đi nhiều.
Cách 2: Dùng Tăng Cường Truy Xuất - Cho AI tài liệu để đọc
Cái này hơi kỹ thuật một chút, nhưng mà đỉnh lắm anh em ạ.
Tăng Cường Truy Xuất (RAG - Retrieval-Augmented Generation) là kiểu bạn cho AI một đống tài liệu rồi bảo “chỉ được trả lời dựa trên mấy cái này thôi, không được tự bịa.”
Theo nghiên cứu gần đây, RAG giảm được 42-68% tình trạng ảo giác. Một số ứng dụng y tế còn đạt 89% độ chính xác khi kết hợp RAG với nguồn uy tín như PubMed.
Mình hay làm thế này khi cần AI phân tích tài liệu:
Đây là tài liệu:
[dán nội dung vào đây]
Trả lời câu hỏi của mình CHỈ dựa trên tài liệu trên.
Không được thêm thông tin từ nguồn khác.
Nếu tài liệu không có thông tin, nói thẳng là "tài liệu không đề cập."
Ngon lành cành đào luôn. AI có cái để bám vào thì đỡ bịa hơn nhiều.
Cách 3: Yêu cầu trích dẫn nguyên văn
Tip này mình học được từ tài liệu Claude - với tài liệu dài hơn 20.000 token, bảo AI trích dẫn nguyên văn trước khi phân tích.
Trước khi trả lời, hãy trích dẫn nguyên văn đoạn liên quan từ tài liệu.
Đặt trong dấu ngoặc kép.
Rồi mới giải thích.
Kiểu này buộc AI phải neo vào văn bản thật, không có đường bịa được. Ưng cái bụng lắm luôn.
Cách 4: Hỏi nhiều lần, so sánh kết quả
Cái này gọi là Xác Minh Chọn Tốt Nhất - nghe phức tạp nhưng đơn giản thôi.
Bạn hỏi AI cùng một câu hỏi 3-4 lần. Nếu câu trả lời khác nhau quá nhiều, khả năng cao là nó đang bịa.
Theo một nghiên cứu năm 2025, cách này giảm đáng kể tỷ lệ lỗi mà không cần phải thay đổi gì về mô hình.
Mình hay dùng cách này với mấy thông tin quan trọng. Hỏi Claude, hỏi ChatGPT, hỏi Gemini - nếu 3 thằng nói giống nhau thì có thể tin được. Còn nếu mỗi thằng nói một kiểu thì phải kiểm tra lại thôi.
Cách 5: Bảo AI suy nghĩ từng bước
Câu Lệnh Suy Nghĩ Theo Chuỗi - nghe khó hiểu nhưng thực ra chỉ là bảo AI “nghĩ to lên” thôi.
Hãy suy nghĩ từng bước trước khi đưa ra kết luận.
Cho mình thấy quá trình suy luận của bạn.
Khi AI phải giải thích từng bước một, nó tự phát hiện ra lỗi của mình. Giảm được khá nhiều tình trạng nhảy lung tung đến kết luận sai.
Cách 6: Thu hẹp phạm vi câu hỏi
Hỏi rộng quá thì AI dễ bịa lắm.
Đừng hỏi:
Nói mình nghe về thị trường bất động sản Việt Nam.
Hỏi thế này:
So sánh giá chung cư ở Quận 7 và Quận 2 năm 2025,
tập trung vào phân khúc 2-3 tỷ đồng.
Chỉ nêu xu hướng chung, không cần số liệu cụ thể.
Câu hỏi càng cụ thể, AI càng ít có chỗ để đoán bừa. Mình thấy mẹo này hiệu quả lắm.
Cách 7: Bảo AI tự kiểm tra lại
Ngạc nhiên lắm anh em ơi, AI tự bắt được lỗi của nó nếu mình yêu cầu.
Sau khi AI trả lời xong, mình hay hỏi thêm:
Xem lại câu trả lời vừa rồi đi.
Có thông tin nào bạn không chắc chắn không?
Có gì cần xác minh lại không?
Nhiều khi AI sẽ tự nhận “à, con số kia mình không chắc lắm, bạn nên kiểm tra lại.” Đỡ phải tự mò tìm lỗi nhiều.
Cách 8: Dùng nhiều AI cùng lúc
Đối Chiếu Chéo Nhiều Mô Hình - đây là cách mình tin tưởng nhất.
Hỏi Claude, hỏi ChatGPT, hỏi Gemini cùng một câu hỏi. Nếu 3 thằng nói giống nhau thì khả năng đúng cao hơn. Còn nếu mỗi thằng một phách thì chắc chắn cần kiểm tra lại.
Theo một nghiên cứu, 76% doanh nghiệp lớn đã áp dụng quy trình có người kiểm duyệt để bắt lỗi AI trước khi sử dụng. Mình nghĩ đây là cách tiếp cận đúng đắn.
Thực tế là không thể triệt tiêu hoàn toàn đâu
Nói thật nhé, AI vẫn sẽ bịa đôi khi. Ngay cả mô hình tốt nhất năm 2025 cũng có tỷ lệ ảo giác khoảng 0.7-0.9%. Nghe ít nhưng mà với mấy việc quan trọng thì vẫn phải cẩn thận.
Đặc biệt hay bịa với:
- Tin tức mới - dữ liệu huấn luyện cũ rồi
- Số liệu cụ thể - ngày tháng, phần trăm, thống kê
- Thông tin Việt Nam - ít dữ liệu tiếng Việt
- Trích dẫn, nguồn tham khảo - hay bịa tên sách, tên tác giả lắm
Tư duy quan trọng nhất
Quan trọng nhất là thay đổi cách nghĩ.
Đừng coi AI như một chuyên gia biết tuốt. Coi nó như một thực tập sinh thông minh - nhanh nhẹn, nhiệt tình, nhưng đôi khi tự tin quá đà và cần người kiểm tra lại.
Mình dùng AI để:
- Động não ý tưởng nhanh
- Viết bản nháp đầu tiên
- Tóm tắt tài liệu dài
- Giải thích khái niệm phức tạp
Nhưng mình KHÔNG bao giờ tin tuyệt đối vào số liệu, trích dẫn, hay thông tin cụ thể mà AI đưa ra. Luôn kiểm tra lại.
Tóm lại cho anh em dễ nhớ
- Cho phép nói “không biết” - Đơn giản mà hiệu quả
- Dùng RAG - Cho AI tài liệu để bám vào
- Yêu cầu trích dẫn nguyên văn - Buộc neo vào văn bản thật
- Hỏi nhiều lần - So sánh các câu trả lời
- Suy nghĩ từng bước - Để AI tự phát hiện lỗi
- Thu hẹp phạm vi - Hỏi cụ thể, tránh hỏi chung chung
- Tự kiểm tra - Bảo AI xem lại câu trả lời
- Dùng nhiều AI - Đối chiếu giữa các mô hình
Áp dụng mấy cách trên, mình đảm bảo anh em sẽ bớt bực mình với AI hơn nhiều. Nó vẫn bịa đôi khi, nhưng ít hơn và dễ phát hiện hơn.
Có câu hỏi gì thì bình luận nhé. Mình sẵn lòng chia sẻ thêm!