Trí tuệ nhân tạo đang ngày càng thông minh, nhưng cũng có lúc “nói sai mà rất tự tin”. Hiện tượng này được gọi là ảo giác AI – một thách thức lớn trong thời đại số.
Một buổi sáng đầu năm 2023, luật sư Steven Schwartz tại New York nộp bản bào chữa được soạn với sự trợ giúp từ ChatGPT. Tự tin với văn phong mạch lạc, lập luận chắc chắn, ông không kiểm tra kỹ. Đến khi bị đối phương phản bác, ông mới phát hiện ra điều không tưởng: toàn bộ các vụ án được trích dẫn trong văn bản… đều không tồn tại. ChatGPT đã “bịa” với độ thuyết phục cao đến mức ngay cả một người dày dạn kinh nghiệm pháp lý như ông Steven cũng không mảy may nghi ngờ.
Đó chỉ là một trong nhiều ví dụ về hiện tượng ảo giác AI (AI hallucinations) khi các mô hình trí tuệ nhân tạo tạo ra thông tin sai lệch nhưng trình bày với ngữ điệu rất thuyết phục. Và điều đáng nói là, hiện tượng này không hiếm.
Vì vậy, hãy cùng FPT.AI khám phá ảo giác AI thực chất là gì, lý do dẫn đến việc AI tự “chém gió” thông tin, những hậu quả mà hiện tượng này gây ra và đâu là những giải pháp mà cộng đồng AI toàn cầu đang nỗ lực tìm kiếm để đối mặt với thách thức này?
Hiện tượng ảo giác AI là gì?
“Ảo giác AI” là một thuật ngữ dùng để mô tả tình trạng các mô hình AI, đặc biệt là các mô hình ngôn ngữ lớn (LLM), tạo ra thông tin không chính xác, không liên quan hoặc hoàn toàn bịa đặt, nhưng lại trình bày một cách vô cùng tự tin, trôi chảy và thuyết phục. Điều đáng chú ý là AI không hề “biết” rằng những thông tin chúng tạo ra là sai. Chúng chỉ đơn thuần tái tạo các mẫu dữ liệu đã học được, đôi khi “sáng tạo” quá đà đến mức đi chệch khỏi thực tế.
Khác với lỗi lập trình truyền thống mà ta có thể dễ dàng tìm và sửa chữa, ảo giác AI giống như một dạng “sáng tạo không mong muốn” từ phía máy móc. Nó không phải là sự cố hỏng hóc, mà là kết quả của cách thức hoạt động nội tại của mô hình.
Tác động của hiện tượng này càng trở nên nghiêm trọng khi AI được ứng dụng trong các lĩnh vực đòi hỏi độ chính xác tuyệt đối như y tế, pháp luật, tài chính, hay thậm chí là báo chí. Một câu trả lời “ảo giác” có thể dẫn đến chẩn đoán sai, tư vấn pháp lý nguy hiểm hoặc tin tức giả mạo, gây ra những hậu quả khó lường.

Nguyên nhân dẫn đến “ảo giác AI”
Để hiểu rõ hơn về lý do AI rơi vào trạng thái “ảo giác”, chúng ta cần nhìn vào cách chúng được huấn luyện và hoạt động.

Một trong những nguyên nhân hàng đầu là dữ liệu đào tạo không hoàn hảo. Các mô hình AI hiện đại được huấn luyện trên khối lượng dữ liệu khổng lồ từ Internet. Tuy nhiên, Internet là một kho tàng hỗn tạp, chứa đựng cả thông tin chính xác lẫn sai lệch, tin giả, quan điểm cá nhân hay những dữ liệu không nhất quán. Nếu tập dữ liệu này có những “lỗ hổng”, thông tin nhiễu hoặc không đầy đủ, AI có thể học và tái tạo lại những sai sót đó.
Thậm chí, đôi khi AI còn tự “chế biến” ra thông tin mới dựa trên các mẫu dữ liệu rời rạc mà chúng đã tiếp nhận, lấp đầy khoảng trống bằng những giả định tự tạo.
Bên cạnh đó, giới hạn trong khả năng “hiểu” thực sự của AI cũng đóng vai trò quan trọng. Các LLM hoạt động dựa trên xác suất thống kê để dự đoán từ tiếp theo có khả năng xuất hiện nhất trong một chuỗi, nhằm tạo ra một câu văn mạch lạc.
Chúng giỏi bắt chước phong cách, ngữ pháp và cấu trúc câu, nhưng lại thường thiếu khả năng “hiểu” sâu sắc về ngữ cảnh, ý nghĩa thực sự của thông tin hay logic thế giới. Khi được đặt những câu hỏi phức tạp hoặc yêu cầu thông tin không có sẵn trong tập dữ liệu của mình, thay vì thừa nhận không biết, AI có xu hướng “đoán mò” hoặc “sáng tạo” để đưa ra một câu trả lời thuyết phục nhất có thể, dẫn đến việc tạo ra thông tin không có thật.
Đây chính là điểm yếu cố hữu của nhiều kiến trúc mô hình hiện tại: chúng ưu tiên sự trôi chảy và mạch lạc hơn là tính chính xác tuyệt đối.
Cuối cùng, tính ngẫu nhiên trong quá trình tạo sinh cũng góp phần vào hiện tượng này. Một số mô hình AI được thiết kế để có một mức độ “ngẫu nhiên” nhất định trong quá trình tạo sinh văn bản, nhằm giúp câu trả lời đa dạng và bớt cứng nhắc. Tuy nhiên, đôi khi sự ngẫu nhiên này có thể vượt quá tầm kiểm soát, khiến AI đưa ra những thông tin không chính xác hoặc không phù hợp với thực tế.
Hệ lụy khôn lường và lời cảnh báo về niềm tin mù quáng
Hậu quả của ảo giác AI có thể rất nghiêm trọng, vượt xa những lỗi đơn thuần. Trong các ứng dụng thực tế, nguy cơ trong các lĩnh vực trọng yếu là rất đáng lo ngại. Trong y tế, một lời khuyên sức khỏe sai lệch từ AI có thể gây nguy hiểm đến tính mạng người bệnh. Trong tài chính, thông tin thị trường bịa đặt có thể dẫn đến thua lỗ nặng nề cho nhà đầu tư.
Đặc biệt, trong lĩnh vực pháp luật, việc AI tạo ra các tiền lệ hoặc điều khoản giả mạo có thể gây ra những rắc rối pháp lý không đáng có, thậm chí ảnh hưởng đến công lý. Một ví dụ điển hình từng gây xôn xao là trường hợp một luật sư tại Mỹ đã sử dụng ChatGPT để hỗ trợ chuẩn bị tài liệu cho một vụ kiện và không kiểm tra lại thông tin. Kết quả là ChatGPT đã tạo ra hàng loạt các vụ án, phán quyết và trích dẫn giả mạo, dẫn đến việc luật sư này bị phạt nặng và vụ kiện bị ảnh hưởng nghiêm trọng.

Sự tự tin thái quá của AI khi “bịa chuyện” càng khiến vấn đề trở nên phức tạp, làm xói mòn niềm tin vào công nghệ. Người dùng, đặc biệt là những người không có đủ kiến thức chuyên môn hoặc không có thói quen kiểm chứng thông tin, rất dễ bị đánh lừa. Điều này không chỉ làm giảm sút niềm tin vào AI mà còn góp phần lan truyền thông tin giả, gây nhiễu loạn xã hội và ảnh hưởng đến khả năng đưa ra quyết định đúng đắn của con người.
Bên cạnh đó, hiện tượng này cũng đặt ra thách thức về trách nhiệm giải trình. Ai sẽ chịu trách nhiệm khi AI “ảo giác” và gây ra hậu quả? Là nhà phát triển mô hình, người triển khai, hay người sử dụng cuối cùng? Đây là một câu hỏi hóc búa mà các nhà làm luật và chuyên gia đạo đức AI đang phải đối mặt, đòi hỏi một khung pháp lý rõ ràng và minh bạch để quản lý rủi ro.
>> Đọc thêm về: Đạo đức AI
Kiểm soát “ảo giác”: Đường dài nhiều chông gai và sự hợp tác đa chiều
Các nhà nghiên cứu về AI và công ty công nghệ hàng đầu thế giới đang nỗ lực không ngừng để tìm kiếm giải pháp giảm thiểu ảo giác AI. Đây là một cuộc đua công nghệ phức tạp, đòi hỏi sự kết hợp của nhiều hướng tiếp cận:
Đầu tiên, cải thiện chất lượng và tính đa dạng của dữ liệu đào tạo là nền tảng cốt lõi. Các nhà phát triển đang tập trung vào việc lọc bỏ thông tin sai lệch, tăng cường dữ liệu chất lượng cao, có nguồn gốc rõ ràng và đa dạng hơn về mặt nội dung, ngữ cảnh để AI có thể học hỏi một cách chính xác và toàn diện hơn. Kỹ thuật “kiểm soát thực tế” (fact-checking) tự động cho dữ liệu huấn luyện cũng đang được nghiên cứu và áp dụng.
Tiếp theo, việc phát triển kiến trúc mô hình AI mạnh mẽ hơn là một trọng tâm. Nghiên cứu đang đi sâu vào việc tạo ra các kiến trúc mô hình mới, không chỉ giỏi trong việc tạo văn bản trôi chảy mà còn có khả năng “hiểu” sâu sắc hơn về ngữ nghĩa và ngữ cảnh, phân biệt được thông tin thật giả. Các kỹ thuật như “học tăng cường từ phản hồi của con người” (Reinforcement Learning from Human Feedback – RLHF) đã giúp cải thiện đáng kể tính chính xác của LLM, nhưng vẫn còn nhiều tiềm năng để phát triển.
Ngoài ra, việc áp dụng kỹ thuật kiểm soát đầu ra và tăng cường tính minh bạch cũng rất quan trọng. Các thuật toán mới đang được phát triển để đánh giá và kiểm chứng thông tin do AI tạo ra trước khi hiển thị cho người dùng. Điều này có thể bao gồm việc so sánh chéo với các nguồn dữ liệu đáng tin cậy hoặc gắn cờ những thông tin có khả năng sai lệch. Khả năng giải thích (Explainable AI – XAI) cũng là một hướng đi quan trọng, giúp AI có thể giải thích cách chúng đưa ra một câu trả lời, từ đó người dùng có thể hiểu rõ hơn về nguồn gốc thông tin và độ tin cậy.
Trong nhiều trường hợp quan trọng, đặc biệt là trong các lĩnh vực nhạy cảm, vai trò của con người vẫn là không thể thay thế (Human-in-the-loop). Sự kiểm tra và xác nhận từ chuyên gia con người là lớp phòng thủ cuối cùng để đảm bảo tính chính xác và an toàn của thông tin do AI cung cấp. Điều này ngụ ý rằng AI nên được xem là công cụ hỗ trợ mạnh mẽ, chứ không phải là nguồn thông tin duy nhất.
Cuối cùng, nhưng không kém phần quan trọng, là giáo dục và nâng cao nhận thức cộng đồng. Việc khuyến khích thói quen kiểm tra chéo thông tin, tìm kiếm nguồn đáng tin cậy và không tin tưởng tuyệt đối vào bất kỳ công cụ AI nào là cần thiết để tránh những rủi ro không đáng có.
“Ảo giác AI” là một lời nhắc nhở rằng trí tuệ nhân tạo, dù mạnh mẽ đến đâu, vẫn còn những giới hạn nhất định và đang trong quá trình hoàn thiện. Để khai thác tối đa tiềm năng của AI và đảm bảo sự phát triển bền vững, chúng ta cần tiếp tục nghiên cứu, đổi mới công nghệ, và quan trọng hơn cả là xây dựng một hệ sinh thái sử dụng AI có trách nhiệm và minh bạch. Hành trình để AI thực sự “thấu hiểu” thế giới và tránh xa những “ảo ảnh” vẫn còn rất dài và con người chính là những người phải tỉnh táo để vững chắc trước sự ảo giác này đến từ AI.
Tài liệu tham khảo
Google Cloud. (n.d.). What are AI hallucinations? https://cloud.google.com/discover/what-are-ai-hallucinations?hl=vi
IBM. (n.d.). AI hallucinations. https://www.ibm.com/think/topics/ai-hallucinations
The Conversation. (n.d.). What are AI hallucinations? Why AIs sometimes make things up. https://theconversation.com/what-are-ai-hallucinations-why-ais-sometimes-make-things-up-242896
The New York Times. (2025, 5 tháng 5). AI hallucinations: ChatGPT, Google. https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html
VnExpress. (2024, 15 tháng 4). Hiện tượng ảo giác dẫn đến AI bịa đặt. https://vnexpress.net/hien-tuong-ao-giac-dan-den-ai-bia-dat-4864534.html