Ảo giác AI là gì?
Ảo giác AI đề cập đến hiện tượng mà các mô hình trí tuệ nhân tạo—đặc biệt là các mô hình ngôn ngữ lớn (LLM) và các hệ thống AI tạo sinh—tạo ra các đầu ra có hình thức hợp lý nhưng chứa thông tin sai lệch, bịa đặt hoặc gây hiểu lầm. Những "ảo giác" này có thể bao gồm từ việc phát minh ra các sự kiện và trích dẫn hư cấu đến việc diễn giải sai các truy vấn của người dùng. Mặc dù các đầu ra như vậy có vẻ mạch lạc và thuyết phục, nhưng chúng lại đi chệch khỏi thực tế có thể xác minh được, đặt ra những thách thức nghiêm trọng cho bất kỳ ứng dụng nào dựa vào nội dung do AI tạo ra. Việc hiểu được ảo giác AI là điều cần thiết trong thời đại mà các hệ thống này ngày càng được tích hợp vào các lĩnh vực quan trọng như chăm sóc sức khỏe, luật pháp, tài chính và báo chí, nơi mà tính chính xác là tối quan trọng.
Làm thế nào để nhận ra ảo giác?
Ảo giác AI biểu hiện theo nhiều cách:
- Sự thật bịa đặt:AI có thể tạo ra các sự kiện lịch sử, tiền lệ pháp lý hoặc nghiên cứu y khoa có vẻ đáng tin cậy nhưng thực tế lại không tồn tại.
- Dữ liệu số không chính xác: Lỗi định lượng, như số liệu thống kê hoặc ngày tháng sai.
- Trích dẫn sai nguồn: Việc gán ghép các tuyên bố cho những cá nhân hoặc tổ chức không đúng.
- Lý luận sai lầm: Những suy luận logic không được hỗ trợ bởi bằng chứng hoặc bối cảnh.
Bằng cách so sánh kết quả đầu ra với các nguồn dữ liệu đáng tin cậy—thông qua các thư viện kiểm tra thực tế hoặc chuyên gia—người dùng có thể phát hiện ra các trường hợp ảo giác, nhưng quá trình này tốn nhiều tài nguyên.
Tại sao mô hình AI lại gây ảo giác?
Điều gì thúc đẩy ảo giác AI ở cấp độ kỹ thuật?
Về bản chất, hầu hết các LLM đều là các công cụ dự đoán được đào tạo để dự đoán mã thông báo tiếp theo trong một chuỗi văn bản dựa trên các mẫu học được từ các tập dữ liệu lớn. Cơ chế xác suất này, kết hợp với các yếu tố sau, tạo ra ảo giác:
- Giới hạn dữ liệu đào tạo: Các tập dữ liệu lớn chắc chắn chứa đựng sự thiên vị, thông tin lỗi thời và nhiễu. Khi một mô hình AI khái quát hóa từ dữ liệu không hoàn hảo này, nó có thể tạo ra các đầu ra bị lỗi.
- Ràng buộc hàm mục tiêu: Các mô hình được tối ưu hóa cho khả năng xảy ra hoặc sự khó hiểu, không phải độ chính xác thực tế. Một chuỗi có khả năng xảy ra cao vẫn có thể sai.
- Chiến lược lấy mẫu:Các phương pháp giải mã như đo nhiệt độ hoặc lấy mẫu hạt nhân đưa vào tính ngẫu nhiên để tăng cường khả năng sáng tạo nhưng cũng có thể khuếch đại lỗi.
- Kiến trúc mô hình:Kiến trúc dựa trên máy biến áp thiếu cơ chế nối đất cố hữu; chúng hoàn toàn dựa vào các mẫu trong dữ liệu đào tạo mà không có quyền truy cập trực tiếp vào xác minh bên ngoài.
Những nguyên tắc cơ bản này khiến ảo giác AI trở thành sản phẩm phụ vốn có của các hệ thống AI tạo sinh.
Ảo giác có thường xuyên xuất hiện ở các mô hình tiên tiến không?
Ngược lại với trực giác, các mô hình tinh vi nhất có thể biểu hiện tỷ lệ ảo giác cao hơn. Các mô hình lý luận mới nhất của OpenAI, o3 và o4-mini, biểu hiện tỷ lệ ảo giác lần lượt là 33% và 48%—cao hơn đáng kể so với các phiên bản trước đó như GPT-4. Sự gia tăng này là do tính lưu loát được cải thiện của các mô hình này và khả năng tạo ra các câu chuyện thuyết phục, vô tình che giấu những điểm không chính xác hiệu quả hơn.
Kỹ thuật nhắc nhở có thể giảm ảo giác AI như thế nào?
Sự rõ ràng và ngữ cảnh trong lời nhắc
Một chiến lược cơ bản bao gồm việc tạo ra các lời nhắc cung cấp hướng dẫn rõ ràng và thông tin ngữ cảnh đầy đủ. Các lời nhắc rõ ràng, có cấu trúc sẽ làm giảm sự mơ hồ, hướng dẫn mô hình hướng tới các phản hồi mong muốn và ngăn chặn nội dung suy đoán hoặc bịa đặt. Hướng dẫn của nhóm Microsoft AI Builder nhấn mạnh rằng các lời nhắc phải bao gồm (1) mô tả nhiệm vụ chính xác, (2) ngữ cảnh hoặc dữ liệu có liên quan và (3) các ràng buộc đầu ra rõ ràng (ví dụ: "Nếu không chắc chắn, hãy trả lời 'Tôi không biết.'"). Các thử nghiệm thực nghiệm cho thấy các lời nhắc được ngữ cảnh hóa tốt có thể làm giảm tỷ lệ ảo giác hơn 15% trong các cài đặt doanh nghiệp.
“Theo…” Kỹ thuật tiếp đất
Một phương pháp nhắc nhở gần đây có tên là kỹ thuật “Theo…” hướng dẫn mô hình gán các phản hồi của nó cho các nguồn thông tin đáng tin cậy, chẳng hạn như Wikipedia hoặc các cơ sở dữ liệu theo miền cụ thể. Có nguồn gốc từ các hoạt động gán nguồn báo chí, phương pháp này làm tăng khả năng mô hình rút ra từ nội dung thực tế trong tập huấn luyện của nó thay vì bịa đặt các chi tiết. Các thí nghiệm cho thấy rằng việc thêm các cụm từ như “Theo Wikipedia” có thể làm giảm ảo giác tới 20%.
Khung hướng dẫn và lời nhắc tích cực
Nghiên cứu chỉ ra rằng các hướng dẫn được đóng khung tích cực—nói với mô hình phải làm gì thay vì phải tránh gì—mang lại kết quả đáng tin cậy hơn. Các lời nhắc tiêu cực (ví dụ: "KHÔNG được ảo giác") thường gây nhầm lẫn cho động lực dự đoán mã thông báo của mô hình, trong khi các chỉ thị tích cực rõ ràng (ví dụ: "Chỉ cung cấp các sự kiện có thể xác minh được") dẫn đến kết quả sạch hơn. Kết hợp đóng khung tích cực với các câu lệnh có điều kiện ("Nếu mô hình không thể xác minh, hãy trả lời bằng 'Tôi không chắc chắn.'") giúp tăng cường độ chính xác hơn nữa, vì các mô hình ít có khả năng đoán khi các mạng lưới an toàn được áp dụng.

Bắt đầu
CometAPI cung cấp giao diện REST thống nhất tổng hợp hàng trăm mô hình AI (Gemini Models, Claude Model và openAI models)—dưới một điểm cuối nhất quán, với quản lý khóa API tích hợp, hạn ngạch sử dụng và bảng điều khiển thanh toán. Thay vì phải xử lý nhiều URL và thông tin xác thực của nhà cung cấp.
Trong khi chờ đợi, Nhà phát triển có thể truy cập API xem trước Gemini 2.5 Pro , Claude Opus 4 API và API GPT-4.5 thông qua Sao chổiAPI, các mô hình mới nhất được liệt kê là tính đến ngày xuất bản bài viết. Để bắt đầu, hãy khám phá khả năng của mô hình trong Sân chơi và tham khảo ý kiến Hướng dẫn API để biết hướng dẫn chi tiết. Trước khi truy cập, vui lòng đảm bảo bạn đã đăng nhập vào CometAPI và lấy được khóa API. Sao chổiAPI cung cấp mức giá thấp hơn nhiều so với giá chính thức để giúp bạn tích hợp.
Kết luận
Ảo giác trí tuệ nhân tạo đại diện cho một ranh giới quan trọng trong tính an toàn và độ tin cậy của AI. Trong khi các mô hình tiên tiến tiếp tục mở rộng ranh giới về những gì máy móc có thể tạo ra, thì xu hướng "mơ ra" thông tin thuyết phục nhưng sai lệch của chúng nhấn mạnh nhu cầu về các chiến lược giảm thiểu mạnh mẽ, sự giám sát chặt chẽ của con người và nghiên cứu liên tục. Bằng cách kết hợp các cải tiến kỹ thuật—như RAG và phát hiện entropy ngữ nghĩa—với quản lý rủi ro hợp lý và hướng dẫn theo quy định, các bên liên quan có thể khai thác sức mạnh sáng tạo của AI trong khi bảo vệ chống lại những lỗi nguy hiểm nhất của nó.
