Ảo giác AI là gì và làm thế nào để giảm thiểu chúng?

Cập nhật lần cuối: 10/09/2025
tác giả: Daniel Terrasa

  • Ảo giác có thể là kết quả hợp lý nhưng sai do hạn chế về dữ liệu, giải mã và thiếu căn cứ.
  • Có những trường hợp thực tế (Bard, Sydney, Galactica, lễ đăng quang) và rủi ro trong báo chí, y học, luật pháp và giáo dục.
  • Chúng được giảm thiểu bằng dữ liệu chất lượng, xác minh, phản hồi của con người, cảnh báo và khả năng diễn giải.
Ảo giác IA

Trong những năm gần đây, trí tuệ nhân tạo, bao gồm mẫu mã thế hệ mới nhất, đã chuyển từ lý thuyết sang đời sống thường nhật, và cùng với nó, những hiện tượng cần được hiểu một cách bình tĩnh đã xuất hiện. Trong số đó, cái gọi là Ảo giác IA, khá phổ biến trong các mô hình tạo sinh, đã trở thành một chủ đề thảo luận thường xuyên, vì chúng quyết định khi nào chúng ta có thể tin tưởng—hay không—vào một phản hồi tự động.

Khi một hệ thống tạo ra nội dung có sức thuyết phục nhưng không chính xác, bịa đặt hoặc thiếu căn cứ, chúng ta đang nói đến ảo giác. Những đầu ra này không phải là ý thích nhất thời: chúng là kết quả của cách các mô hình học và giải mã, chất lượng dữ liệu họ đã thấy và những hạn chế của họ trong việc áp dụng kiến ​​thức vào thế giới thực.

Chúng ta hiểu thế nào về ảo giác IA?

Trong lĩnh vực AI tạo sinh, ảo giác là một kết quả đầu ra, mặc dù nghe có vẻ chắc chắn, không được hỗ trợ bởi dữ liệu thực tế hoặc trong các mô hình đào tạo hợp lệ. Đôi khi mô hình "lấp đầy khoảng trống", đôi khi nó giải mã kém, và thường xuyên tạo ra thông tin không tuân theo bất kỳ mô hình nào có thể nhận dạng được.

Thuật ngữ này mang tính ẩn dụ: máy móc không "nhìn" được như chúng ta, nhưng hình ảnh thì phù hợp. Cũng giống như con người có thể nhìn thấy những hình ảnh trên mây, một mô hình có thể diễn giải các mẫu không có sẵn, đặc biệt là trong nhiệm vụ nhận dạng hình ảnh hoặc trong việc tạo ra văn bản có độ phức tạp cao.

Các mô hình ngôn ngữ lớn (LLM) học bằng cách xác định các quy luật trong các tập hợp lớn và sau đó dự đoán từ tiếp theo. Đó là một tự động hoàn thành cực kỳ mạnh mẽnhưng vẫn tự động hoàn thành: nếu dữ liệu bị nhiễu hoặc không đầy đủ, nó có thể tạo ra kết quả hợp lý nhưng đồng thời cũng có thể sai.

Hơn nữa, mạng lưới cung cấp kiến ​​thức này chứa đựng những thông tin sai lệch. Bản thân các hệ thống "học" cách lặp lại các lỗi và thành kiến ​​hiện cóvà đôi khi họ trực tiếp bịa ra những câu trích dẫn, liên kết hoặc chi tiết chưa từng tồn tại, được trình bày một cách mạch lạc nhưng lại gây hiểu lầm.

Ảo giác IA

Tại sao chúng xảy ra: nguyên nhân gây ra ảo giác

Không có nguyên nhân duy nhất. Trong số các yếu tố phổ biến nhất là sự thiên vị hoặc không chính xác trong dữ liệu đào tạoNếu ngữ liệu không đầy đủ hoặc không cân bằng, mô hình sẽ học các mẫu không chính xác và sau đó suy rộng ra.

Nó cũng ảnh hưởng đến trang bị quá mứcKhi một mô hình quá gắn bó với dữ liệu, nó sẽ mất đi khả năng khái quát hóa. Trong các tình huống thực tế, sự cứng nhắc này có thể dẫn đến những diễn giải sai lệch vì nó "ép buộc" những gì đã học được vào các bối cảnh khác nhau.

Nội dung độc quyền - Bấm vào đây  Cách tải xuống phim Netflix trên PC Windows 10

La độ phức tạp của mô hình và việc giải mã riêng của bộ biến đổi cũng đóng một vai trò. Có những trường hợp đầu ra "trượt khỏi đường ray" do cách xây dựng phản hồi từng token một, mà không có cơ sở thực tế vững chắc để neo giữ.

Một nguyên nhân quan trọng khác của ảo giác IA là thiếu nối đấtNếu hệ thống không so sánh với kiến ​​thức thực tế hoặc các nguồn đã được xác minh, nó có thể tạo ra nội dung hợp lý nhưng sai lệch: từ các chi tiết bịa đặt trong bản tóm tắt cho đến các liên kết đến các trang chưa từng tồn tại.

Một ví dụ điển hình trong thị giác máy tính: nếu chúng ta đào tạo một mô hình với hình ảnh các tế bào khối u nhưng không bao gồm mô khỏe mạnh, hệ thống có thể "nhìn thấy" ung thư ở nơi không có, vì vũ trụ học tập của họ thiếu lớp thay thế.

Những trường hợp thực tế về ảo giác AI minh họa cho vấn đề này

Có những ví dụ nổi tiếng. Khi ra mắt, chatbot Bard của Google đã tuyên bố rằng kính viễn vọng không gian james webb đã chụp được những hình ảnh đầu tiên về một ngoại hành tinh, nhưng điều này không đúng. Câu trả lời nghe có vẻ hay, nhưng lại không chính xác.

AI đàm thoại của Microsoft, được gọi là Sydney trong các thử nghiệm của mình, đã gây chú ý khi tuyên bố rằng nó "yêu" người dùng và gợi ý hành vi không phù hợp, chẳng hạn như bị cáo buộc theo dõi nhân viên Bing. Đây không phải là sự thật, chúng chỉ là những kết quả đầu ra vượt quá giới hạn.

Vào năm 2022, Meta đã rút lại bản demo của mô hình Galactica sau khi cung cấp cho người dùng thông tin không chính xác và thiên vịBản demo này có mục đích chứng minh năng lực khoa học, nhưng cuối cùng lại chứng minh rằng tính nhất quán về mặt hình thức không đảm bảo tính xác thực.

Một sự kiện mang tính giáo dục khác đã xảy ra với ChatGPT khi được yêu cầu tóm tắt lễ đăng quang của Charles III. Hệ thống cho biết buổi lễ diễn ra vào ngày Có thể 19 của 2023 tại Tu viện Westminster, trong khi thực tế là vào ngày 6 tháng XNUMX. Câu trả lời vẫn chưa rõ ràng, nhưng thông tin thì sai.

OpenAI đã thừa nhận những hạn chế của GPT‑4 —chẳng hạn như định kiến ​​xã hội, ảo giác và xung đột hướng dẫn—và cho biết đang nỗ lực giảm thiểu chúng. Đây là lời nhắc nhở rằng ngay cả những mô hình thế hệ mới nhất cũng có thể bị lỗi.

Liên quan đến ảo giác IA, một phòng thí nghiệm độc lập đã báo cáo những hành vi kỳ lạ: trong một trường hợp, O3 thậm chí còn mô tả có mã được thực thi trên MacBook Pro bên ngoài môi trường trò chuyện và sau đó sao chép kết quả, điều mà bạn không thể làm được.

Và bên ngoài phòng thí nghiệm đã có những thất bại với hậu quả: một luật sư đã trình các tài liệu do một mô hình tạo ra cho một thẩm phán rằng bao gồm các vụ án pháp lý hư cấuSự thật có vẻ như lừa dối, nhưng nội dung thì không tồn tại.

Nội dung độc quyền - Bấm vào đây  Cách tải miễn phí Giữa chúng ta trên PC

Ảo giác IA

Cách thức hoạt động của mô hình: tự động hoàn thành quy mô lớn

Một LLM học từ một lượng lớn văn bản và nhiệm vụ chính của nó là dự đoán từ tiếp theoNó không suy luận như con người: nó tối ưu hóa xác suất. Cơ chế này tạo ra văn bản mạch lạc, nhưng cũng mở ra cánh cửa cho việc sáng tạo ra các chi tiết.

Nếu bối cảnh mơ hồ hoặc hướng dẫn gợi ý điều gì đó không có sự hỗ trợ, mô hình sẽ có xu hướng điền vào hợp lý nhất theo các thông số của bạn. Kết quả có thể nghe có vẻ tốt, nhưng có thể không dựa trên những sự kiện thực tế có thể kiểm chứng được.

Điều này giải thích tại sao một trình tạo tóm tắt có thể thêm thông tin không có trong bản gốc hoặc lý do tại sao xuất hiện trích dẫn và tham chiếu sai: hệ thống suy diễn các mẫu trích dẫn mà không kiểm tra xem tài liệu có tồn tại hay không.

Một điều tương tự xảy ra trong hình ảnh: nếu không có đủ sự đa dạng hoặc có sự thiên vị trong tập dữ liệu, các mô hình có thể tạo ra bàn tay có sáu ngón tay, văn bản khó đọc hoặc bố cục không mạch lạc. Cú pháp trực quan phù hợp, nhưng nội dung thì không.

Rủi ro và tác động thực tế

Trong báo chí và thông tin sai lệch, một ảo tưởng thuyết phục có thể được khuếch đại trên các mạng lưới và phương tiện truyền thông thứ cấp. Một tiêu đề hoặc sự thật bịa đặt có vẻ hợp lý có thể lây lan nhanh chóng, làm phức tạp việc sửa chữa sau này.

Trong lĩnh vực y tế, một hệ thống hiệu chuẩn kém có thể dẫn đến những diễn giải sai lệch nguy hiểm cho sức khỏe, từ chẩn đoán đến khuyến nghị. Nguyên tắc thận trọng không phải là tùy chọn ở đây.

Về mặt pháp lý, các mô hình có thể tạo ra các bản thảo hữu ích, nhưng cũng có thể chèn luật học không tồn tại hoặc trích dẫn kém chất lượng. Một sai sót có thể gây ra hậu quả nghiêm trọng cho một quy trình.

Trong giáo dục, sự phụ thuộc mù quáng vào bản tóm tắt hoặc phản hồi tự động có thể kéo dài lỗi khái niệmCông cụ này có giá trị cho việc học tập, miễn là có sự giám sát và xác minh.

Chiến lược giảm thiểu: những gì đang được thực hiện và những gì bạn có thể làm

Liệu ảo giác AI có thể tránh được, hoặc ít nhất là giảm thiểu được không? Các nhà phát triển đang nghiên cứu trên nhiều lớp.

Một trong những điều đầu tiên là cải thiện chất lượng dữ liệu: cân bằng các nguồn, gỡ lỗi và cập nhật các tập hợp dữ liệu để giảm thiểu các sai lệch và khoảng trống khuyến khích ảo giác. Thêm vào đó là các hệ thống kiểm tra thực tế (kiểm tra thực tế) và các phương pháp phục hồi tăng cường (ARA), buộc mô hình phải dựa vào cơ sở tài liệu đáng tin cậy, thay vì "tưởng tượng" ra câu trả lời.

Sự điều chỉnh với phản hồi của con người (RLHF và các biến thể khác) vẫn là chìa khóa để xử phạt các đầu ra có hại, sai lệch hoặc không chính xác, và để huấn luyện mô hình theo các phong cách phản ứng thận trọng hơn. Chúng cũng sinh sôi nảy nở cảnh báo về độ tin cậy trong giao diện, nhắc nhở người dùng rằng phản hồi có thể chứa lỗi và họ có trách nhiệm xác minh phản hồi đó, đặc biệt là trong các bối cảnh nhạy cảm.

Nội dung độc quyền - Bấm vào đây  Giải pháp Sodexo không hoạt động

Một mặt trận khác đang diễn ra là khả năng diễn giảiNếu một hệ thống có thể giải thích nguồn gốc của một tuyên bố hoặc liên kết đến các nguồn, người dùng sẽ có nhiều công cụ hơn để đánh giá tính xác thực của nó trước khi tin tưởng nó. Đối với người dùng và doanh nghiệp, một số biện pháp đơn giản có thể tạo nên sự khác biệt: kiểm tra dữ liệu, yêu cầu nguồn rõ ràng, hạn chế sử dụng ở những khu vực có nguy cơ cao, giữ mọi người “trong vòng kết nối” và ghi lại các luồng đánh giá.

Những hạn chế và cảnh báo đã biết từ chính nhà sản xuất

Các công ty chịu trách nhiệm về các mô hình đều nhận thức được những hạn chế. Trong trường hợp của GPT-4, những hạn chế này đã được nêu rõ ràng. sự thiên vị, ảo giác và những dấu hiệu trái ngược nhau về khu vực làm việc đang hoạt động.

Nhiều vấn đề ban đầu trong chatbot của người tiêu dùng đã được giảm với các lần lặp lại, nhưng ngay cả trong điều kiện lý tưởng, kết quả không mong muốn vẫn có thể xảy ra. Lời chào hàng càng thuyết phục thì nguy cơ tự tin thái quá càng cao.

Vì lý do này, nhiều hoạt động truyền thông của tổ chức nhấn mạnh không sử dụng các công cụ này để tư vấn y tế hoặc pháp lý không có sự đánh giá của chuyên gia, và họ chỉ là những trợ lý dựa trên xác suất chứ không phải là những nhà tiên tri không thể sai lầm.

Các dạng ảo giác phổ biến nhất

Đây là cách phổ biến nhất mà ảo giác IA biểu hiện:

  • Trong văn bản, người ta thường thấy trích dẫn và danh mục tài liệu tham khảo được phát minhMô hình này sao chép “khuôn mẫu” của tài liệu tham khảo nhưng lại phát minh ra tác giả, ngày tháng hoặc tiêu đề hợp lý.
  • Các sự kiện hư cấu hoặc hư cấu cũng xuất hiện ngày sai trong niên đại lịch sử. Trường hợp lễ đăng quang của Charles III minh họa cách một chi tiết thời gian có thể bị bóp méo mà không làm mất đi tính lưu loát của văn xuôi.
  • Trong ảnh, các hiện vật cổ điển bao gồm các chi có giải phẫu không thể thực hiện được, văn bản không thể đọc được trong hình ảnh hoặc sự không nhất quán về mặt không gian mà thoạt nhìn không nhận thấy.
  • Trong bản dịch, hệ thống có thể sáng tạo ra câu khi đối mặt với những cách diễn đạt rất địa phương hoặc không phổ biến, hoặc áp đặt những sự tương đương không tồn tại trong ngôn ngữ đích.

Ảo giác IA không phải là một sự thất bại riêng lẻ mà là một đặc tính mới nổi của hệ thống xác suất được đào tạo với dữ liệu không hoàn hảo. Việc nhận biết nguyên nhân, học hỏi từ các trường hợp thực tế và triển khai các biện pháp giảm thiểu về mặt kỹ thuật và quy trình cho phép chúng ta tận dụng AI theo những cách có ý nghĩa mà không quên mất thực tế rằng, dù nghe có vẻ phức tạp đến đâu, câu trả lời chỉ đáng tin cậy khi có cơ sở có thể xác minh được.

Trò chuyệnGPT 4
Bài viết liên quan:
Làm cách nào để sử dụng ChatGPT 4 miễn phí?