Ý kiến: Đại dịch Ảo giác AI, Một Cuộc Khủng Hoảng Mà Chúng Ta Chưa Sẵn Sàng Đối Mặt

Image generated with DALL·E through ChatGPT

Ý kiến: Đại dịch Ảo giác AI, Một Cuộc Khủng Hoảng Mà Chúng Ta Chưa Sẵn Sàng Đối Mặt

Thời gian đọc: 12 phút

Dù liên tục hứa hẹn giảm bớt hiện tượng “ảo giác” của AI, những công cụ AI lớn – từ ChatGPT đến Perplexity, Gemini và Apple Intelligence – vẫn tiếp tục tạo ra thông tin sai lệch, thường mang lại hậu quả đáng báo động. Các chuyên gia, bao gồm cả những người cảnh báo về rủi ro của AI, đã bị lừa bởi nội dung giả mạo, và thậm chí những công cụ tiên tiến như Deep Research cũng đang tạo ra các báo cáo không chính xác. Sự thật dường như vẫn nằm trong tay con người

Chatbot đã ngày càng trở nên tốt hơn theo năm tháng – rất nhiều. Tuy nhiên, có một vấn đề chưa được giải quyết hoàn toàn và được biết đến với tên gọi là “ảo giác”.

Những chatbot yêu quý của chúng ta đưa ra những câu trả lời tài tình cho các câu hỏi của chúng ta với sự quyết tâm và quyền hạn như Yoda trong các tác phẩm khoa học viễn tưởng, ngay cả khi chúng hoàn toàn sai lầm. Và chúng ta tin tưởng họ. Đôi khi một cách mù quáng.

Nhiều nhà khoa học, chuyên gia, và thậm chí cả các nhà phát triển Chatbot đã cảnh báo về hiện tượng ảo giác từ nhiều năm nay. Tuy nhiên, trong khi việc tiếp nhận đang diễn ra nhanh chóng – OpenAI báo cáo 400 triệu người dùng hàng tuần chỉ vài ngày trước – sự hiểu biết về AI chưa theo kịp.

Các nghiên cứu gần đây, các vụ kiện tòa và các sự kiện gây sốc liên tục cho thấy thông tin sai lệch còn nguy hiểm hơn chúng ta nghĩ.

Tình hình Tệ hơn Chúng ta Tưởng

Ban đầu, việc phát hiện ra những lỗi lớn do trí tuệ nhân tạo tạo ra khá là buồn cười – giống như những bản tóm tắt AI gây xấu hổ do Gemini tạo ra đề nghị người dùng thêm “keo không độc vào sốt” cho công thức pizza hoặc khuyên dùng “một viên đá nhỏ mỗi ngày” vào năm ngoái. Nhưng, khi chúng ta lấy lại niềm tin vào AI, tình hình đã leo thang, trở nên ngày càng đáng lo ngại.

Vào tháng 12, chúng ta đã thấy công cụ AI của Apple tạo ra tiêu đề “tóm tắt” tin tức và tạo ra thông tin giả mạo và gây hiểu lầm như việc tuyên bố sai lầm rằng BBC đã thông báo Luigi Mangione tự sát. Sau vụ việc này, tờ báo đã đệ đơn tố cáo Apple và bắt đầu nghiên cứu về độ chính xác của AI sinh thái trong việc phân tích nội dung tin tức.

Kết quả tìm hiểu của BBC, được công bố chỉ vài ngày trước, đã tiết lộ những con số đáng báo động: 51% câu trả lời do các Chatbot AI phổ biến cung cấp có những vấn đề lớn, 13% các trích dẫn do các mô hình cung cấp hoàn toàn bị tạo ra, và 19% dữ liệu bị sai.

Các thiếu niên là nhóm người bị ảnh hưởng nhiều nhất, vì họ thường gặp khó khăn trong việc phân biệt tin tức giả từ tin tức thật, và có thể dễ dàng bị nội dung do AI tạo ra tác động. Một nghiên cứu công bố vào tháng Một cho thấy rằng 35% số thiếu niên đã bị lừa bởi nội dung giả mạo do các mô hình AI tạo ra, và 22% đã chia sẻ thông tin giả mạo này.

Nhưng không chỉ là thiếu niên và những người dễ bị phân tâm bị lừa bởi những ảo giác này. Và đây không chỉ là Gemini hay Apple Intelligence.

Không Mô Hình AI Nào Được Tránh Khỏi, Không Ngành Nghề Nào Thật Sự An Toàn

Nghiên cứu được thực hiện bởi BBC đã xác nhận một vấn đề khác: tất cả các mô hình AI đều có triệu chứng ảo giác. Các chuyên gia đã xem xét những mô hình phổ biến nhất, như ChatGPT, Gemini, Perplexity và Copilot. Không có mô hình AI nào không mắc lỗi. Anthropic có một trang web giải quyết vấn đề này, đưa ra các ý tưởng về cách giảm bớt triệu chứng ảo giác.

“Ngay cả những mô hình ngôn ngữ tiên tiến nhất, như Claude, đôi khi cũng tạo ra văn bản chứa thông tin không chính xác hoặc không phù hợp với ngữ cảnh đã đưa ra,” đoạn tài liệu nêu. Các công ty AI khác đã chia sẻ những trang tương tự với các mẹo và thủ thuật để tránh nội dung giả mạo, nhưng việc này không hề đơn giản và đây đã là một vấn đề chưa được giải quyết từ khá lâu.

Trở lại năm 2023, OpenAI đã thông báo rằng họ đang nghiên cứu về các phương pháp mới và sáng tạo để loại bỏ hiện tượng ảo giác. Tiết lộ trước: vấn đề này vẫn là một vấn đề lớn cho đến ngày nay.

Vào tháng Một năm 2024 – hơn một năm trước – CEO Aravind Srinivas đã nói rằng hiện tượng ảo giác chủ yếu xuất hiện trong các tài khoản không trả phí của Perplexity. “Hầu hết các khiếu nại đều đến từ phiên bản miễn phí của sản phẩm,” Srinivas giải thích, và thêm rằng họ đã đưa ra thêm nhiều GPU để khắc phục vấn đề. Tuy nhiên, vào tháng Mười, New York Post và Dow Jones đã khởi kiện Perplexity – vì mô hình của họ liên tục gán tin tức giả cho các ấn phẩm của họ – và công cụ AI được phát triển bởi startup cho cuộc bầu cử Hoa Kỳ đã bị kiểm tra bởi các chuyên gia đã tiết lộ những sai sót, tóm tắt không chính xác và hiện tượng ảo giác.

Bệnh Ảo Giác Đang Lan Tới Mức Độ Khoa Học và Học Thuật

Một trong những mối quan tâm lớn nhất hiện nay là ngay cả các chuyên gia- bao gồm những người cảnh báo về những rủi ro và nguy hiểm của AI – cũng đã bị các công cụ dễ gây ảo giác này đánh lừa.

Vào tháng 12, giáo sư Stanford và chuyên gia về công nghệ và thông tin sai lệch Jeff Hancock bị cáo buộc sử dụng AI để soạn bản tuyên bố tại tòa. Hancock đã nộp một bản tuyên bố dài 12 trang bảo vệ luật 2023 của bang, hình sự hóa việc sử dụng deepfakes, bao gồm 15 trích dẫn. Tuy nhiên, hai trong số những trích dẫn đó không thể tìm thấy ở đâu – bởi vì ChatGPT, công cụ AI mà chuyên gia thông tin sai lệch ưa chuộng, đã đơn giản là tạo ra chúng.

Hancock – dự kiến giảng dạy “Sự Thật, Niềm Tin và Công Nghệ” năm nay – giải thích rằng anh đã sử dụng chatbot của OpenAI để tổ chức các trích dẫn của mình, điều này đã dẫn đến những ảo giác. Nhà nghiên cứu đã xin lỗi – và kiên trì với những điểm chính của tuyên bố của mình – và đã dạy cho tất cả chúng ta bài học quý giá rằng ngay cả những chuyên gia và những người hiểu biết nhất về rủi ro AI cũng có thể bị nó ảnh hưởng.

Giáo sư Hancock không phải là người duy nhất nộp các tài liệu chứa sự bịa đặt do AI tạo ra trong tòa án, tất nhiên. Một trường hợp khác liên quan đến một vụ kiện chống lại Walmart gần đây đã trở nên nổi tiếng bởi vì các luật sư đã sử dụng các vụ án giả mạo do AI tạo ra để xây dựng lập luận của mình. Thực tế là, vấn đề này đã trở nên phổ biến trong các tòa án của Mỹ đến nỗi rằng công ty luật Morgan & Morgan gần đây đã gửi email cho hơn 1.000 luật sư của mình, cảnh báo họ về những rủi ro khi sử dụng trích dẫn do AI tạo ra, và Hiệp hội Luật sư Mỹ đã nhắc nhở 400.000 thành viên của mình về quy tắc đạo đức của luật sư – bao gồm cả thông tin do AI tạo ra.

Nghiên Cứu Sâu Cũng Vậy

Một trong những công cụ AI phổ biến nhất hiện nay là “Deep Research,” được thiết kế cho các chuyên gia và nhà khoa học đang tìm kiếm kết quả phức tạp hơn trong nghiên cứu của họ. Những ảo giác cũng không vắng mặt trong công cụ này, mặc dù phiên bản của OpenAI ban đầu yêu cầu phải có gói Pro 200 đô la để truy cập.

Những người dùng trên Reddit đã đưa ra những lo ngại về vấn đề này, báo cáo rằng tất cả các mô hình phổ biến sử dụng công cụ nghiên cứu sâu—Perplexity, ChatGPT, và DeepSeek—đều đã gặp phải ảo giác. Các nhà nghiên cứu và chuyên gia AI cũng đã chia sẻ những kết quả gây lo ngại trên các nền tảng mạng xã hội khác như X.

“Công cụ đã tạo ra một bản báo cáo được viết và tranh luận một cách tuyệt đẹp,” ghi lại của một người dùng đã sử dụng công cụ Deep Research của OpenAI để nghiên cứu toán học của giới trẻ. “Vấn đề duy nhất là tất cả đều được bịa đặt.”

“Deep Research đã bịa đặt một loạt số liệu thống kê & phân tích, trong khi tuyên bố đã biên soạn một bộ dữ liệu gồm hàng ngàn bài viết, & được cho là đã thu thập thông tin về năm sinh của mỗi tác giả từ các nguồn tin cậy,” chia sẻ người khác. “Không có gì trong số này là sự thật.”

Sự Thật Vẫn Nằm Trong Tay Con Người

Liệu chatbot có bao giờ ngừng mơ mộng không? Điểm yếu của AI đã rõ ràng từ nhiều năm nay – chúng ta đã thấy nó trong các chương trình podcast như Planet Money khi họ thử nghiệm các tập do AI tạo ra vào năm 2023, và chúng ta vẫn tiếp tục thấy nó trong những mô hình tiên tiến nhất, ngay cả những mô hình được thiết kế dành riêng cho việc sử dụng độc quyền của các cộng đồng chuyên gia và sành công nghệ.

Có lẽ đã đến lúc chúng ta phải chấp nhận rằng đây sẽ là một vấn đề kéo dài và nhận biết rằng chúng ta phải chịu trách nhiệm về những gì chúng ta tạo ra và chia sẻ bằng các công cụ AI.

Thực tế là mặc dù đây dường như là một vấn đề đã được biết đến rộng rãi, nhưng chính các chuyên gia về rủi ro AI cũng đang bị lôi cuốn bởi lối viết thuyết phục và thuyết phục của AI, đây thực sự là một vấn đề đáng quan ngại. Tình hình càng trở nên phức tạp hơn khi việc áp dụng tiếp tục tăng tốc với tốc độ tối đa, vượt qua khả năng đọc hiểu số hóa, trong khi sự không nhất quán và các trích dẫn được chế tạo lại ngày càng nhiều.

Những trường hợp mà những ảo giác của AI đã bị phơi bày thường là những trường hợp mà việc kiểm tra thông tin là vô cùng quan trọng – điều mà Zuckerberg nên nhớ sau khi anh ta đã giải tán bộ phận kiểm tra thông tin của mình. Điều này đặc biệt rõ ràng trong các phòng xử án, nơi luật sư và các thẩm phán làm việc để xác minh thông tin và các vụ kiện, và trong các phương tiện truyền thông, nơi độ chính xác và việc xác thực nguồn thông tin là điều quan trọng.

Nhưng về những trường hợp mà không ai kiểm tra những chi tiết này thì sao? Điều gì xảy ra trong những ngữ cảnh hàng ngày, cá nhân hơn? Hiện tại, hàng triệu học sinh đang ghi nhớ các câu trả lời do AI tạo ra cho việc học của mình, người dùng đang tuân theo các chỉ dẫn do AI cung cấp để điều trị các bệnh lý, và người khác đang học hỏi về các chủ đề mới, hoàn toàn tin tưởng vào công nghệ.

Hậu quả của thực tế mới mà chúng ta đang đối mặt không thể đo lường và dự đoán được, và sự thật – cho đến bây giờ – đang nằm trong tay những ai dành thời gian để đặt câu hỏi và kiểm chứng.

Bạn có thích bài viết này không?
Hãy để lại đánh giá nhé!
Tôi không thích Tôi thực sự rất thích Cũng ổn đấy Khá tốt! Thích lắm!

Chúng tôi rất vui khi bạn thích sản phẩm của chúng tôi!

Với tư cách là một độc giả quý giá, bạn có thể vui lòng đánh giá về chúng tôi trên Trustpilot không? Việc này rất nhanh và có ý nghĩa vô cùng to lớn đối với chúng tôi. Xin cảm ơn vì bạn thật tuyệt vời!

Đánh giá chúng tôi trên Trustpilot
0 Được bình chọn bởi 0 người dùng
Tiêu đề
Bình luận
Cảm ơn bạn đã phản hồi
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Để lại bình luận

Loader
Loader Hiển thị thêm...