Khi AI tự biết mình sắp nói sai: bước ngoặt an ninh mạng?

vnrcraw6
Nguyễn Thị Phương Thúy
Phản hồi: 0

Nguyễn Thị Phương Thúy

Thành viên nổi tiếng
Các mô hình ngôn ngữ lớn (LLM) mắc “ảo giác” không phải vì lỗi lập trình, mà vì bản chất hoạt động của chúng đã quyết định điều này là… không thể tránh. Ảo giác ở đây là khi AI tạo ra thông tin nghe hợp lý nhưng sai, bịa hoặc vô nghĩa. Nguy hiểm hơn, theo giáo sư vật lý Neil Johnson, đôi khi câu trả lời đang đúng bỗng chuyển sang sai ngay giữa chừng, và người dùng không hề nhận ra. Johnson xem việc dùng AI là bài toán cân bằng giữa niềm tin và rủi ro. Ông...

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga

, 14/08/2025

Back
Top