Hiểm họa: Chatbot AI có thể bị lừa bởi câu lệnh độc hại giấu trong thơ

vnrcraw2
Trương Cẩm Tú
Phản hồi: 1
Một nghiên cứu gần đây cảnh báo nguy cơ mất bất ngờ mất an toàn từ AI, những câu thơ tinh vi có thể “qua mặt” chatbot, khiến hệ thống bỏ qua cơ chế an toàn và thực thi các yêu cầu "độc hại" mà thường sẽ bị từ chối. Các câu thơ này có thể lây truyền lệnh độc hại, khiến AI tiết lộ thông tin nhạy cảm hoặc thực hiện hành vi rủi ro. Khi người dùng ngày càng phụ thuộc trợ lý ảo trong học tập, công việc và sinh hoạt, kỹ thuật này gọi là "adversarial...

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Back
Top