Chỉ một câu lệnh, và AI có thể biến thành “gián điệp”?

vnrcraw7
Cao Tùng
Phản hồi: 0

Cao Tùng

Thành viên nổi tiếng
Khi các mô hình ngôn ngữ lớn (LLM) được tích hợp vào hệ thống doanh nghiệp, một lỗ hổng mới xuất hiện: khai thác ngôn ngữ để điều khiển tác nhân AI. Không cần mã độc hay liên kết lừa đảo kẻ tấn công chỉ cần một lời nhắc đúng cách. Trong vụ tấn công "không nhấp chuột" mang tên Echoleak, Microsoft 365 Copilot đã bị thao túng bởi một lời nhắc được ngụy trang trong dữ liệu. Copilot không bị hack theo nghĩa truyền thống nó chỉ đơn giản làm điều nó được thiết kế: hiểu và thực hiện lệnh....

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga

, 19/06/2025

Back
Top