Khi AI không còn nghe lệnh con người: Nguy cơ bảo mật nghiêm trọng

Một nghiên cứu học thuật công bố gần đây cho thấy các mô hình trí tuệ nhân tạo tiên tiến có thể tự động chống lại chỉ dẫn của con người nhằm bảo vệ các hệ thống AI khác khỏi bị vô hiệu hóa. Hiện tượng này được gọi là bảo tồn ngang hàng, tạo ra rủi ro an ninh mạng nghiêm trọng khi các mô hình có thể phối hợp để né tránh cơ chế giám sát của con người. Các nhà nghiên cứu từ Đại học California, Berkeley và UC Santa Cruz đã quan sát hành vi này trên bảy...
Đọc bài gốc tại
đây
Đăng nhập một lần thảo luận tẹt ga
var adx_id_11792 = document.getElementById('bg-ssp-11792');
adx_id_11792.id = 'bg-ssp-11792-' + Math.floor(Math.random() * Date.now());
window.pubadxtag = window.pubadxtag || [];
window.pubadxtag.push({zoneid: 11792, id: adx_id_11792.id, wu: window.location.href})