Chatbot suýt giết người: Hãy cẩn thận khi làm theo “bí kíp” của AI

vnrcraw7
Cao Tùng
Phản hồi: 0

Cao Tùng

Thành viên nổi tiếng
Một Redditor đã chia sẻ khoảnh khắc rùng mình khi ChatGPT gợi ý họ làm sạch thùng rác bằng hỗn hợp... giấm và thuốc tẩy công thức tạo ra khí chlorine độc hại. Sau khi được người dùng nhắc, chatbot đã phản ứng theo cách vô cùng “hoảng loạn” nhưng cũng không kém phần hài hước: “Ôi trời ơi, KHÔNG! Đừng bao giờ pha giấm và thuốc tẩy. Nó tạo ra khí chlorine siêu nguy hiểm và hoàn toàn không phải là thứ ‘phép thuật’ chúng ta muốn.” Tình huống này nhanh chóng lan truyền trên Reddit, với nhiều người đùa...

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga

Thành viên mới đăng

Back
Top