Chi Le
Thành viên nổi tiếng
Khoảng 20% doanh thu quảng cáo của Meta đến từ lừa đảo, nên điều này không có gì bất ngờ, nhưng vẫn cảm thấy kinh khủng!
Theo hồ sơ tòa án được công bố hôm thứ Sáu, 21/11/2025, nạn buôn bán tìnhdục trên các nền tảng Meta vừa khó bị báo cáo vừa được dung túng rộng rãi. Trong đơn khởi kiện của nguyên đơn, một phần của vụ kiện lớn chống lại bốn công ty truyền thông xã hội, cựu giám đốc an toàn và phúc lợi của Instagram, Vaishnavi Jayakumar, đã làm chứng rằng khi bà gia nhập Meta vào năm 2020, bà đã rất sốc khi biết công ty có chính sách cảnh cáo "17 lần" đối với các tài khoản bị cáo buộc tham gia vào "buôn bán người để phục vụ tình dục".
Jayakumar được cho là đã làm chứng rằng: "Bạn có thể vi phạm 16 lần về mại *** và gạ gẫm tình dục, và khi vi phạm lần thứ 17, tài khoản của bạn sẽ bị đình chỉ", đồng thời nói thêm rằng "theo bất kỳ thước đo nào trong ngành, [đó] là ngưỡng đình chỉ rất, rất cao". Nguyên đơn tuyên bố rằng lời khai này được xác nhận bởi các tài liệu nội bộ của công ty.
Bản tóm tắt, do các nguyên đơn đệ trình tại Quận Bắc California, cáo buộc rằng Meta đã nhận thức được những tác hại nghiêm trọng trên nền tảng của mình và đã thực hiện một mô hình lừa đảo rộng rãi để giảm thiểu rủi ro cho người dùng trẻ tuổi. Theo bản tóm tắt, Meta đã nhận thức được rằng hàng triệu người lạ trưởng thành đang liên hệ với trẻ vị thành niên trên các trang web của mình; rằng các sản phẩm của họ làm trầm trọng thêm các vấn đề sức khỏe tâm thần ở thanh thiếu niên; và rằng nội dung liên quan đến rối loạn ăn uống, ***** và lạm dụng tình dục trẻ em thường xuyên bị phát hiện, nhưng hiếm khi bị xóa. Theo bản tóm tắt, công ty đã không tiết lộ những tác hại này cho công chúng hoặc Quốc hội, và từ chối thực hiện các bản sửa lỗi an toàn có thể bảo vệ người dùng trẻ tuổi.
"Meta đã thiết kế các sản phẩm và nền tảng truyền thông xã hội mà họ biết là gây nghiện cho trẻ em, và họ cũng nhận thức được rằng những chứng nghiện này dẫn đến hàng loạt vấn đề sức khỏe tâm thần nghiêm trọng", Previn Warren, đồng luật sư đại diện cho nguyên đơn trong vụ kiện, cho biết. "Giống như thuốc lá, đây là tình huống có những sản phẩm nguy hiểm được tiếp thị cho trẻ em", Warren nói thêm. "Họ vẫn làm vậy, bởi vì càng sử dụng nhiều thì càng có lợi nhuận cho công ty."
Những cáo buộc sau đây chống lại Meta xuất phát từ bản tóm tắt được đệ trình trong một vụ kiện liên quận chưa từng có tiền lệ. Hơn 1.800 nguyên đơn bao gồm trẻ em và phụ huynh, các khu học chánh và tổng chưởng lý tiểu bang đã cùng nhau đệ đơn kiện, cáo buộc các công ty mẹ đứng sau Instagram, TikTok, Snapchat và YouTube “không ngừng theo đuổi chiến lược tăng trưởng bằng mọi giá, bất chấp tác động của sản phẩm đối với sức khỏe tinh thần và thể chất của trẻ em”, theo đơn kiện chính của họ. Những cáo buộc mới được công bố về Meta chỉ là một phần nhỏ của vụ kiện đang diễn ra.
Bản tóm tắt của nguyên đơn, được TIME đưa tin lần đầu tiên, được cho là dựa trên lời khai có tuyên thệ của các giám đốc điều hành hiện tại và trước đây của Meta, thông tin liên lạc nội bộ, cùng các nghiên cứu và bài thuyết trình của công ty thu thập được trong quá trình điều tra vụ kiện. Bản tóm tắt bao gồm các trích dẫn và trích đoạn từ hàng nghìn trang lời khai và tài liệu nội bộ của công ty. TIME không thể độc lập xem xét lời khai hoặc nghiên cứu cơ bản được trích dẫn trong bản tóm tắt, vì những tài liệu này vẫn đang được niêm phong.
Tuy nhiên, bản tóm tắt vẫn vẽ nên một bức tranh đáng lên án về hoạt động nghiên cứu nội bộ và những cân nhắc của công ty về các vấn đề đã tồn tại từ lâu trên nền tảng của họ. Các nguyên đơn khẳng định rằng kể từ năm 2017, Meta đã tích cực theo đuổi người dùng trẻ tuổi, ngay cả khi nghiên cứu nội bộ cho thấy các sản phẩm mạng xã hội của công ty có thể gây nghiện và nguy hiểm cho trẻ em. Theo bản tóm tắt, nhân viên Meta đã đề xuất nhiều cách để giảm thiểu những tác hại này, nhưng liên tục bị các giám đốc điều hành bác bỏ vì lo ngại rằng các tính năng an toàn mới sẽ cản trở sự tương tác của thanh thiếu niên hoặc sự phát triển của người dùng.
Trong những năm kể từ khi vụ kiện được đệ trình, Meta đã triển khai các tính năng an toàn mới được thiết kế để giải quyết một số vấn đề mà các nguyên đơn mô tả. Năm 2024, Meta đã ra mắt Tài khoản Instagram dành cho thanh thiếu niên, mặc định bất kỳ người dùng nào từ 13 đến 18 tuổi sẽ được tự động chuyển sang tài khoản riêng tư, giới hạn nội dung nhạy cảm, tắt thông báo vào ban đêm và không cho phép nhắn tin từ người lớn không kết nối. "Chúng tôi hiểu rằng các bậc phụ huynh lo lắng về việc con em mình có những trải nghiệm trực tuyến không an toàn hoặc không phù hợp, và đó là lý do tại sao chúng tôi đã thiết kế lại đáng kể trải nghiệm Instagram cho hàng chục triệu thanh thiếu niên với Tài khoản dành cho thanh thiếu niên mới", một phát ngôn viên của Meta chia sẻ với tạp chí TIME vào tháng 6. "Những tài khoản này cung cấp cho thanh thiếu niên các biện pháp bảo vệ tích hợp để tự động giới hạn người liên hệ và nội dung mà họ nhìn thấy, và thanh thiếu niên dưới 16 tuổi cần có sự cho phép của cha mẹ để thay đổi các cài đặt đó. Chúng tôi cũng cung cấp cho phụ huynh quyền giám sát việc sử dụng Instagram của con em mình, với các cách để xem con em mình đang trò chuyện với ai và chặn chúng sử dụng ứng dụng quá 15 phút mỗi ngày hoặc trong một số khoảng thời gian nhất định, chẳng hạn như trong giờ học hoặc vào ban đêm."
Tuy nhiên, đơn kiện của nguyên đơn cho thấy Meta đã phản đối những thay đổi về an toàn như thế này trong nhiều năm.
Bản tóm tắt trích dẫn lời khai của Brian Boland, cựu phó chủ tịch phụ trách quan hệ đối tác của Meta, người đã làm việc tại công ty 11 năm và từ chức vào năm 2020. "Cảm giác của tôi lúc đó và bây giờ là họ không thực sự quan tâm đến sự an toàn của người dùng", ông được cho là đã nói. "Đó không phải là điều họ dành nhiều thời gian cho. Đó không phải là điều họ nghĩ đến. Và tôi thực sự nghĩ rằng họ không quan tâm."
Sau khi đơn kiện của nguyên đơn được công bố vào đêm muộn thứ sáu, Meta đã không trả lời ngay lập tức yêu cầu bình luận của TIME.
Sau đây là một số cáo buộc đáng chú ý nhất từ bản tóm tắt của nguyên đơn:
Jayakumar còn sốc hơn khi biết Instagram có mức độ dung túng cao đáng lo ngại đối với nạn buôn bán tình dục trên nền tảng này. Theo bản tóm tắt, cô làm chứng rằng Meta có chính sách cảnh cáo "17 lần" đối với các tài khoản bị cáo buộc tham gia vào "buôn bán người để phục vụ tình dục", nghĩa là cần ít nhất 16 báo cáo để xóa một tài khoản.
Nguyên đơn viết: "Meta chưa bao giờ nói với phụ huynh, công chúng hoặc các Quận rằng họ không xóa các tài khoản đã tham gia vào hoạt động buôn bán tình dục hơn mười lăm lần".
Vào cuối năm 2019, theo bản tóm tắt, Meta đã thiết kế một "nghiên cứu ngừng hoạt động", phát hiện ra rằng những người dùng ngừng sử dụng Facebook và Instagram trong một tuần có tỷ lệ lo lắng, trầm cảm và cô đơn thấp hơn. Meta đã dừng nghiên cứu và không công bố kết quả, tuyên bố rằng nghiên cứu này bị ảnh hưởng bởi "những câu chuyện truyền thông hiện có xung quanh công ty".
Ít nhất một nhân viên của Meta cảm thấy không thoải mái với những tác động của quyết định này: "Nếu kết quả tệ và chúng tôi không công bố và chúng bị rò rỉ", nhân viên này viết, theo bản tóm tắt, "thì liệu có giống như các công ty thuốc lá đã nghiên cứu và biết rằng thuốc lá có hại nhưng lại giữ thông tin đó cho riêng mình không?"
Thật vậy, vào tháng 12 năm 2020, khi Ủy ban Tư pháp Thượng viện hỏi công ty trong một loạt câu hỏi bằng văn bản rằng liệu công ty có "có thể xác định liệu việc sử dụng nền tảng của công ty ngày càng nhiều ở các bé gái tuổi teen có mối tương quan nào với các dấu hiệu trầm cảm gia tăng" và "các dấu hiệu lo lắng gia tăng" hay không, công ty chỉ đưa ra câu trả lời ngắn gọn: "Không".
Đối với các nguyên đơn trong vụ kiện, hàm ý rất rõ ràng: "Công ty chưa bao giờ công khai kết quả nghiên cứu vô hiệu hóa của mình. Thay vào đó, Meta đã nói dối Quốc hội về những gì họ biết."
Đến năm 2020, nhóm phát triển đã xác định rằng việc mặc định chế độ riêng tư sẽ dẫn đến việc mất 1,5 triệu thanh thiếu niên hoạt động hàng tháng trên Instagram mỗi năm. Bản tóm tắt của nguyên đơn trích dẫn lời một nhân viên giấu tên: "Việc xóa bỏ những tương tác không mong muốn... có thể dẫn đến một vấn đề tiềm ẩn không thể giải quyết được về mức độ tương tác và tăng trưởng." Trong vài tháng tiếp theo, các nguyên đơn cáo buộc, các nhóm chính sách, pháp lý, truyền thông, quyền riêng tư và phúc lợi của Meta đều khuyến nghị mặc định đặt tài khoản thanh thiếu niên ở chế độ riêng tư, lập luận rằng việc chuyển đổi này "sẽ tăng cường sự an toàn cho thanh thiếu niên" và phù hợp với kỳ vọng của người dùng, phụ huynh và cơ quan quản lý. Tuy nhiên, Meta đã không ra mắt tính năng này trong năm đó.
Theo trích đoạn một cuộc trò chuyện nội bộ được trích dẫn trong hồ sơ, các nhà nghiên cứu an toàn đã rất thất vọng. Một người được cho là đã càu nhàu: "Chẳng phải an toàn là mục tiêu chính của đội này sao?"
"Meta biết rằng việc đặt thanh thiếu niên vào chế độ riêng tư mặc định sẽ loại bỏ 5,4 triệu tương tác không mong muốn mỗi ngày", các nguyên đơn viết. Tuy nhiên, Meta đã không khắc phục được vấn đề. Thay vào đó, theo bản tóm tắt, các tương tác không phù hợp giữa người lớn và trẻ em trên Instagram đã tăng vọt lên gấp 38 lần so với Facebook Messenger. Việc ra mắt Instagram Reels được cho là đã làm trầm trọng thêm vấn đề. Nó cho phép thanh thiếu niên phát sóng các video ngắn đến nhiều đối tượng, bao gồm cả người lạ trưởng thành.
Một cuộc kiểm toán nội bộ năm 2022 được cho là đã phát hiện ra rằng tính năng "Tài khoản bạn có thể theo dõi" của Instagram đã đề xuất 1,4 triệu người lớn có khả năng không phù hợp cho người dùng tuổi teen chỉ trong một ngày. Theo các nguyên đơn, đến năm 2023, Meta đã biết rằng họ đang đề xuất trẻ vị thành niên cho người lớn có khả năng đáng ngờ và ngược lại.
Phải đến năm 2024, Meta mới triển khai cài đặt quyền riêng tư mặc định cho tất cả tài khoản thanh thiếu niên. Trong bốn năm công ty thực hiện các khuyến nghị an toàn của riêng mình, thanh thiếu niên đã trải qua hàng tỷ tương tác không mong muốn với người lạ trực tuyến. Theo bản tóm tắt, những cuộc gặp gỡ không phù hợp giữa thanh thiếu niên và người lớn khá phổ biến đến mức công ty phải viết tắt là "IIC" (tương tác không phù hợp với trẻ em).
Meta đã phát động chiến dịch kết nối với các khu học chánh và các tổ chức được trả lương như Hiệp hội Phụ huynh Giáo viên Quốc gia và Scholastic để tiếp cận các trường học và gia đình. Trong khi đó, theo bản tóm tắt, Meta đã sử dụng dữ liệu vị trí để đẩy thông báo đến học sinh trong các chương trình "school blast", có lẽ là một phần trong nỗ lực tăng cường sự tham gia của thanh thiếu niên trong ngày học. Như một nhân viên được cho là đã nói: "Một trong những điều chúng ta cần tối ưu hóa là việc lén nhìn điện thoại dưới gầm bàn giữa giờ học Hóa
".
Mặc dù Meta tích cực theo đuổi người dùng trẻ tuổi, nhưng có lẽ họ không biết chính xác độ tuổi của những người dùng mới này. Người tố giác Jason Sattizahn gần đây đã làm chứng trước Quốc hội rằng Meta không biết chính xác độ tuổi của người dùng. (Meta đã bác bỏ lời khai của Sattizahn, nói trong một tuyên bố với NBC rằng những tuyên bố của ông là "vô nghĩa" và "dựa trên các tài liệu nội bộ bị rò rỉ có chọn lọc, được chọn lọc đặc biệt để tạo ra một câu chuyện sai lệch.") Theo hồ sơ của nguyên đơn, năm 2022, có 216 triệu người dùng trên các nền tảng Meta "không rõ tuổi".
Luật liên bang yêu cầu các nền tảng mạng xã hội phải tuân thủ nhiều biện pháp bảo vệ quyền riêng tư dữ liệu khác nhau đối với người dùng dưới 13 tuổi, và chính sách của Meta quy định rằng người dùng dưới 13 tuổi không được phép sử dụng nền tảng của mình. Tuy nhiên, đơn kiện của nguyên đơn khẳng định Meta biết rõ trẻ em dưới 13 tuổi vẫn sử dụng sản phẩm của công ty. Nghiên cứu nội bộ được trích dẫn trong bản tóm tắt cho thấy có 4 triệu người dùng dưới 13 tuổi trên Instagram vào năm 2015; đến năm 2018, nguyên đơn cho biết Meta biết rằng khoảng 40% trẻ em từ 9 đến 12 tuổi cho biết chúng sử dụng Instagram hàng ngày.
Các nguyên đơn cáo buộc đây là một chiến lược kinh doanh có chủ đích. Bản tóm tắt mô tả nỗ lực phối hợp nhằm thu hút người dùng trẻ tuổi, bao gồm việc nghiên cứu tâm lý và hành vi kỹ thuật số của "tweens" (trẻ vị thành niên) và khám phá các sản phẩm mới được thiết kế cho "người dùng từ 5-10 tuổi".
Nội bộ một số nhân viên bày tỏ sự phẫn nộ trước nỗ lực nhắm vào trẻ vị thành niên. "Ồ, tốt quá, giờ chúng ta nhắm vào trẻ em dưới 13 tuổi à?", một người viết, theo bản tóm tắt. "Zuck đã nói về điều đó một thời gian rồi... nhắm vào trẻ em 11 tuổi nghe giống như các công ty thuốc lá vài thập kỷ trước (và cả bây giờ nữa). Giống như chúng ta đang nghiêm túc nói rằng 'chúng ta phải lôi kéo chúng khi còn trẻ' vậy."
Nhưng sau một loạt thử nghiệm, Meta đã rút lại dự án Daisy. Họ xác định tính năng này "khá tiêu cực đối với các chỉ số của FB", bao gồm cả doanh thu quảng cáo, theo đơn kiện của nguyên đơn, trích dẫn lời một nhân viên giấu tên trong nhóm phát triển khẳng định: "Nó là một ứng dụng so sánh xã hội, chết tiệt, hãy làm quen với nó đi."
Một cuộc tranh luận tương tự cũng diễn ra về các bộ lọc làm đẹp của ứng dụng. Các nguyên đơn cho rằng một đánh giá nội bộ đã kết luận rằng các bộ lọc làm đẹp làm trầm trọng thêm "nguy cơ và sự duy trì của một số vấn đề sức khỏe tâm thần, bao gồm sự không hài lòng về cơ thể, rối loạn ăn uống và rối loạn lo âu về ngoại hình", và Meta biết rằng "trẻ em đặc biệt dễ bị tổn thương". Theo đơn kiện của nguyên đơn, Meta đã cấm các bộ lọc làm đẹp vào năm 2019, nhưng lại gỡ bỏ chúng vào năm sau đó sau khi công ty nhận ra rằng việc cấm các bộ lọc làm đẹp sẽ "ảnh hưởng tiêu cực đến tăng trưởng".
Các nhà nghiên cứu khác của công ty bị cáo buộc đã xây dựng một "bộ phân loại" AI để xác định nội dung có thể dẫn đến việc so sánh ngoại hình tiêu cực, nhờ đó Meta có thể tránh đề xuất nội dung này cho trẻ em dễ bị tổn thương. Tuy nhiên, Mosseri bị cáo buộc đã hủy bỏ dự án, khiến các nhà phát triển thất vọng vì "cảm thấy họ đã có giải pháp" cho "một vấn đề lớn".
Các nguyên đơn cáo buộc Meta không chính thức nghiên cứu về tình trạng nghiện sản phẩm của mình; công ty nghiên cứu về "việc sử dụng có vấn đề". Năm 2018, các nhà nghiên cứu của công ty đã khảo sát 20.000 người dùng Facebook tại Hoa Kỳ và phát hiện ra rằng 58% có một số mức độ "sử dụng có vấn đề" - 55% nhẹ và 3,1% nghiêm trọng. Tuy nhiên, khi Meta công bố báo cáo về nghiên cứu này vào năm sau, chỉ có một số ít người dùng có tình trạng sử dụng có vấn đề "nghiêm trọng" được đề cập. "Chúng tôi ước tính (theo giới hạn trên) rằng 3,1% người dùng Facebook tại Hoa Kỳ gặp phải tình trạng sử dụng có vấn đề", các nhà nghiên cứu viết . 55% người dùng còn lại không được đề cập trong bất kỳ báo cáo công khai nào.
Các nguyên đơn cáo buộc rằng nhóm an toàn của Meta đã đề xuất các tính năng được thiết kế để giảm thiểu tình trạng nghiện, nhưng cuối cùng lại bị gạt sang một bên hoặc làm giảm chất lượng. Một nhân viên đã giúp phát triển tính năng "chế độ im lặng" cho biết tính năng này đã bị gác lại vì Meta lo ngại rằng tính năng này sẽ ảnh hưởng tiêu cực đến các chỉ số liên quan đến tăng trưởng và mức độ sử dụng.
Cùng thời điểm đó, một nhà nghiên cứu trải nghiệm người dùng khác tại Instagram được cho là đã khuyến nghị Meta thông báo cho công chúng về những phát hiện nghiên cứu của mình: "Vì sản phẩm của chúng tôi khai thác điểm yếu trong tâm lý con người để thúc đẩy sự tương tác với sản phẩm và thời gian sử dụng", nhà nghiên cứu này viết, Meta cần phải "cảnh báo mọi người về tác động của sản phẩm lên não bộ của họ".
Meta thì không.
Theo hồ sơ tòa án được công bố hôm thứ Sáu, 21/11/2025, nạn buôn bán tìnhdục trên các nền tảng Meta vừa khó bị báo cáo vừa được dung túng rộng rãi. Trong đơn khởi kiện của nguyên đơn, một phần của vụ kiện lớn chống lại bốn công ty truyền thông xã hội, cựu giám đốc an toàn và phúc lợi của Instagram, Vaishnavi Jayakumar, đã làm chứng rằng khi bà gia nhập Meta vào năm 2020, bà đã rất sốc khi biết công ty có chính sách cảnh cáo "17 lần" đối với các tài khoản bị cáo buộc tham gia vào "buôn bán người để phục vụ tình dục".
Jayakumar được cho là đã làm chứng rằng: "Bạn có thể vi phạm 16 lần về mại *** và gạ gẫm tình dục, và khi vi phạm lần thứ 17, tài khoản của bạn sẽ bị đình chỉ", đồng thời nói thêm rằng "theo bất kỳ thước đo nào trong ngành, [đó] là ngưỡng đình chỉ rất, rất cao". Nguyên đơn tuyên bố rằng lời khai này được xác nhận bởi các tài liệu nội bộ của công ty.
Bản tóm tắt, do các nguyên đơn đệ trình tại Quận Bắc California, cáo buộc rằng Meta đã nhận thức được những tác hại nghiêm trọng trên nền tảng của mình và đã thực hiện một mô hình lừa đảo rộng rãi để giảm thiểu rủi ro cho người dùng trẻ tuổi. Theo bản tóm tắt, Meta đã nhận thức được rằng hàng triệu người lạ trưởng thành đang liên hệ với trẻ vị thành niên trên các trang web của mình; rằng các sản phẩm của họ làm trầm trọng thêm các vấn đề sức khỏe tâm thần ở thanh thiếu niên; và rằng nội dung liên quan đến rối loạn ăn uống, ***** và lạm dụng tình dục trẻ em thường xuyên bị phát hiện, nhưng hiếm khi bị xóa. Theo bản tóm tắt, công ty đã không tiết lộ những tác hại này cho công chúng hoặc Quốc hội, và từ chối thực hiện các bản sửa lỗi an toàn có thể bảo vệ người dùng trẻ tuổi.
"Meta đã thiết kế các sản phẩm và nền tảng truyền thông xã hội mà họ biết là gây nghiện cho trẻ em, và họ cũng nhận thức được rằng những chứng nghiện này dẫn đến hàng loạt vấn đề sức khỏe tâm thần nghiêm trọng", Previn Warren, đồng luật sư đại diện cho nguyên đơn trong vụ kiện, cho biết. "Giống như thuốc lá, đây là tình huống có những sản phẩm nguy hiểm được tiếp thị cho trẻ em", Warren nói thêm. "Họ vẫn làm vậy, bởi vì càng sử dụng nhiều thì càng có lợi nhuận cho công ty."
Những cáo buộc sau đây chống lại Meta xuất phát từ bản tóm tắt được đệ trình trong một vụ kiện liên quận chưa từng có tiền lệ. Hơn 1.800 nguyên đơn bao gồm trẻ em và phụ huynh, các khu học chánh và tổng chưởng lý tiểu bang đã cùng nhau đệ đơn kiện, cáo buộc các công ty mẹ đứng sau Instagram, TikTok, Snapchat và YouTube “không ngừng theo đuổi chiến lược tăng trưởng bằng mọi giá, bất chấp tác động của sản phẩm đối với sức khỏe tinh thần và thể chất của trẻ em”, theo đơn kiện chính của họ. Những cáo buộc mới được công bố về Meta chỉ là một phần nhỏ của vụ kiện đang diễn ra.
Bản tóm tắt của nguyên đơn, được TIME đưa tin lần đầu tiên, được cho là dựa trên lời khai có tuyên thệ của các giám đốc điều hành hiện tại và trước đây của Meta, thông tin liên lạc nội bộ, cùng các nghiên cứu và bài thuyết trình của công ty thu thập được trong quá trình điều tra vụ kiện. Bản tóm tắt bao gồm các trích dẫn và trích đoạn từ hàng nghìn trang lời khai và tài liệu nội bộ của công ty. TIME không thể độc lập xem xét lời khai hoặc nghiên cứu cơ bản được trích dẫn trong bản tóm tắt, vì những tài liệu này vẫn đang được niêm phong.
Tuy nhiên, bản tóm tắt vẫn vẽ nên một bức tranh đáng lên án về hoạt động nghiên cứu nội bộ và những cân nhắc của công ty về các vấn đề đã tồn tại từ lâu trên nền tảng của họ. Các nguyên đơn khẳng định rằng kể từ năm 2017, Meta đã tích cực theo đuổi người dùng trẻ tuổi, ngay cả khi nghiên cứu nội bộ cho thấy các sản phẩm mạng xã hội của công ty có thể gây nghiện và nguy hiểm cho trẻ em. Theo bản tóm tắt, nhân viên Meta đã đề xuất nhiều cách để giảm thiểu những tác hại này, nhưng liên tục bị các giám đốc điều hành bác bỏ vì lo ngại rằng các tính năng an toàn mới sẽ cản trở sự tương tác của thanh thiếu niên hoặc sự phát triển của người dùng.
Trong những năm kể từ khi vụ kiện được đệ trình, Meta đã triển khai các tính năng an toàn mới được thiết kế để giải quyết một số vấn đề mà các nguyên đơn mô tả. Năm 2024, Meta đã ra mắt Tài khoản Instagram dành cho thanh thiếu niên, mặc định bất kỳ người dùng nào từ 13 đến 18 tuổi sẽ được tự động chuyển sang tài khoản riêng tư, giới hạn nội dung nhạy cảm, tắt thông báo vào ban đêm và không cho phép nhắn tin từ người lớn không kết nối. "Chúng tôi hiểu rằng các bậc phụ huynh lo lắng về việc con em mình có những trải nghiệm trực tuyến không an toàn hoặc không phù hợp, và đó là lý do tại sao chúng tôi đã thiết kế lại đáng kể trải nghiệm Instagram cho hàng chục triệu thanh thiếu niên với Tài khoản dành cho thanh thiếu niên mới", một phát ngôn viên của Meta chia sẻ với tạp chí TIME vào tháng 6. "Những tài khoản này cung cấp cho thanh thiếu niên các biện pháp bảo vệ tích hợp để tự động giới hạn người liên hệ và nội dung mà họ nhìn thấy, và thanh thiếu niên dưới 16 tuổi cần có sự cho phép của cha mẹ để thay đổi các cài đặt đó. Chúng tôi cũng cung cấp cho phụ huynh quyền giám sát việc sử dụng Instagram của con em mình, với các cách để xem con em mình đang trò chuyện với ai và chặn chúng sử dụng ứng dụng quá 15 phút mỗi ngày hoặc trong một số khoảng thời gian nhất định, chẳng hạn như trong giờ học hoặc vào ban đêm."
Tuy nhiên, đơn kiện của nguyên đơn cho thấy Meta đã phản đối những thay đổi về an toàn như thế này trong nhiều năm.
Bản tóm tắt trích dẫn lời khai của Brian Boland, cựu phó chủ tịch phụ trách quan hệ đối tác của Meta, người đã làm việc tại công ty 11 năm và từ chức vào năm 2020. "Cảm giác của tôi lúc đó và bây giờ là họ không thực sự quan tâm đến sự an toàn của người dùng", ông được cho là đã nói. "Đó không phải là điều họ dành nhiều thời gian cho. Đó không phải là điều họ nghĩ đến. Và tôi thực sự nghĩ rằng họ không quan tâm."
Sau khi đơn kiện của nguyên đơn được công bố vào đêm muộn thứ sáu, Meta đã không trả lời ngay lập tức yêu cầu bình luận của TIME.
Sau đây là một số cáo buộc đáng chú ý nhất từ bản tóm tắt của nguyên đơn:
Cáo buộc: Meta có ngưỡng cao đối với nội dung "buôn bán tình dục" và không có cách nào để báo cáo nội dung tình dục trẻ em
Theo bản tóm tắt, mặc dù Instagram áp dụng chính sách "không khoan nhượng" đối với nội dung lạm dụng tình dục trẻ em, nền tảng này không cung cấp cho người dùng một cách đơn giản để báo cáo nội dung lạm dụng tình dục trẻ em. Các nguyên đơn cáo buộc Jayakumar đã nhiều lần nêu vấn đề này khi cô gia nhập Meta vào năm 2020, nhưng được cho biết là quá khó để giải quyết. Tuy nhiên, theo các nguyên đơn, Instagram cho phép người dùng dễ dàng báo cáo các vi phạm ít nghiêm trọng hơn, chẳng hạn như "spam", "vi phạm sở hữu trí tuệ" và "quảng bá vũ khí".Jayakumar còn sốc hơn khi biết Instagram có mức độ dung túng cao đáng lo ngại đối với nạn buôn bán tình dục trên nền tảng này. Theo bản tóm tắt, cô làm chứng rằng Meta có chính sách cảnh cáo "17 lần" đối với các tài khoản bị cáo buộc tham gia vào "buôn bán người để phục vụ tình dục", nghĩa là cần ít nhất 16 báo cáo để xóa một tài khoản.
Nguyên đơn viết: "Meta chưa bao giờ nói với phụ huynh, công chúng hoặc các Quận rằng họ không xóa các tài khoản đã tham gia vào hoạt động buôn bán tình dục hơn mười lăm lần".
Cáo buộc: Meta "nói dối Quốc hội" về kiến thức của mình về tác hại trên nền tảng này
Trong nhiều năm, các nguyên đơn cáo buộc, nghiên cứu nội bộ của Meta đã phát hiện ra rằng những thanh thiếu niên thường xuyên sử dụng Instagram và Facebook có tỷ lệ lo lắng và trầm cảm cao hơn.Vào cuối năm 2019, theo bản tóm tắt, Meta đã thiết kế một "nghiên cứu ngừng hoạt động", phát hiện ra rằng những người dùng ngừng sử dụng Facebook và Instagram trong một tuần có tỷ lệ lo lắng, trầm cảm và cô đơn thấp hơn. Meta đã dừng nghiên cứu và không công bố kết quả, tuyên bố rằng nghiên cứu này bị ảnh hưởng bởi "những câu chuyện truyền thông hiện có xung quanh công ty".
Ít nhất một nhân viên của Meta cảm thấy không thoải mái với những tác động của quyết định này: "Nếu kết quả tệ và chúng tôi không công bố và chúng bị rò rỉ", nhân viên này viết, theo bản tóm tắt, "thì liệu có giống như các công ty thuốc lá đã nghiên cứu và biết rằng thuốc lá có hại nhưng lại giữ thông tin đó cho riêng mình không?"
Thật vậy, vào tháng 12 năm 2020, khi Ủy ban Tư pháp Thượng viện hỏi công ty trong một loạt câu hỏi bằng văn bản rằng liệu công ty có "có thể xác định liệu việc sử dụng nền tảng của công ty ngày càng nhiều ở các bé gái tuổi teen có mối tương quan nào với các dấu hiệu trầm cảm gia tăng" và "các dấu hiệu lo lắng gia tăng" hay không, công ty chỉ đưa ra câu trả lời ngắn gọn: "Không".
Đối với các nguyên đơn trong vụ kiện, hàm ý rất rõ ràng: "Công ty chưa bao giờ công khai kết quả nghiên cứu vô hiệu hóa của mình. Thay vào đó, Meta đã nói dối Quốc hội về những gì họ biết."
Cáo buộc: Công ty biết Instagram đang cho phép người lạ trưởng thành kết nối với thanh thiếu niên
Trong nhiều năm , Instagram đã phải đối mặt với vấn đề người lớn quấy rối thanh thiếu niên được ghi nhận rõ ràng. Khoảng năm 2019, các nhà nghiên cứu của công ty đã khuyến nghị đặt tất cả tài khoản thanh thiếu niên ở chế độ riêng tư theo mặc định để ngăn người lạ kết nối với trẻ em, theo hồ sơ của nguyên đơn. Thay vì thực hiện khuyến nghị này, Meta đã yêu cầu nhóm phát triển của mình nghiên cứu tác động tiềm ẩn của việc đặt tất cả tài khoản thanh thiếu niên ở chế độ riêng tư. Theo hồ sơ, nhóm phát triển tỏ ra bi quan và trả lời rằng thay đổi này có thể sẽ làm giảm mức độ tương tác.Đến năm 2020, nhóm phát triển đã xác định rằng việc mặc định chế độ riêng tư sẽ dẫn đến việc mất 1,5 triệu thanh thiếu niên hoạt động hàng tháng trên Instagram mỗi năm. Bản tóm tắt của nguyên đơn trích dẫn lời một nhân viên giấu tên: "Việc xóa bỏ những tương tác không mong muốn... có thể dẫn đến một vấn đề tiềm ẩn không thể giải quyết được về mức độ tương tác và tăng trưởng." Trong vài tháng tiếp theo, các nguyên đơn cáo buộc, các nhóm chính sách, pháp lý, truyền thông, quyền riêng tư và phúc lợi của Meta đều khuyến nghị mặc định đặt tài khoản thanh thiếu niên ở chế độ riêng tư, lập luận rằng việc chuyển đổi này "sẽ tăng cường sự an toàn cho thanh thiếu niên" và phù hợp với kỳ vọng của người dùng, phụ huynh và cơ quan quản lý. Tuy nhiên, Meta đã không ra mắt tính năng này trong năm đó.
Theo trích đoạn một cuộc trò chuyện nội bộ được trích dẫn trong hồ sơ, các nhà nghiên cứu an toàn đã rất thất vọng. Một người được cho là đã càu nhàu: "Chẳng phải an toàn là mục tiêu chính của đội này sao?"
"Meta biết rằng việc đặt thanh thiếu niên vào chế độ riêng tư mặc định sẽ loại bỏ 5,4 triệu tương tác không mong muốn mỗi ngày", các nguyên đơn viết. Tuy nhiên, Meta đã không khắc phục được vấn đề. Thay vào đó, theo bản tóm tắt, các tương tác không phù hợp giữa người lớn và trẻ em trên Instagram đã tăng vọt lên gấp 38 lần so với Facebook Messenger. Việc ra mắt Instagram Reels được cho là đã làm trầm trọng thêm vấn đề. Nó cho phép thanh thiếu niên phát sóng các video ngắn đến nhiều đối tượng, bao gồm cả người lạ trưởng thành.
Một cuộc kiểm toán nội bộ năm 2022 được cho là đã phát hiện ra rằng tính năng "Tài khoản bạn có thể theo dõi" của Instagram đã đề xuất 1,4 triệu người lớn có khả năng không phù hợp cho người dùng tuổi teen chỉ trong một ngày. Theo các nguyên đơn, đến năm 2023, Meta đã biết rằng họ đang đề xuất trẻ vị thành niên cho người lớn có khả năng đáng ngờ và ngược lại.
Phải đến năm 2024, Meta mới triển khai cài đặt quyền riêng tư mặc định cho tất cả tài khoản thanh thiếu niên. Trong bốn năm công ty thực hiện các khuyến nghị an toàn của riêng mình, thanh thiếu niên đã trải qua hàng tỷ tương tác không mong muốn với người lạ trực tuyến. Theo bản tóm tắt, những cuộc gặp gỡ không phù hợp giữa thanh thiếu niên và người lớn khá phổ biến đến mức công ty phải viết tắt là "IIC" (tương tác không phù hợp với trẻ em).
Cáo buộc: Meta nhắm mục tiêu tích cực vào người dùng trẻ tuổi
Meta lo ngại người dùng trẻ sẽ rời bỏ Facebook và Instagram để chuyển sang các đối thủ cạnh tranh. Việc thu hút và giữ chân người dùng trẻ đã trở thành mục tiêu kinh doanh cốt lõi. Giám đốc điều hành Meta, Mark Zuckerberg, cho rằng "thời gian dành cho thanh thiếu niên là mục tiêu hàng đầu của chúng tôi trong năm 2017", theo một giám đốc điều hành công ty được trích dẫn trong bản tóm tắt. Các nguyên đơn cáo buộc rằng điều đó vẫn đúng; các tài liệu nội bộ của công ty từ năm 2024 đã nêu rõ rằng "việc thu hút người dùng thanh thiếu niên mới là nhiệm vụ then chốt cho sự thành công của Instagram".Meta đã phát động chiến dịch kết nối với các khu học chánh và các tổ chức được trả lương như Hiệp hội Phụ huynh Giáo viên Quốc gia và Scholastic để tiếp cận các trường học và gia đình. Trong khi đó, theo bản tóm tắt, Meta đã sử dụng dữ liệu vị trí để đẩy thông báo đến học sinh trong các chương trình "school blast", có lẽ là một phần trong nỗ lực tăng cường sự tham gia của thanh thiếu niên trong ngày học. Như một nhân viên được cho là đã nói: "Một trong những điều chúng ta cần tối ưu hóa là việc lén nhìn điện thoại dưới gầm bàn giữa giờ học Hóa
Mặc dù Meta tích cực theo đuổi người dùng trẻ tuổi, nhưng có lẽ họ không biết chính xác độ tuổi của những người dùng mới này. Người tố giác Jason Sattizahn gần đây đã làm chứng trước Quốc hội rằng Meta không biết chính xác độ tuổi của người dùng. (Meta đã bác bỏ lời khai của Sattizahn, nói trong một tuyên bố với NBC rằng những tuyên bố của ông là "vô nghĩa" và "dựa trên các tài liệu nội bộ bị rò rỉ có chọn lọc, được chọn lọc đặc biệt để tạo ra một câu chuyện sai lệch.") Theo hồ sơ của nguyên đơn, năm 2022, có 216 triệu người dùng trên các nền tảng Meta "không rõ tuổi".
Luật liên bang yêu cầu các nền tảng mạng xã hội phải tuân thủ nhiều biện pháp bảo vệ quyền riêng tư dữ liệu khác nhau đối với người dùng dưới 13 tuổi, và chính sách của Meta quy định rằng người dùng dưới 13 tuổi không được phép sử dụng nền tảng của mình. Tuy nhiên, đơn kiện của nguyên đơn khẳng định Meta biết rõ trẻ em dưới 13 tuổi vẫn sử dụng sản phẩm của công ty. Nghiên cứu nội bộ được trích dẫn trong bản tóm tắt cho thấy có 4 triệu người dùng dưới 13 tuổi trên Instagram vào năm 2015; đến năm 2018, nguyên đơn cho biết Meta biết rằng khoảng 40% trẻ em từ 9 đến 12 tuổi cho biết chúng sử dụng Instagram hàng ngày.
Các nguyên đơn cáo buộc đây là một chiến lược kinh doanh có chủ đích. Bản tóm tắt mô tả nỗ lực phối hợp nhằm thu hút người dùng trẻ tuổi, bao gồm việc nghiên cứu tâm lý và hành vi kỹ thuật số của "tweens" (trẻ vị thành niên) và khám phá các sản phẩm mới được thiết kế cho "người dùng từ 5-10 tuổi".
Nội bộ một số nhân viên bày tỏ sự phẫn nộ trước nỗ lực nhắm vào trẻ vị thành niên. "Ồ, tốt quá, giờ chúng ta nhắm vào trẻ em dưới 13 tuổi à?", một người viết, theo bản tóm tắt. "Zuck đã nói về điều đó một thời gian rồi... nhắm vào trẻ em 11 tuổi nghe giống như các công ty thuốc lá vài thập kỷ trước (và cả bây giờ nữa). Giống như chúng ta đang nghiêm túc nói rằng 'chúng ta phải lôi kéo chúng khi còn trẻ' vậy."
Lời cáo buộc: Ban giám đốc điều hành của Meta ban đầu đã gác lại nỗ lực làm cho Instagram ít độc hại hơn đối với thanh thiếu niên
Để chống lại "sự so sánh xã hội" tiêu cực, vào năm 2019, CEO Instagram Adam Mosseri đã công bố một tính năng sản phẩm mới cho phép "ẩn" lượt thích trên các bài đăng. Các nhà nghiên cứu Meta đã xác định rằng việc ẩn lượt thích sẽ giúp người dùng "ít có khả năng cảm thấy tồi tệ hơn về bản thân" theo đơn kiện của nguyên đơn. Sáng kiến này có tên mã là Dự án Daisy.Nhưng sau một loạt thử nghiệm, Meta đã rút lại dự án Daisy. Họ xác định tính năng này "khá tiêu cực đối với các chỉ số của FB", bao gồm cả doanh thu quảng cáo, theo đơn kiện của nguyên đơn, trích dẫn lời một nhân viên giấu tên trong nhóm phát triển khẳng định: "Nó là một ứng dụng so sánh xã hội, chết tiệt, hãy làm quen với nó đi."
Một cuộc tranh luận tương tự cũng diễn ra về các bộ lọc làm đẹp của ứng dụng. Các nguyên đơn cho rằng một đánh giá nội bộ đã kết luận rằng các bộ lọc làm đẹp làm trầm trọng thêm "nguy cơ và sự duy trì của một số vấn đề sức khỏe tâm thần, bao gồm sự không hài lòng về cơ thể, rối loạn ăn uống và rối loạn lo âu về ngoại hình", và Meta biết rằng "trẻ em đặc biệt dễ bị tổn thương". Theo đơn kiện của nguyên đơn, Meta đã cấm các bộ lọc làm đẹp vào năm 2019, nhưng lại gỡ bỏ chúng vào năm sau đó sau khi công ty nhận ra rằng việc cấm các bộ lọc làm đẹp sẽ "ảnh hưởng tiêu cực đến tăng trưởng".
Các nhà nghiên cứu khác của công ty bị cáo buộc đã xây dựng một "bộ phân loại" AI để xác định nội dung có thể dẫn đến việc so sánh ngoại hình tiêu cực, nhờ đó Meta có thể tránh đề xuất nội dung này cho trẻ em dễ bị tổn thương. Tuy nhiên, Mosseri bị cáo buộc đã hủy bỏ dự án, khiến các nhà phát triển thất vọng vì "cảm thấy họ đã có giải pháp" cho "một vấn đề lớn".
Cáo buộc: Meta không tự động xóa nội dung có hại, bao gồm cả nội dung tự gây hại
Mặc dù Meta đã phát triển các công cụ AI để giám sát các nền tảng nhằm phát hiện nội dung độc hại, công ty đã không tự động xóa nội dung đó ngay cả khi xác định với "độ tin cậy 100%" rằng nội dung đó vi phạm chính sách của Meta về nội dung lạm dụng tình dục trẻ em hoặc nội dung về rối loạn ăn uống. Theo đơn kiện của nguyên đơn, các bộ phân loại AI của Meta không tự động xóa các bài đăng cổ súy hành vi tự làm hại bản thân trừ khi họ chắc chắn 94% rằng chúng đã vi phạm chính sách của nền tảng. Kết quả là, hầu hết nội dung đó vẫn còn trên nền tảng, nơi người dùng tuổi teen thường phát hiện ra. Trong một cuộc khảo sát nội bộ của công ty năm 2021 được các nguyên đơn trích dẫn, hơn 8% số người được hỏi từ 13 đến 15 tuổi cho biết đã chứng kiến ai đó tự làm hại bản thân hoặc đe dọa làm như vậy trên Instagram trong tuần qua.Cáo buộc: Meta biết sản phẩm của mình gây nghiện, nhưng công khai hạ thấp tác hại
Bản chất gây nghiện của các sản phẩm công ty không phải là bí mật nội bộ. "Ôi trời ơi, IG đúng là một loại ma túy", một trong những nhà nghiên cứu trải nghiệm người dùng của công ty được cho là đã viết thư cho đồng nghiệp. "Về cơ bản, chúng tôi chỉ là những kẻ chuyên đẩy hàng."Các nguyên đơn cáo buộc Meta không chính thức nghiên cứu về tình trạng nghiện sản phẩm của mình; công ty nghiên cứu về "việc sử dụng có vấn đề". Năm 2018, các nhà nghiên cứu của công ty đã khảo sát 20.000 người dùng Facebook tại Hoa Kỳ và phát hiện ra rằng 58% có một số mức độ "sử dụng có vấn đề" - 55% nhẹ và 3,1% nghiêm trọng. Tuy nhiên, khi Meta công bố báo cáo về nghiên cứu này vào năm sau, chỉ có một số ít người dùng có tình trạng sử dụng có vấn đề "nghiêm trọng" được đề cập. "Chúng tôi ước tính (theo giới hạn trên) rằng 3,1% người dùng Facebook tại Hoa Kỳ gặp phải tình trạng sử dụng có vấn đề", các nhà nghiên cứu viết . 55% người dùng còn lại không được đề cập trong bất kỳ báo cáo công khai nào.
Các nguyên đơn cáo buộc rằng nhóm an toàn của Meta đã đề xuất các tính năng được thiết kế để giảm thiểu tình trạng nghiện, nhưng cuối cùng lại bị gạt sang một bên hoặc làm giảm chất lượng. Một nhân viên đã giúp phát triển tính năng "chế độ im lặng" cho biết tính năng này đã bị gác lại vì Meta lo ngại rằng tính năng này sẽ ảnh hưởng tiêu cực đến các chỉ số liên quan đến tăng trưởng và mức độ sử dụng.
Cùng thời điểm đó, một nhà nghiên cứu trải nghiệm người dùng khác tại Instagram được cho là đã khuyến nghị Meta thông báo cho công chúng về những phát hiện nghiên cứu của mình: "Vì sản phẩm của chúng tôi khai thác điểm yếu trong tâm lý con người để thúc đẩy sự tương tác với sản phẩm và thời gian sử dụng", nhà nghiên cứu này viết, Meta cần phải "cảnh báo mọi người về tác động của sản phẩm lên não bộ của họ".
Meta thì không.
