EU Muốn Công Nghệ Lớn Quét Cuộc Trò Chuyện Riêng Tư Của Bạn để Phát Hiện Lạm Dụng Trẻ Em

Tất cả hình ảnh trên WhatsApp, tin nhắn iMessage và video Snapchat của bạn có thể được quét để kiểm tra hình ảnh và video lạm dụng tình dục trẻ em theo các quy tắc mới đề xuất của châu Âu. Kế hoạch này, cảnh báo từ các chuyên gia, có thể làm suy yếu mã hóa điểm-điểm bảo vệ hàng tỷ tin nhắn được gửi mỗi ngày và ảnh hưởng đến quyền riêng tư trực tuyến của mọi người.
Hôm nay, Ủy ban châu Âu đã tiết lộ những đề xuất đầu tiên đã được chờ đợi nhằm đối mặt với lượng lớn nội dung lạm dụng tình dục trẻ em, còn được biết đến là CSAM, được tải lên web mỗi năm. Dự luật đề xuất tạo ra một Trung tâm EU mới để xử lý nội dung lạm dụng trẻ em và áp đặt nghĩa vụ cho các công ty công nghệ để “phát hiện, báo cáo, chặn và loại bỏ” CSAM khỏi các nền tảng của họ. Luật được công bố bởi Ủy ban An ninh nội địa của châu Âu, Ylva Johansson, nói rằng các công ty công nghệ đã không thể tự nguyện loại bỏ nội dung lạm dụng, và nó đã được các tổ chức bảo vệ trẻ em và an toàn đón nhận.
Theo kế hoạch, các công ty công nghệ — từ dịch vụ lưu trữ web đến các nền tảng nhắn tin — có thể bị yêu cầu để “phát hiện” cả CSAM mới và trước đây đã được phát hiện, cũng như các trường hợp tiềm ẩn của “grooming.” Quá trình phát hiện có thể diễn ra trong các tin nhắn chat, các tệp tải lên dịch vụ trực tuyến hoặc trên các trang web chứa nội dung lạm dụng. Kế hoạch này giống với nỗ lực của Apple năm ngoái để quét ảnh trên iPhone của người dùng để tìm nội dung lạm dụng trước khi được tải lên iCloud. Apple tạm dừng nỗ lực của mình sau khi gặp phản đối rộng rãi.
Nếu được thông qua, dự luật châu Âu sẽ yêu cầu các công ty công nghệ thực hiện đánh giá rủi ro cho dịch vụ của họ để đánh giá mức độ CSAM trên nền tảng của họ và các biện pháp ngăn chặn hiện tại của họ. Nếu cần thiết, cơ quan quản lý hoặc tòa án sau đó có thể ban hành “đơn đặt hàng phát hiện” nói rằng các công ty công nghệ phải bắt đầu “cài đặt và vận hành công nghệ” để phát hiện CSAM. Những đơn đặt hàng phát hiện này sẽ được ban hành trong khoảng thời gian cụ thể. Dự luật không chỉ định rõ công nghệ nào phải được cài đặt hoặc cách chúng sẽ hoạt động—những điều này sẽ được kiểm duyệt bởi Trung tâm EU mới—nhưng nói rằng chúng nên được sử dụng ngay cả khi mã hóa điểm-điểm đang được áp dụng.
Đề xuất của châu Âu về việc quét tin nhắn của người dùng đã gặp sự phẫn nộ từ các nhóm quyền lực dân sự và các chuyên gia an ninh, họ nói rằng nó có khả năng làm suy yếu mã hóa điểm-điểm đã trở thành mặc định trên các ứng dụng nhắn tin như iMessage, WhatsApp và Signal. “Thật thất vọng khi thấy một quy định của EU về internet đề xuất không bảo vệ được mã hóa điểm-điểm,” Will Cathcart, trưởng nhóm WhatsApp, tweet. “Đề xuất này sẽ buộc các công ty quét tất cả tin nhắn của mọi người và đặt quyền riêng tư và an ninh của công dân EU vào nguy cơ nghiêm trọng.” Mọi hệ thống làm suy yếu mã hóa điểm-điểm có thể bị lạm dụng hoặc mở rộng để tìm kiếm nhiều loại nội dung khác nhau, các nhà nghiên cứu nói.
“Bạn có mã hóa điểm-điểm hoặc không có,” Alan Woodward, giáo sư an ninh mạng từ Đại học Surrey nói. Mã hóa điểm-điểm bảo vệ quyền riêng tư và an ninh của người dùng bằng cách đảm bảo chỉ người gửi và người nhận tin nhắn có thể xem nội dung của họ. Ví dụ, Meta, chủ sở hữu của WhatsApp, không có cách nào để đọc tin nhắn của bạn hoặc khai thác nội dung của chúng cho dữ liệu. Dự luật của EU nói rằng các giải pháp không nên làm suy yếu mã hóa và nói rằng nó bao gồm các biện pháp bảo vệ để đảm bảo điều này không xảy ra; tuy nhiên, nó không đưa ra chi tiết về cách điều này sẽ hoạt động.
“Vậy nên, chỉ có một giải pháp hợp lý: quét trên phía người dùng nơi nội dung được kiểm tra khi nó được giải mã trên thiết bị của họ để xem/đọc,” Woodward nói. Năm ngoái, Apple thông báo sẽ giới thiệu quét phía người dùng—quét được thực hiện trên iPhone của người dùng thay vì máy chủ của Apple—để kiểm tra ảnh có nội dung CSAM đã biết được khi được tải lên iCloud. Hành động này đã gây ra sự phản đối từ các nhóm quyền lực dân sự và thậm chí Edward Snowden về khả năng giám sát, khiến Apple tạm dừng kế hoạch của mình một tháng sau khi công bố ban đầu. (Apple từ chối bình luận cho câu chuyện này.)
Đối với các công ty công nghệ, việc phát hiện CSAM trên các nền tảng của họ và quét một số giao tiếp không phải là mới. Các công ty hoạt động tại Hoa Kỳ phải báo cáo bất kỳ CSAM nào họ phát hiện hoặc được báo cáo bởi người dùng cho Trung tâm Quốc gia về Trẻ em Mất Tích và Bị Lạm Dụng (NCMEC), một tổ chức phi lợi nhuận có trụ sở tại Hoa Kỳ. Hơn 29 triệu báo cáo, chứa 39 triệu hình ảnh và 44 triệu video, đã được gửi đến NCMEC chỉ trong năm ngoái. Dưới các quy tắc mới của EU, Trung tâm EU sẽ nhận được báo cáo về CSAM từ các công ty công nghệ.
“Nhiều công ty hiện nay không thực hiện phát hiện,” Johansson nói trong một cuộc họp báo giới thiệu dự luật. “Đây không phải là một đề xuất về mã hóa, đây là một đề xuất về nội dung lạm dụng tình dục trẻ em,” Johansson nói thêm rằng luật không phải là “về việc đọc giao tiếp” mà là về việc phát hiện nội dung lạm dụng bất hợp pháp.
Hiện tại, các công ty công nghệ phát hiện CSAM trực tuyến theo cách khác nhau. Và lượng CSAM được phát hiện đang tăng khi các công ty công nghệ trở nên tốt hơn trong việc phát hiện và báo cáo lạm dụng—mặc dù một số công ty tốt hơn rất nhiều. Trong một số trường hợp, trí tuệ nhân tạo đang được sử dụng để tìm kiếm CSAM trước đó chưa từng được nhìn thấy. Bản sao của các ảnh và video lạm dụng hiện có có thể được phát hiện bằng cách sử dụng “hệ thống băm,” nơi nội dung lạm dụng được gán một dấu vết có thể được nhận biết khi nó được tải lên web lại. Hơn 200 công ty, từ Google đến Apple, sử dụng hệ thống băm PhotoDNA của Microsoft để quét hàng triệu tệp được chia sẻ trực tuyến. Tuy nhiên, để làm điều này, hệ thống cần có quyền truy cập vào các tin nhắn và tệp tin mà mọi người đang gửi, điều này không khả thi khi mã hóa điểm-điểm được áp dụng.
“Ngoài việc phát hiện CSAM, sẽ tồn tại nghĩa vụ phát hiện sự làm quen với trẻ em (‘grooming’), điều này chỉ có thể có nghĩa là cuộc trò chuyện sẽ cần phải được đọc liên tục,” Diego Naranjo, trưởng bộ phận chính sách tại tổ chức quyền tự do dân sự European Digital Rights nói. “Điều này là một thảm họa đối với tính bảo mật của giao tiếp. Các công ty sẽ được yêu cầu (qua các đơn đặt hàng phát hiện) hoặc được khuyến khích (qua các biện pháp giảm thiểu rủi ro) cung cấp các dịch vụ ít an toàn hơn cho mọi người nếu họ muốn tuân thủ những nghĩa vụ này.
Các cuộc thảo luận về việc bảo vệ trẻ em trực tuyến và cách thực hiện điều này bằng mã hóa điểm-điểm rất phức tạp, kỹ thuật và kết hợp với những kinh hoàng của các tội ác đối với những người trẻ yếu đuối. Nghiên cứu của Unicef, quỹ trẻ em của Liên Hợp Quốc, được xuất bản vào năm 2020, nói rằng cần có mã hóa để bảo vệ quyền riêng tư của mọi người—bao gồm cả trẻ em—nhưng thêm rằng nó “gây trở ngại” cho các nỗ lực loại bỏ nội dung và xác định những người chia sẻ nó. Trong nhiều năm qua, các cơ quan thực thi pháp luật trên khắp thế giới đã đẩy mạnh việc tạo ra cách để vượt qua hoặc làm suy giảm sức mạnh của mã hóa. “Tôi không nói về quyền riêng tư bất cứ giá nào, và tôi nghĩ chúng ta có thể đồng thuận rằng lạm dụng trẻ em là điều đáng kinh tởm,” Woodward nói, “nhưng cần có một cuộc tranh luận công bằng, công khai, không đưa vào tình cảm về việc liệu những rủi ro có thể nảy sinh có đáng giá so với hiệu quả thực sự trong cuộc chiến chống lạm dụng trẻ em.”
Ngày càng, các nhà nghiên cứu và các công ty công nghệ đã tập trung vào các công cụ an toàn có thể tồn tại cùng với mã hóa điểm-điểm. Các đề xuất bao gồm việc sử dụng siêu dữ liệu từ các tin nhắn được mã hóa—ai, làm thế nào, cái gì và tại sao của các tin nhắn, chứ không phải nội dung của chúng—để phân tích hành vi của mọi người và có thể nhận biết tội ác. Một báo cáo gần đây của tổ chức phi lợi nhuận Business for Social Responsibility, được Meta ủy thác, cho thấy rằng mã hóa điểm-điểm là một lực lượng tích cực đáng kể để bảo vệ quyền con người. Nó đề xuất 45 khuyến nghị về cách mã hóa và an toàn có thể đi cùng nhau mà không liên quan đến quyền truy cập vào giao tiếp của người dùng. Khi báo cáo được xuất bản vào tháng 4, Lindsey Andersen, giám đốc liên kết về quyền con người của BSR, nói với MYTOUR: “Ngược lại với niềm tin phổ biến, thực tế là có rất nhiều điều có thể làm ngay cả khi không có quyền truy cập vào các tin nhắn.”
