Quyết định của Apple về việc loại bỏ Công cụ Quét Ảnh CSAM Gây Ra Làn Sóng Tranh Cãi Mới

Vào tháng 12, Apple thông báo rằng họ sẽ ngừng phát triển một công cụ quét ảnh trên iCloud nhằm bảo vệ quyền riêng tư, nhằm phát hiện nội dung lạm dụng tình dục trẻ em (CSAM) trên nền tảng. Ban đầu được công bố vào tháng 8 năm 2021, dự án này đã gây tranh cãi từ khi bắt đầu. Apple đã tạm dừng dự án vào tháng 9 đó để đáp ứng những lo ngại từ các nhóm quyền số và các nhà nghiên cứu rằng một công cụ như vậy sẽ bị lạm dụng và tận dụng để đe dọa quyền riêng tư và bảo mật của tất cả người dùng iCloud. Tuần này, một nhóm an toàn trẻ em mới được biết đến là Heat Initiative thông báo cho Apple rằng họ đang tổ chức chiến dịch yêu cầu công ty “phát hiện, báo cáo và loại bỏ” nội dung lạm dụng tình dục trẻ em khỏi iCloud và cung cấp thêm công cụ cho người dùng báo cáo CSAM cho công ty.
Hôm nay, một cử chỉ hiếm hoi, Apple đã phản hồi Heat Initiative, trình bày lý do họ bỏ phát triển tính năng quét CSAM trên iCloud và thay vào đó tập trung vào một bộ công cụ và nguồn lực trên thiết bị cho người dùng được gọi là tính năng An Toàn Giao Tiếp. Phản hồi của công ty cho Heat Initiative, mà Apple chia sẻ với MYTOUR vào sáng nay, mở ra cái nhìn hiếm hoi không chỉ về lý do họ chuyển hướng sang An Toàn Giao Tiếp, mà còn về quan điểm rộng lớn hơn về việc tạo ra các cơ chế để vượt qua bảo vệ quyền riêng tư người dùng, như mã hóa, để theo dõi dữ liệu. Thái độ này có liên quan đến cuộc tranh luận về mã hóa một cách rộng lớn, đặc biệt là khi các quốc gia như Vương quốc Anh đang xem xét việc thông qua các luật lệ yêu cầu các công ty công nghệ có khả năng truy cập dữ liệu người dùng để tuân thủ yêu cầu của cơ quan chức năng.
“Nội dung lạm dụng tình dục trẻ em là điều đáng ghê tởm và chúng tôi cam kết phá vỡ chuỗi áp đặt và ảnh hưởng khiến trẻ em dễ bị nó,” Erik Neuenschwander, Giám đốc quyền riêng tư và an toàn trẻ em của Apple, viết trong phản hồi của công ty đối với Heat Initiative. Tuy nhiên, ông thêm rằng sau khi hợp tác với nhiều nhóm nghiên cứu về quyền riêng tư và an ninh, các nhóm quyền số và các nhà đấu tranh cho an toàn trẻ em, công ty kết luận rằng họ không thể tiếp tục phát triển cơ chế quét CSAM, ngay cả khi được xây dựng đặc biệt để bảo vệ quyền riêng tư.
Apple khẳng định rằng, cuối cùng, thậm chí thiết kế tốt ý của chính họ cũng không thể được bảo vệ đầy đủ trong thực tế, và nhận diện nudity trên thiết bị cho các tính năng như Messages, FaceTime, AirDrop và Photo picker là các giải pháp an toàn hơn. Apple cũng đã bắt đầu cung cấp một giao diện lập trình ứng dụng (API) cho các tính năng An toàn Giao tiếp của mình để các nhà phát triển bên thứ ba có thể tích hợp chúng vào ứng dụng của họ. Apple cho biết nền tảng truyền thông Discord đang tích hợp các tính năng và các nhà phát triển ứng dụng nói chung đã hứng thú với việc áp dụng chúng.
“Chúng tôi quyết định không tiến hành đề xuất cho một phương pháp lai giữa máy khách và máy chủ để phát hiện ảnh CSAM cho iCloud Photos từ vài năm trước,” Neuenschwander viết cho Heat Initiative. “Chúng tôi kết luận rằng không thực sự khả thi để triển khai mà không đặt an ninh và quyền riêng tư của người dùng cuối cùng vào tình trạng nguy cơ.”
Trên yêu cầu của Heat Initiative về việc Apple tạo một cơ chế báo cáo CSAM cho người dùng, công ty cho biết với MYTOUR rằng sự tập trung của họ là kết nối người dùng yếu đuối hoặc bị áp đặt trực tiếp với nguồn lực và cơ quan chức năng địa phương trong khu vực của họ có thể hỗ trợ họ thay vì Apple tự đặt mình làm trung gian xử lý báo cáo. Công ty nói rằng cung cấp dịch vụ trung gian này có thể hợp lý cho các nền tảng tương tác như mạng xã hội.
Nhu cầu bảo vệ trẻ em khỏi lạm dụng tình dục trực tuyến là cấp bách, tuy nhiên, và khi những lo ngại này gặp gỡ với cuộc tranh luận về mã hóa rộng lớn, sự kiên quyết của Apple từ chối triển khai quét dữ liệu sẽ tiếp tục được thử thách.
Đọc toàn bộ cuộc trao đổi giữa Heat Initiative và Apple dưới đây. MYTOUR đã làm mờ thông tin cá nhân nhạy cảm để bảo vệ quyền riêng tư của người gửi và người nhận:
Cập nhật lúc 9:40 sáng, ngày 1 tháng 9, 2023: Thêm tuyên bố từ Sarah Gardner của Heat Initiative.
