
iOS 15, iPadOS 15, watchOS 8, macOS Monterey sẽ thực hiện quét ảnh trên iPhone để phát hiện những hình ảnh lạm dụng trẻ em thông qua bản cập nhật mới. Đồng thời, ứng dụng Messages cũng sẽ có khả năng quét ảnh và gửi cảnh báo đến trẻ em và phụ huynh khi gửi hoặc nhận ảnh không thích hợp.
Cách hệ thống phát hiện ảnh vi phạm trẻ em trên iPhone hoạt động
Trước khi một ảnh được lưu trữ trên iCloud Photos, thiết bị sẽ thực hiện quá trình so sánh để đối chiếu với cơ sở dữ liệu ảnh trẻ em bị lạm dụng. Dữ liệu này được cung cấp bởi Trung tâm Hỗ trợ Trẻ em Mất tích và Bị lạm dụng (NCMEC) cùng các tổ chức bảo vệ quyền trẻ em khác. Apple biến đổi ảnh thành chuỗi hash và lưu trữ an toàn trên thiết bị, không lưu trực tiếp ảnh.
Sau khi so khớp, một “voucher” được tạo ra và gắn liền với ảnh khi tải lên iCloud Photos. Sử dụng thuật toán PSI Matching, hệ thống đảm bảo rằng nội dung của voucher không thể đọc được bởi Apple trừ khi tài khoản iCloud Photos vượt qua ngưỡng phát hiện ảnh lạm dụng. Chỉ khi vượt qua ngưỡng, hệ thống mới cho phép Apple xem nội dung của voucher liên quan đến ảnh vi phạm.
Ngưỡng trên được chọn ở mức độ làm cho việc phát hiện nhầm rất khó (tỉ lệ 1 trên 1 nghìn tỉ). Điều này giúp giảm thiểu đánh giá thủ công từ phía Apple khi có báo cáo ảnh khớp với cơ sở dữ liệu ảnh lạm dụng. Trong trường hợp này, Apple sẽ tạm ngừng tài khoản người dùng và thông báo cho NCMEC. Nếu người dùng cho rằng bị nhầm lẫn, họ có thể nộp đơn kháng cáo để khôi phục tài khoản nếu đúng.

Phương pháp Apple sử dụng để so sánh ảnh lạm dụng trẻ em
Nói một cách đơn giản, mỗi tấm ảnh bạn chụp sẽ trải qua một quá trình xử lý bằng một thuật toán sử dụng mạng nơ-ron nhân tạo (gọi tắt là CNN). Quá trình này tạo ra một chuỗi số dài. Tiếp theo, chuỗi số này được chuyển đổi thành một chuỗi ngắn hơn, được Apple gọi là NeuralHash. Mặc dù kích thước của NeuralHash nhỏ hơn so với chuỗi số ban đầu, nhưng vẫn giữ đủ thông tin để so sánh với cơ sở dữ liệu ảnh lạm dụng trẻ em mà iPhone, iPad và Mac đang lưu trữ. Việc giảm kích thước này cũng giảm dung lượng lưu trữ cần thiết. Quá trình hash này được thực hiện toàn bộ trên iPhone, iPad và macOS mà không cần gửi ảnh đến máy chủ của Apple. Để biết thông tin chi tiết về cách Apple đào tạo mạng CNN này, anh em có thể xem trong tài liệu chi tiết trên trang web của họ.
Đối với cơ sở dữ liệu so sánh, Apple thu nhận chuỗi NeuralHash bằng thuật toán tương tự, nhưng thay vì chạy trên ảnh từ iPhone, iPad, các tổ chức bảo vệ trẻ em sẽ áp dụng nó cho những bức ảnh lạm dụng họ có. Sau đó, Apple thực hiện một loạt các biện pháp chuyển đổi dữ liệu, bao gồm mã hóa bằng thuật toán “elliptic curve” và chìa khóa thực hiện chỉ nằm trên máy chủ của Apple, đảm bảo không ai có thể giải mã chuỗi hash trong dãy ảnh lạm dụng trẻ em ngoại trừ máy của người dùng. Mục đích của quy trình này là để tiếp tục che giấu thông tin từ cơ sở dữ liệu này thêm một lớp bảo vệ trước khi lưu vào thiết bị của người dùng, đảm bảo rằng không có thiết bị nào khác có khả năng truy ngược lại chuỗi hash trong chuỗi ảnh lạm dụng trẻ em.
Theo Apple, kỹ thuật NeuralHash này tạo ra kết quả giống nhau dù dung lượng và chất lượng của ảnh có sự khác biệt, đồng thời đảm bảo chuỗi NeuralHash được sinh ra luôn giữ nguyên tính nhất quán.
Quy trình trên đảm bảo rằng:- Apple không có thông tin về những bức ảnh không khớp với cơ sở dữ liệu ảnh CSAM
- Apple không thể truy cập thông tin hoặc hình ảnh của các tệp CSAM cho đến khi việc phát hiện vượt qua ngưỡng được thiết lập cho mỗi tài khoản iCloud Photos.
- Rủi ro phát hiện nhầm rất thấp, chỉ 1 trên 1 nghìn tỉ. Hơn nữa, Apple thậm chí còn đánh giá thủ công tất cả các ảnh vi phạm trước khi gửi đến NCMEC để đảm bảo độ chính xác
- Người dùng không có khả năng truy cập hay xem dữ liệu ảnh từ cơ sở dữ liệu so sánh
- Người dùng không biết được những bức ảnh nào được đánh dấu là có chứa nội dung lạm dụng tình dục trẻ em
Apple bị cáo buộc xây dựng 'cơ sở hạ tầng giám sát'
Mặc dù Apple đã đưa ra nhiều cam kết về tính an toàn của hệ thống và cách nó hoạt động, nhưng nhiều chuyên gia an ninh mạng và những người ủng hộ quyền riêng tư vẫn phê phán kế hoạch này.
Greg Nojeim, đồng giám đốc Trung tâm Dự án Công nghệ Dân chủ & Bảo mật & Giám sát, nói rằng “Apple thay đổi tiêu chuẩn ngành về việc mã hóa tin nhắn từ đầu đến cuối bằng cách xây dựng một hạ tầng để giám sát và theo dõi nội dung, có thể dẫn đến hình thức lạm dụng không chỉ ở Mỹ mà còn trên toàn thế giới. Apple nên hủy bỏ những thay đổi này và khôi phục niềm tin của người dùng vào tính bảo mật và sự toàn vẹn của dữ liệu trên thiết bị và dịch vụ Apple'.
Trong nhiều năm qua, Apple đã từ chối yêu cầu của chính phủ Mỹ về việc cài đặt 'backdoor' trong hệ thống của mình, đặc biệt là iOS, vì nói rằng điều này sẽ làm giảm độ an toàn của người dùng. Điều này đã đem lại nhiều lời khen ngợi từ cộng đồng an ninh mạng. Nhưng với tính năng quét ảnh CSAM sắp tới, Apple có thể trở thành công cụ giám sát cho chính phủ, theo lời Giáo sư Matthew Green thuộc Đại học Johns Hopkins. Ông nói thêm rằng một hệ thống tự quét nội dung như vậy chính là điều mà nhiều chính phủ và lực lượng chức năng đã yêu cầu các công ty triển khai trong hệ thống của họ từ lâu.
Trung tâm Dự án Công nghệ Dân chủ & Bảo mật & Giám sát khẳng định rằng cơ chế quét ảnh trong ứng dụng Messages không phải là một giải pháp thay thế cho backdoor, mà chính nó là backdoor.
Tham Khảo: Apple, ArsTechnica
