
Apple tiếp tục đưa ra lời giải thích rõ ràng về tính năng phát hiện CSAM (dữ liệu về lạm dụng tình dục trẻ em) mà hãng đã công bố vào tuần trước.
Cụ thể, công ty này tiếp tục bảo vệ quan điểm sẽ triển khai CSAM, cho rằng tính năng này thân thiện với người dùng và bảo vệ quyền riêng tư hơn các công ty khác.
Ngoài các tài liệu chi tiết với các câu hỏi thường gặp được công bố, Apple còn xác nhận rằng khi ra mắt thì tính năng phát hiện CSAM sẽ chỉ áp dụng cho ảnh được lưu trên iCloud, không phải video. Tuy nhiên, trước thực trạng nội dung CSAM xuất hiện càng nhiều trên các video, công ty thừa nhận rằng họ sẽ mở rộng, triển khai và phát triển lên cả video, dựa trên kế hoạch đã lên sẵn của Apple.
Bạn có thể bỏ ra một chút thời gian của mình để xem cách hoạt động của tính năng này. Tất cả các hoạt động của tính năng đều được thực hiện trên thiết bị, với việc Apple biến cơ sở dữ liệu ảnh từ Trung Tâm Quốc Gia về Trẻ Em Mất Tích và Bị Bóc Lột thành “một tập dữ liệu không thể xem được và được lưu trữ an toàn trên thiết bị của người dùng”. Sau đó, thiết bị sẽ dựa trên tập dữ liệu này để kiểm tra và so sánh ảnh để tìm trùng khớp, rồi khi đó thiết bị sẽ tạo một bản mã hoá an toàn nếu kết quả tìm được khớp với tập dữ liệu.
Apple cũng nhấn mạnh rằng nếu người dùng không sử dụng Ảnh iCloud thì tính năng CSAM sẽ không chạy. Điều này có nghĩa rằng nếu người dùng không muốn "đụng" tính năng này, họ có thể vô hiệu hóa Ảnh iCloud.
Cuối cùng, Apple thể hiện quyết tâm của mình về việc triển khai phát hiện CSAM trên thiết bị của người dùng sẽ tốt hơn nhiều so với việc triển khai phía máy chủ (server side) mà các công ty khác sử dụng. Apple giải thích, những triển khai đó yêu cầu một công ty quét từng bức ảnh được lưu trữ bởi người dùng trên máy chủ của họ, phần lớn trong số đó không phải là CSAM.
Việc triển khai phát hiện CSAM của Apple không yêu cầu máy chủ của Apple phải quét mọi ảnh. Bằng cách di chuyển có quy trình trên thiết bị, phương pháp của Apple an toàn hơn và được thiết kế để chỉ kiểm tra hình ảnh dựa trên cơ sở dữ liệu NCMEC về hình ảnh của CSAM đã biết, trái ngược với việc quét tất cả hình ảnh từ phía máy chủ.
Cụ thể, công ty này tiếp tục bảo vệ quan điểm sẽ triển khai CSAM, cho rằng tính năng này thân thiện với người dùng và bảo vệ quyền riêng tư hơn các công ty khác.
Ngoài các tài liệu chi tiết với các câu hỏi thường gặp được công bố, Apple còn xác nhận rằng khi ra mắt thì tính năng phát hiện CSAM sẽ chỉ áp dụng cho ảnh được lưu trên iCloud, không phải video. Tuy nhiên, trước thực trạng nội dung CSAM xuất hiện càng nhiều trên các video, công ty thừa nhận rằng họ sẽ mở rộng, triển khai và phát triển lên cả video, dựa trên kế hoạch đã lên sẵn của Apple.
Bạn có thể bỏ ra một chút thời gian của mình để xem cách hoạt động của tính năng này. Tất cả các hoạt động của tính năng đều được thực hiện trên thiết bị, với việc Apple biến cơ sở dữ liệu ảnh từ Trung Tâm Quốc Gia về Trẻ Em Mất Tích và Bị Bóc Lột thành “một tập dữ liệu không thể xem được và được lưu trữ an toàn trên thiết bị của người dùng”. Sau đó, thiết bị sẽ dựa trên tập dữ liệu này để kiểm tra và so sánh ảnh để tìm trùng khớp, rồi khi đó thiết bị sẽ tạo một bản mã hoá an toàn nếu kết quả tìm được khớp với tập dữ liệu.
Apple cũng nhấn mạnh rằng nếu người dùng không sử dụng Ảnh iCloud thì tính năng CSAM sẽ không chạy. Điều này có nghĩa rằng nếu người dùng không muốn "đụng" tính năng này, họ có thể vô hiệu hóa Ảnh iCloud.
Cuối cùng, Apple thể hiện quyết tâm của mình về việc triển khai phát hiện CSAM trên thiết bị của người dùng sẽ tốt hơn nhiều so với việc triển khai phía máy chủ (server side) mà các công ty khác sử dụng. Apple giải thích, những triển khai đó yêu cầu một công ty quét từng bức ảnh được lưu trữ bởi người dùng trên máy chủ của họ, phần lớn trong số đó không phải là CSAM.
Việc triển khai phát hiện CSAM của Apple không yêu cầu máy chủ của Apple phải quét mọi ảnh. Bằng cách di chuyển có quy trình trên thiết bị, phương pháp của Apple an toàn hơn và được thiết kế để chỉ kiểm tra hình ảnh dựa trên cơ sở dữ liệu NCMEC về hình ảnh của CSAM đã biết, trái ngược với việc quét tất cả hình ảnh từ phía máy chủ.
Xem thêm:
Biên tập và dịch: Võ Trung Nam
Nguồn: 9TO5MAC
Sửa lần cuối bởi điều hành viên: