Tin Tức Apple đưa ra các chi tiết về cách vận hành hệ thống phát hiện CSAM của họ.

Quảng Cáo

3/8/21
29
9
9
22 ♈︎︎
ITRUM Coin
234

Apple đã công bố một tài liệu mới hôm nay nhằm cung cấp thêm chi tiết về tính năng an toàn cho trẻ em được công bố vào những ngày gần đây. Công ty đang giải quyết những lo ngại về khả năng tính năng phát hiện CSAM mới có thể tạo ra một lỗ hỗng bảo mật, với các chi tiết cụ thể về ngưỡng mà nó đang sử dụng và hơn thế nữa.

Một trong những thông báo đáng chú ý hơn của Apple ngày hôm nay là hệ thống sẽ có thể được kiểm toán bởi các bên thứ ba. Apple giải thích rằng họ sẽ công khai một bài viết trong Knowledge Base(Cơ sở kiến thức) với bảng băm gốc đã được mã hóa từ cơ sở dữ liệu băm CSAM . Apple cũng sẽ cho phép người dùng kiểm tra tập dữ liệu băm gốc trên thiết bị của họ và so sánh với cơ sở dữ liệu trong bài viết Knowledge Base:
Apple sẽ công khai một bài viết trong Knowledge Base có chứa bảng băm gốc của cơ sở dữ liệu băm CSAM được mã hóa đi kèm với các phiên bản hệ điều hành hỗ trợ tính năng này. Ngoài ra, người dùng sẽ có thể kiểm tra tập dữ liệu băm gốc được mã hóa có trên thiết bị của họ và so sánh nó với tập dữ liệu băm gốc dự kiến trong bài viết Knowledge Base. Việc tính toán bảng băm gốc để hiển thị cho người dùng trong phần Cài đặt một cách chính xác phải được các nhà nghiên cứu kiểm tra một cách cẩn thận và bảo mật.

Cách tiếp cận này cho phép đánh giá kỹ thuật của bên thứ ba: đánh giá viên có thể xác nhận rằng đối với bất kỳ tập dữ liệu băm gốc nhất định nào của cơ sở dữ liệu CSAM được mã hóa trong bài viết Knowledge Base hoặc trên một thiết bị, cơ sở dữ liệu chỉ được tạo từ giao điểm của các hàm băm từ các tổ chức an toàn cho trẻ em đã tham gia, không có bổ sung, xóa bỏ hoặc thay đổi. Việc này tạo điều kiện thuận lợi cho việc kiểm tra, không yêu cầu tổ chức an toàn trẻ em cung cấp bất kỳ dữ liệu nhạy cảm nào - họ chỉ cần cung cấp các chứng thực không nhạy cảm về cơ sở dữ liệu đầy đủ mà họ đã gửi cho Apple. Sau đó, trong một môi trường an toàn, Apple có thể cung cấp bằng chứng kỹ thuật cho người đánh giá rằng các giao điểm và điểm mù đã được thực hiện một cách chính xác. Tổ chức an toàn cho trẻ em tham gia cũng có thể quyết định thực hiện đánh giá.

Apple cũng đề cập đến khả năng một tổ chức có thể đưa thứ gì đó khác với nội dung CSAM đã biết vào cơ sở dữ liệu. Apple nói rằng họ sẽ làm việc với ít nhất hai tổ chức an toàn trẻ em để tạo cơ sở dữ liệu có trong iOS không nằm dưới sự kiểm soát của cùng một chính phủ:
Apple tạo cơ sở dữ liệu băm CSAM trên thiết bị thông qua sự giao nhau của các tập dữ liệu băm được cung cấp bởi ít nhất hai tổ chức an toàn trẻ em hoạt động trong các khu vực pháp lý có chủ quyền riêng biệt - nghĩa là không chịu sự kiểm soát của cùng một chính phủ. Quá trình này sẽ loại bỏ bất kỳ tập dữ liệu băm tri giác (perceptual hash) nào xuất hiện trong cơ sở dữ liệu của một tổ chức an toàn trẻ em tham gia hoặc chỉ trong cơ sở dữ liệu từ nhiều cơ quan trong một khu vực pháp lý có chủ quyền, đều bị loại bỏ bởi quy trình này và không được đưa vào cơ sở dữ liệu CSAM được mã hóa mà Apple đưa vào hệ điều hành. Cơ chế này đáp ứng yêu cầu về độ chính xác của hình ảnh nguồn của chúng tôi.

Apple cũng cung cấp các chi tiết mới về quy trình xem xét thủ công được thực hiện khi đạt đến ngưỡng:
Vì Apple không sở hữu các hình ảnh CSAM có hàm băm bao gồm cơ sở dữ liệu trên thiết bị, nên điều quan trọng là người đánh giá không chỉ xem xét xem một hình ảnh được gắn cờ cụ thể có tương ứng với mục nhập trong cơ sở dữ liệu hình ảnh CSAM được mã hóa của Apple hay không - nghĩa là mục nhập vào giao điểm của các tập dữ liệu băm từ ít nhất hai tổ chức an toàn trẻ em hoạt động trong các khu vực pháp lý có chủ quyền riêng biệt trở lên. Mà những người đánh giá còn phải xác nhận một điều rằng: đối với tài khoản vượt quá ngưỡng đối sánh, hình ảnh phù hợp có thể có các đặc điểm là CSAM. Điều này có nghĩa là nếu hình ảnh không phải CSAM được chèn vào cơ sở dữ liệu băm CSAM trên thiết bị - do vô tình,hoặc thông qua cưỡng chế - sẽ không có hiệu lực trừ khi những người đánh giá của Apple được thông báo về những hình ảnh không phải CSAM cụ thể nào mà họ nên gắn cờ (đối với những tài khoản vượt quá ngưỡng đối sánh).


Biên tập và dịch: Võ Trung Nam
Nguồn: 9TO5MAC
 
Sửa lần cuối bởi điều hành viên:

Quảng Cáo

  • Từ khóa
    apple csam
  • Phát hiện AdBlock!

    Chúng tôi biết trình chặn quảng cáo làm rất tốt việc chặn quảng cáo, nhưng nó cũng chặn các tính năng hữu ích của trang web của chúng tôi. Để có trải nghiệm trang web tốt nhất, vui lòng tắt AdBlocker của bạn.