Tin Tức Apple ra sức bảo vệ tính năng mới của mình đồng thời xác nhận tính năng phát hiện CSAM chỉ áp dụng cho hình ảnh

Quảng Cáo

Nam Futaru
3/8/21
29
9
9
22 ♈︎︎
ITRUM Coin
234


Apple tiếp tục đưa ra lời giải thích rõ ràng về tính năng phát hiện CSAM (dữ liệu về lạm dụng tình dục trẻ em) mà hãng đã công bố vào tuần trước.

Cụ thể, công ty này tiếp tục bảo vệ quan điểm sẽ triển khai CSAM, cho rằng tính năng này thân thiện với người dùng và bảo vệ quyền riêng tư hơn các công ty khác.

Ngoài các tài liệu chi tiết với các câu hỏi thường gặp được công bố, Apple còn xác nhận rằng khi ra mắt thì tính năng phát hiện CSAM sẽ chỉ áp dụng cho ảnh được lưu trên iCloud, không phải video. Tuy nhiên, trước thực trạng nội dung CSAM xuất hiện càng nhiều trên các video, công ty thừa nhận rằng họ sẽ mở rộng, triển khai và phát triển lên cả video, dựa trên kế hoạch đã lên sẵn của Apple.

Bạn có thể bỏ ra một chút thời gian của mình để xem cách hoạt động của tính năng này. Tất cả các hoạt động của tính năng đều được thực hiện trên thiết bị, với việc Apple biến cơ sở dữ liệu ảnh từ Trung Tâm Quốc Gia về Trẻ Em Mất Tích và Bị Bóc Lột thành “một tập dữ liệu không thể xem được và được lưu trữ an toàn trên thiết bị của người dùng”. Sau đó, thiết bị sẽ dựa trên tập dữ liệu này để kiểm tra và so sánh ảnh để tìm trùng khớp, rồi khi đó thiết bị sẽ tạo một bản mã hoá an toàn nếu kết quả tìm được khớp với tập dữ liệu.

Apple cũng nhấn mạnh rằng nếu người dùng không sử dụng Ảnh iCloud thì tính năng CSAM sẽ không chạy. Điều này có nghĩa rằng nếu người dùng không muốn "đụng" tính năng này, họ có thể vô hiệu hóa Ảnh iCloud.

Cuối cùng, Apple thể hiện quyết tâm của mình về việc triển khai phát hiện CSAM trên thiết bị của người dùng sẽ tốt hơn nhiều so với việc triển khai phía máy chủ (server side) mà các công ty khác sử dụng. Apple giải thích, những triển khai đó yêu cầu một công ty quét từng bức ảnh được lưu trữ bởi người dùng trên máy chủ của họ, phần lớn trong số đó không phải là CSAM.

Việc triển khai phát hiện CSAM của Apple không yêu cầu máy chủ của Apple phải quét mọi ảnh. Bằng cách di chuyển có quy trình trên thiết bị, phương pháp của Apple an toàn hơn và được thiết kế để chỉ kiểm tra hình ảnh dựa trên cơ sở dữ liệu NCMEC về hình ảnh của CSAM đã biết, trái ngược với việc quét tất cả hình ảnh từ phía máy chủ.



Biên tập và dịch: Võ Trung Nam
Nguồn: 9TO5MAC
 
Sửa lần cuối bởi điều hành viên:

Quảng Cáo

COVID-19

COVID-19

Việt Nam
0
Tổng số ca nhiễm
0
Ca nhiễm mới trong ngày
0
Ca khỏi bệnh trong ngày

Về ITRUM

Thành viên trực tuyến

Không có thành viên trực tuyến.

Nhiều lượt xem

Thống kê diễn đàn

Chủ đề
6,259
Bài viết
8,506
Thành viên
6,908
Thành viên mới nhất
duy113

Quảng Cáo

Chia sẻ trang

Share this page
Chia sẻ

Về chúng tôi

  • Diễn Đàn ITRUM được thành lập từ 12/2016 với mục đích giao lưu, học hỏi, chia sẻ và thảo luận về mọi vấn đề về Công Nghệ Thông Tin. Chúng tôi sẽ không chịu trách nhiệm với các thông tin do thành viên đưa lên trừ thông tin nội bộ.Tuân thủ theo Nghị định số 72/2013/NĐ-CP của Chính phủ về Quản lý, cung cấp, sử dụng dịch vụ Internet và thông tin trên mạng. Website đang hoạt động thử nghiệm, chờ giấy phép
  • Email liên hệ: [email protected]
  • Bản quyền thuộc về: ITRUM

Đối Tác

Linux Team Việt Nam
Tiền Minh Vy - Chuyên trang chia sẻ thủ thuật
FreetutsDownload

Đối Tác

DMCA.com Protection Status

Fanpage Facebook

itrumdotorg

Phát hiện AdBlock!

Chúng tôi biết trình chặn quảng cáo làm rất tốt việc chặn quảng cáo, nhưng nó cũng chặn các tính năng hữu ích của trang web của chúng tôi. Để có trải nghiệm trang web tốt nhất, vui lòng tắt AdBlocker của bạn.