Apple News

Câu hỏi thường gặp về nhà xuất bản của Apple để giải quyết mối quan tâm về tính năng phát hiện CSAM và quét tin nhắn

Thứ Hai, ngày 9 tháng 8 năm 2021 2:50 sáng theo giờ PDT bởi Tim Hardwick

Apple đã xuất bản Câu hỏi thường gặp có tiêu đề 'Các biện pháp bảo vệ mở rộng cho trẻ em' nhằm mục đích giảm bớt lo ngại về quyền riêng tư của người dùng về phát hiện CSAM mới trong Ảnh iCloud và an toàn thông tin liên lạc cho các tính năng của Tin nhắn mà công ty công bố tuần trước .





apple riêng tư
'Kể từ khi chúng tôi công bố các tính năng này, nhiều bên liên quan bao gồm các tổ chức quyền riêng tư và các tổ chức an toàn cho trẻ em đã bày tỏ sự ủng hộ của họ đối với giải pháp mới này, và một số đã liên hệ với các câu hỏi', đọc Câu hỏi thường gặp. 'Tài liệu này nhằm giải quyết những câu hỏi này và cung cấp sự rõ ràng và minh bạch hơn trong quy trình.'

Một số cuộc thảo luận đã làm mờ đi sự khác biệt giữa hai tính năng và Apple đã rất nỗ lực trong việc tài liệu để phân biệt chúng, giải thích rằng an toàn giao tiếp trong Tin nhắn 'chỉ hoạt động trên hình ảnh được gửi hoặc nhận trong ứng dụng Tin nhắn dành cho tài khoản con được thiết lập trong Chia sẻ gia đình', trong khi tính năng phát hiện CSAM trong & zwnj; Ảnh iCloud & zwnj; 'chỉ tác động đến những người dùng đã chọn sử dụng & zwnj; Ảnh iCloud & zwnj; để lưu trữ ảnh của họ… Không ảnh hưởng đến bất kỳ dữ liệu nào khác trên thiết bị. '



Từ Câu hỏi thường gặp:

làm thế nào để thực hiện tin nhắn viết tay ios 10

Hai tính năng này không giống nhau và không sử dụng cùng một công nghệ.

An toàn giao tiếp trong Tin nhắn được thiết kế để cung cấp cho phụ huynh và trẻ em những công cụ bổ sung giúp bảo vệ con cái họ khỏi việc gửi và nhận hình ảnh khiêu dâm trong ứng dụng Tin nhắn. Tính năng này chỉ hoạt động trên các hình ảnh được gửi hoặc nhận trong ứng dụng Tin nhắn dành cho các tài khoản con được thiết lập trong Chia sẻ trong gia đình. Nó phân tích hình ảnh trên thiết bị và do đó không thay đổi các đảm bảo về quyền riêng tư của Tin nhắn. Khi tài khoản trẻ em gửi hoặc nhận hình ảnh khiêu dâm, ảnh sẽ bị làm mờ và trẻ sẽ được cảnh báo, cung cấp các tài nguyên hữu ích và cam đoan rằng không muốn xem hoặc gửi ảnh. Như một biện pháp phòng ngừa bổ sung, trẻ nhỏ cũng có thể được thông báo rằng, để đảm bảo chúng được an toàn, cha mẹ của chúng sẽ nhận được một tin nhắn nếu chúng xem nó.

Tính năng thứ hai, phát hiện CSAM trong Ảnh iCloud, được thiết kế để giữ CSAM khỏi Ảnh iCloud mà không cung cấp thông tin cho Apple về bất kỳ ảnh nào khác với ảnh khớp với ảnh CSAM đã biết. Hình ảnh CSAM là bất hợp pháp để sở hữu ở hầu hết các quốc gia, bao gồm cả Hoa Kỳ. Tính năng này chỉ tác động đến những người dùng đã chọn sử dụng Ảnh iCloud để lưu trữ ảnh của họ. Nó không ảnh hưởng đến những người dùng chưa chọn sử dụng Ảnh iCloud. Không có ảnh hưởng đến bất kỳ dữ liệu trên thiết bị nào khác. Tính năng này không áp dụng cho Tin nhắn.

Phần còn lại của tài liệu được chia thành ba phần (in đậm bên dưới), với câu trả lời cho các câu hỏi thường gặp sau:

danh sách các chương trình và phim của apple tv

sự khác biệt giữa 12 và 12 pro
    An toàn giao tiếp trong Tin nhắn
  • Ai có thể sử dụng an toàn giao tiếp trong Tin nhắn?
  • Điều này có nghĩa là Tin nhắn sẽ chia sẻ thông tin với Apple hoặc cơ quan thực thi pháp luật?
  • Điều này có phá vỡ mã hóa end-to-end trong Tin nhắn không?
  • Tính năng này có ngăn trẻ em trong những ngôi nhà bị lạm dụng tìm kiếm sự giúp đỡ không?
  • Liệu cha mẹ có được thông báo mà trẻ không được cảnh báo và đưa ra lựa chọn?
  • Phát hiện CSAM
  • Điều này có nghĩa là Apple sẽ quét tất cả các ảnh được lưu trữ trên điện thoại Iphone ?
  • Điều này sẽ tải hình ảnh CSAM xuống & zwnj; iPhone & zwnj; để so sánh với ảnh của tôi?
  • Tại sao Apple lại làm điều này ngay bây giờ?
  • Bảo mật để phát hiện CSAM cho Ảnh iCloud
  • Hệ thống phát hiện CSAM có trong & zwnj; Ảnh iCloud & zwnj; được sử dụng để phát hiện những thứ khác ngoài CSAM?
  • Chính phủ có thể buộc Apple thêm hình ảnh không phải CSAM vào danh sách băm?
  • Hình ảnh không phải CSAM có thể được 'đưa' vào hệ thống để gắn cờ cho các tài khoản không phải CSAM không?
  • Liệu CSAM có phát hiện trong & zwnj; Ảnh iCloud & zwnj; đánh cờ sai người vô tội để thực thi pháp luật?

Bạn đọc quan tâm nên tham khảo tài liệu để biết câu trả lời đầy đủ của Apple cho những câu hỏi này. Tuy nhiên, điều đáng chú ý là đối với những câu hỏi có thể được trả lời bằng nhị phân có / không, Apple bắt đầu tất cả chúng bằng 'Không', ngoại trừ ba câu hỏi sau từ phần có tiêu đề 'Bảo mật phát hiện CSAM cho & zwnj; Ảnh iCloud & zwnj ;: '

Hệ thống phát hiện CSAM trong Ảnh iCloud có thể được sử dụng để phát hiện những thứ khác ngoài CSAM không?
Quy trình của chúng tôi được thiết kế để ngăn điều đó xảy ra. Tính năng phát hiện CSAM cho Ảnh iCloud được xây dựng để hệ thống chỉ hoạt động với hàm băm hình ảnh CSAM do NCMEC và các tổ chức an toàn trẻ em khác cung cấp. Bộ băm hình ảnh này dựa trên các hình ảnh được các tổ chức an toàn trẻ em thu thập và xác nhận là CSAM. Không có báo cáo tự động cho cơ quan thực thi pháp luật và Apple tiến hành xem xét của con người trước khi đưa ra báo cáo cho NCMEC. Do đó, hệ thống chỉ được thiết kế để báo cáo ảnh đã biết là CSAM trong Ảnh iCloud. Ở hầu hết các quốc gia, bao gồm cả Hoa Kỳ, chỉ cần sở hữu những hình ảnh này là phạm tội và Apple có nghĩa vụ phải báo cáo bất kỳ trường hợp nào mà chúng tôi biết được cho các cơ quan có thẩm quyền thích hợp.

Chính phủ có thể buộc Apple thêm hình ảnh không phải CSAM vào danh sách băm?
Apple sẽ từ chối bất kỳ yêu cầu nào như vậy. Khả năng phát hiện CSAM của Apple được xây dựng chỉ để phát hiện các hình ảnh CSAM đã biết được lưu trữ trong Ảnh iCloud đã được xác định bởi các chuyên gia tại NCMEC và các nhóm an toàn trẻ em khác. Trước đây, chúng tôi đã phải đối mặt với các yêu cầu xây dựng và triển khai các thay đổi do chính phủ ủy quyền làm suy giảm quyền riêng tư của người dùng và đã kiên quyết từ chối những yêu cầu đó. Chúng tôi sẽ tiếp tục từ chối họ trong tương lai. Hãy nói rõ rằng, công nghệ này chỉ giới hạn trong việc phát hiện CSAM được lưu trữ trong iCloud và chúng tôi sẽ không chấp nhận yêu cầu của chính phủ để mở rộng nó. Hơn nữa, Apple tiến hành xem xét con người trước khi đưa ra báo cáo cho NCMEC. Trong trường hợp hệ thống gắn cờ các ảnh không khớp với các ảnh CSAM đã biết, tài khoản sẽ không bị vô hiệu hóa và sẽ không có báo cáo nào được gửi tới NCMEC.

Hình ảnh không phải CSAM có thể được 'đưa' vào hệ thống để gắn cờ cho các tài khoản không phải CSAM không?
Quy trình của chúng tôi được thiết kế để ngăn điều đó xảy ra. Tập hợp các hàm băm hình ảnh được sử dụng để đối sánh là từ các hình ảnh hiện có, đã biết của CSAM đã được các tổ chức an toàn trẻ em thu thập và xác thực. Apple không thêm vào tập hợp các băm hình ảnh CSAM đã biết. Cùng một bộ băm được lưu trữ trong hệ điều hành của mọi người dùng iPhone và iPad, vì vậy các cuộc tấn công có chủ đích chỉ nhằm vào những cá nhân cụ thể là không thể thực hiện được theo thiết kế của chúng tôi. Cuối cùng, không có báo cáo tự động cho cơ quan thực thi pháp luật và Apple tiến hành xem xét con người trước khi đưa ra báo cáo cho NCMEC. Trong trường hợp không chắc do hệ thống gắn cờ các hình ảnh không khớp với các hình ảnh CSAM đã biết, tài khoản sẽ không bị vô hiệu hóa và sẽ không có báo cáo nào được gửi cho NCMEC.

Apple đã phải đối mặt với những lời chỉ trích đáng kể từ những người ủng hộ quyền riêng tư, nhà nghiên cứu bảo mật, chuyên gia mật mã, học giả và những người khác vì quyết định triển khai công nghệ với việc phát hành iOS 15iPad 15 , dự kiến ​​vào tháng Chín.

Điều này đã dẫn đến một thư ngỏ chỉ trích kế hoạch của Apple để quét iPhone để tìm CSAM trong & zwnj; Ảnh iCloud & zwnj; và hình ảnh khiêu dâm trong tin nhắn dành cho trẻ em, đã thu được hơn 5.500 chữ ký tính đến thời điểm viết bài. Apple cũng đã nhận được những lời chỉ trích từ WhatsApp thuộc sở hữu của Facebook, người đứng đầu Will Cathcart đã gọi nó 'cách tiếp cận sai lầm và một bước lùi đối với quyền riêng tư của mọi người trên toàn thế giới.' Giám đốc điều hành của Epic Games, Tim Sweeney cũng bị tấn công quyết định, tuyên bố rằng anh ta đã 'cố gắng hết sức' để xem động thái từ quan điểm của Apple, nhưng đã kết luận rằng, 'không thể tránh khỏi, đây là phần mềm gián điệp của chính phủ do Apple cài đặt dựa trên một giả định có tội.'

'Dù có thiện chí đến đâu, Apple vẫn đang triển khai giám sát hàng loạt cho toàn thế giới về điều này. ' nói người tố cáo nổi tiếng Edward Snowden, nói thêm rằng 'nếu họ có thể quét phim khiêu dâm trẻ em hôm nay, họ có thể quét mọi thứ vào ngày mai.' Tổ chức phi lợi nhuận Electronic Frontier Foundation cũng bị chỉ trích Các kế hoạch của Apple, tuyên bố rằng 'ngay cả một cửa hậu được ghi chép kỹ lưỡng, được suy nghĩ cẩn thận và có phạm vi hẹp vẫn là một cửa hậu.'

cách buộc khởi động lại trên iPhone 11
Tags: Quyền riêng tư của Apple, Tính năng an toàn cho trẻ em của Apple