Apple News

Apple giới thiệu các tính năng mới về an toàn cho trẻ em, bao gồm việc quét thư viện ảnh của người dùng để tìm tài liệu lạm dụng tình dục đã biết

Thứ Năm, ngày 5 tháng 8 năm 2021, 1:00 chiều theo giờ PDT của Joe Rossignol

Apple ngày nay đã xem trước các tính năng an toàn mới cho trẻ em sẽ đến với các nền tảng của nó với các bản cập nhật phần mềm vào cuối năm nay. Công ty cho biết các tính năng này sẽ chỉ có sẵn ở Hoa Kỳ khi ra mắt và sẽ được mở rộng sang các khu vực khác theo thời gian.





tính năng an toàn thông tin liên lạc iphone

An toàn thông tin liên lạc

Đầu tiên, ứng dụng Tin nhắn trên iPhone, iPad và Mac sẽ nhận được tính năng An toàn giao tiếp mới để cảnh báo trẻ em và cha mẹ của chúng khi nhận hoặc gửi ảnh khiêu dâm. Apple cho biết ứng dụng Tin nhắn sẽ sử dụng máy học trên thiết bị để phân tích tệp đính kèm hình ảnh và nếu một bức ảnh được xác định là khiêu dâm, bức ảnh sẽ tự động bị làm mờ và đứa trẻ sẽ bị cảnh cáo.



bạn có thể thêm nhiều id khuôn mặt không

Khi một đứa trẻ cố gắng xem một bức ảnh được gắn cờ là nhạy cảm trong ứng dụng Tin nhắn, chúng sẽ được cảnh báo rằng bức ảnh đó có thể chứa các bộ phận cơ thể riêng tư và bức ảnh đó có thể gây tổn thương. Tùy thuộc vào độ tuổi của trẻ, cũng sẽ có tùy chọn để cha mẹ nhận được thông báo nếu con họ tiếp tục xem ảnh nhạy cảm hoặc nếu họ chọn gửi ảnh khiêu dâm cho một người liên hệ khác sau khi được cảnh báo.

Apple cho biết tính năng An toàn Giao tiếp mới sẽ có trong các bản cập nhật cho iOS 15, iPadOS 15 và macOS Monterey vào cuối năm nay cho các tài khoản được thiết lập dưới dạng gia đình trong iCloud. Apple đảm bảo rằng các cuộc trò chuyện iMessage sẽ vẫn được bảo vệ bằng mã hóa end-to-end, giúp Apple không thể đọc được các thông tin liên lạc riêng tư.

Quét ảnh để tìm tài liệu lạm dụng tình dục trẻ em (CSAM)

Thứ hai, bắt đầu từ năm nay với iOS 15 và iPadOS 15, Apple sẽ có thể phát hiện các hình ảnh Tài liệu Lạm dụng Tình dục Trẻ em (CSAM) đã biết được lưu trữ trong Ảnh iCloud, cho phép Apple báo cáo những trường hợp này cho Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC) , một tổ chức phi lợi nhuận phối hợp với các cơ quan thực thi pháp luật Hoa Kỳ.

Apple cho biết phương pháp phát hiện CSAM đã biết của họ được thiết kế với mục đích lưu ý đến quyền riêng tư của người dùng. Thay vì quét hình ảnh trên đám mây, Apple cho biết hệ thống sẽ thực hiện đối sánh trên thiết bị với cơ sở dữ liệu về các hàm băm hình ảnh CSAM đã biết do NCMEC và các tổ chức an toàn trẻ em khác cung cấp. Apple cho biết họ sẽ tiếp tục chuyển đổi cơ sở dữ liệu này thành một bộ băm không thể đọc được được lưu trữ an toàn trên thiết bị của người dùng.

Công nghệ băm, được gọi là NeuralHash, phân tích một hình ảnh và chuyển đổi nó thành một số duy nhất cụ thể cho hình ảnh đó, theo Apple.

Apple cho biết: “Mục đích chính của hàm băm là để đảm bảo rằng các hình ảnh giống hệt nhau và giống nhau về mặt hình ảnh sẽ tạo ra cùng một hàm băm, trong khi các hình ảnh khác biệt với nhau dẫn đến các hàm băm khác nhau”. 'Ví dụ: một hình ảnh đã được cắt một chút, thay đổi kích thước hoặc chuyển đổi từ màu sắc sang màu đen và trắng được xử lý giống với hình ảnh ban đầu và có cùng một hàm băm. '

biểu đồ luồng csam apple
Trước khi một hình ảnh được lưu trữ trong iCloud Photos, Apple cho biết một quy trình đối sánh trên thiết bị được thực hiện cho hình ảnh đó với bộ băm CSAM đã biết không thể đọc được. Nếu có sự trùng khớp, thiết bị sẽ tạo ra một chứng từ an toàn mật mã. Phiếu thưởng này được tải lên iCloud Photos cùng với hình ảnh và sau khi vượt quá ngưỡng không được tiết lộ của các trận đấu, Apple có thể giải thích nội dung của phiếu thưởng cho các trận đấu CSAM. Sau đó, Apple sẽ xem xét thủ công từng báo cáo để xác nhận có trùng khớp, vô hiệu hóa tài khoản iCloud của người dùng và gửi báo cáo tới NCMEC. Apple không chia sẻ ngưỡng chính xác của mình, nhưng đảm bảo 'mức độ chính xác cực cao' để các tài khoản không bị gắn cờ sai.

Apple cho biết phương pháp phát hiện CSAM đã biết của họ cung cấp 'lợi ích quyền riêng tư đáng kể' so với các kỹ thuật hiện có:

• Hệ thống này là một cách hiệu quả để xác định CSAM đã biết được lưu trữ trong tài khoản Ảnh iCloud đồng thời bảo vệ quyền riêng tư của người dùng.
• Là một phần của quy trình, người dùng cũng không thể tìm hiểu bất kỳ điều gì về tập hợp các hình ảnh CSAM đã biết được sử dụng để đối sánh. Điều này bảo vệ nội dung của cơ sở dữ liệu khỏi bị sử dụng với mục đích xấu.
• Hệ thống rất chính xác, với tỷ lệ sai sót cực kỳ thấp, dưới một trong một nghìn tỷ tài khoản mỗi năm.
• Hệ thống bảo vệ quyền riêng tư hơn đáng kể so với quét dựa trên đám mây, vì nó chỉ báo cáo những người dùng có bộ sưu tập CSAM đã biết được lưu trữ trong Ảnh iCloud.

Công nghệ cơ bản đằng sau hệ thống của Apple khá phức tạp và nó đã xuất bản tóm tắt kỹ thuật với nhiều chi tiết hơn.

'Việc Apple mở rộng bảo vệ trẻ em là một yếu tố thay đổi cuộc chơi. Với rất nhiều người sử dụng các sản phẩm của Apple, các biện pháp an toàn mới này có tiềm năng cứu sống trẻ em đang bị dụ dỗ trên mạng và những hình ảnh khủng khiếp đang được lưu hành trong các tài liệu lạm dụng tình dục trẻ em ', John Clark, Chủ tịch kiêm Giám đốc điều hành của Trung tâm Quốc gia về Mất tích cho biết & Trẻ em bị bóc lột. 'Tại Trung tâm Quốc gia về Trẻ em Mất tích & Bị bóc lột, chúng tôi biết tội phạm này chỉ có thể được đấu tranh nếu chúng ta kiên định trong việc cống hiến bảo vệ trẻ em. Chúng tôi chỉ có thể làm điều này bởi vì các đối tác công nghệ, như Apple, luôn nỗ lực và làm cho sự cống hiến của họ được biết đến. Thực tế là quyền riêng tư và bảo vệ trẻ em có thể cùng tồn tại. Chúng tôi hoan nghênh Apple và mong muốn hợp tác cùng nhau để biến thế giới này trở thành một nơi an toàn hơn cho trẻ em. '

Hướng dẫn CSAM mở rộng trong Siri và Tìm kiếm

iphone csam siri
Thứ ba, Apple cho biết họ sẽ mở rộng hướng dẫn trong Siri và Spotlight Search trên các thiết bị bằng cách cung cấp các tài nguyên bổ sung để giúp trẻ em và cha mẹ luôn an toàn khi trực tuyến và nhận trợ giúp trong các tình huống không an toàn. Ví dụ: những người dùng hỏi Siri về cách họ có thể báo cáo CSAM hoặc khai thác trẻ em sẽ được chỉ đến các tài nguyên để gửi báo cáo ở đâu và như thế nào.

Theo Apple, các bản cập nhật cho Siri và Tìm kiếm sẽ ra mắt vào cuối năm nay trong một bản cập nhật cho iOS 15, iPadOS 15, watchOS 8 và macOS Monterey.

Lưu ý: Do tính chất chính trị hoặc xã hội của cuộc thảo luận liên quan đến chủ đề này, chủ đề thảo luận nằm trong Tin tức chính trị diễn đàn. Tất cả các thành viên diễn đàn và khách truy cập trang web đều được hoan nghênh đọc và theo dõi chủ đề, nhưng việc đăng bài chỉ giới hạn ở các thành viên diễn đàn có ít nhất 100 bài viết.

Tags: Quyền riêng tư của Apple, Tính năng an toàn cho trẻ em của Apple