Apple News

Các nhà nghiên cứu bảo mật bày tỏ sự báo động về kế hoạch quét ảnh iCloud của Apple, nhưng đã phổ biến rộng rãi

Thứ Năm, ngày 5 tháng 8 năm 2021 2:04 chiều PDT bởi Juli Clover

quả táo hôm nay đã công bố điều đó với sự ra mắt của iOS 15iPad 15 , nó sẽ bắt đầu quét Ảnh iCloud ở Hoa Kỳ để tìm Tài liệu lạm dụng tình dục trẻ em (CSAM) đã biết, với kế hoạch báo cáo kết quả cho Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC).





Tính năng an toàn cho trẻ em
Trước khi Apple trình bày chi tiết kế hoạch của mình, tin tức về sáng kiến ​​CSAM đã bị rò rỉ và các nhà nghiên cứu bảo mật đã bắt đầu bày tỏ lo ngại về cách giao thức quét hình ảnh mới của Apple có thể được sử dụng trong tương lai, như đã lưu ý. Thời báo tài chính .

Apple đang sử dụng hệ thống 'NeuralHash' để so sánh hình ảnh CSAM đã biết với ảnh trên người dùng điện thoại Iphone trước khi chúng được tải lên iCloud. Nếu có sự trùng khớp, bức ảnh đó sẽ được tải lên cùng với chứng từ an toàn mật mã và ở một ngưỡng nhất định, quá trình xem xét sẽ được kích hoạt để kiểm tra xem người đó có CSAM trên thiết bị của họ hay không.



cách di chuyển các trang trên màn hình chính của iphone

Vào thời điểm hiện tại, Apple đang sử dụng công nghệ quét và đối sánh hình ảnh của mình để tìm kiếm hành vi lạm dụng trẻ em, nhưng các nhà nghiên cứu lo lắng rằng trong tương lai, công nghệ này có thể được điều chỉnh để quét các loại hình ảnh khác đáng quan tâm hơn, chẳng hạn như các dấu hiệu chống chính phủ tại các cuộc biểu tình.

Trong một loạt các tweet, nhà nghiên cứu mật mã Johns Hopkins Matthew Green nói rằng quét CSAM là một 'ý tưởng thực sự tồi' vì trong tương lai, nó có thể mở rộng sang quét ảnh được mã hóa đầu cuối thay vì chỉ nội dung được tải lên & zwnj; iCloud & zwnj ;. Đối với trẻ em, Apple triển khai tính năng quét riêng tìm kiếm nội dung khiêu dâm trực tiếp trong iMessages, được mã hóa đầu cuối.

Green cũng nêu lên lo ngại về các hàm băm mà Apple dự định sử dụng vì có thể có 'va chạm', nơi ai đó gửi một tệp vô hại chia sẻ hàm băm với CSAM và có thể dẫn đến cờ sai.

Về phần mình, Apple cho biết công nghệ quét của họ có 'mức độ chính xác cực cao' để đảm bảo các tài khoản không bị gắn cờ sai và các báo cáo được xem xét thủ công trước khi & zwnj; iCloud & zwnj; tài khoản bị vô hiệu hóa và một báo cáo được gửi tới NCMEC.

Green tin rằng việc triển khai của Apple sẽ thúc đẩy các công ty công nghệ khác áp dụng các kỹ thuật tương tự. 'Điều này sẽ làm vỡ đập,' ông viết. 'Các chính phủ sẽ yêu cầu nó từ tất cả mọi người.' Ông so sánh công nghệ này với 'các công cụ mà các chế độ đàn áp đã triển khai.'


Nhà nghiên cứu bảo mật Alec Muffett, người trước đây từng làm việc tại Facebook, nói rằng quyết định của Apple triển khai loại quét hình ảnh này là một 'bước đi lớn và thụt lùi đối với quyền riêng tư cá nhân.' Ông nói: “Apple đang gỡ bỏ quyền riêng tư để kích hoạt tính năng năm 1984.

Ross Anderson, giáo sư kỹ thuật bảo mật tại Đại học Cambridge cho biết đây là một 'ý tưởng hoàn toàn kinh khủng' có thể dẫn đến 'giám sát hàng loạt phân tán' đối với các thiết bị.

Như nhiều người đã chỉ ra trên Twitter, nhiều công ty công nghệ đã thực hiện quét hình ảnh cho CSAM. Google, Twitter, Microsoft, Facebook và những người khác sử dụng phương pháp băm hình ảnh để tìm kiếm và báo cáo những hình ảnh lạm dụng trẻ em đã biết.


Cũng cần lưu ý rằng Apple đã đã sẵn sàng quét một số nội dung đối với hình ảnh lạm dụng trẻ em trước khi triển khai sáng kiến ​​CSAM mới. Vào năm 2020, giám đốc quyền riêng tư của Apple, Jane Horvath, nói rằng Apple đã sử dụng công nghệ sàng lọc để tìm kiếm các hình ảnh bất hợp pháp và sau đó vô hiệu hóa tài khoản nếu phát hiện bằng chứng về CSAM.

ảnh trực tiếp trên iphone là gì

Apple vào năm 2019 đã cập nhật các chính sách bảo mật của nó lưu ý rằng nó sẽ quét nội dung đã tải lên để tìm 'nội dung bất hợp pháp tiềm ẩn, bao gồm cả tài liệu bóc lột tình dục trẻ em', vì vậy, thông báo hôm nay không hoàn toàn mới.

Lưu ý: Do tính chất chính trị hoặc xã hội của cuộc thảo luận liên quan đến chủ đề này, chủ đề thảo luận nằm trong Tin tức chính trị diễn đàn. Tất cả các thành viên diễn đàn và khách truy cập trang web đều được hoan nghênh đọc và theo dõi chủ đề, nhưng việc đăng bài chỉ giới hạn ở các thành viên diễn đàn có ít nhất 100 bài viết.

Tags: Quyền riêng tư của Apple, Tính năng an toàn cho trẻ em của Apple