Apple News

Các nhà nghiên cứu đại học đã xây dựng hệ thống quét CSAM kêu gọi Apple không sử dụng công nghệ 'nguy hiểm'

Thứ sáu ngày 20 tháng 8 năm 2021 6:48 sáng theo giờ PDT bởi Sami Fathi

Các nhà nghiên cứu đại học đáng kính đang gióng lên hồi chuông cảnh báo về công nghệ đằng sau kế hoạch quét của Apple điện thoại Iphone thư viện ảnh của người dùng cho CSAM hoặc tài liệu lạm dụng tình dục trẻ em, gọi công nghệ này là 'nguy hiểm'.





apple riêng tư
Jonanath Mayer, một trợ lý giáo sư khoa học máy tính và các vấn đề công cộng tại Đại học Princeton, cũng như Anunay Kulshrestha, một nhà nghiên cứu tại Trung tâm Chính sách Công nghệ Thông tin Đại học Princeton, cả hai đã viết một op-edCác bài viết washington , phác thảo kinh nghiệm của họ với công nghệ phát hiện hình ảnh xây dựng.

Các nhà nghiên cứu đã bắt đầu một dự án cách đây hai năm để xác định CSAM trong các dịch vụ trực tuyến được mã hóa end-to-end. Các nhà nghiên cứu lưu ý rằng đối với lĩnh vực của họ, họ 'biết giá trị của mã hóa end-to-end, bảo vệ dữ liệu khỏi sự truy cập của bên thứ ba.' Họ nói rằng mối quan tâm đó là điều khiến họ kinh hoàng về việc CSAM 'đang sinh sôi nảy nở trên các nền tảng được mã hóa.'



sử dụng tìm iPhone của tôi trên máy tính

Mayer và Kulshrestha cho biết họ muốn tìm điểm trung gian cho tình hình: xây dựng một hệ thống mà các nền tảng trực tuyến có thể sử dụng để tìm CSAM và bảo vệ mã hóa end-to-end. Các nhà nghiên cứu lưu ý rằng các chuyên gia trong lĩnh vực này nghi ngờ về triển vọng của một hệ thống như vậy, nhưng họ đã cố gắng xây dựng nó và trong quá trình này, họ nhận thấy một vấn đề đáng kể.

Chúng tôi đã tìm cách khám phá một trung gian khả thi, nơi các dịch vụ trực tuyến có thể xác định nội dung có hại trong khi vẫn bảo toàn mã hóa end-to-end. Khái niệm rất đơn giản: Nếu ai đó chia sẻ tài liệu khớp với cơ sở dữ liệu về nội dung có hại đã biết, dịch vụ sẽ được cảnh báo. Nếu một người chia sẻ nội dung vô tội, dịch vụ sẽ không học được gì. Mọi người không thể đọc cơ sở dữ liệu hoặc tìm hiểu xem nội dung có khớp hay không, vì thông tin đó có thể tiết lộ các phương pháp thực thi pháp luật và giúp tội phạm trốn tránh bị phát hiện.

Các nhà quan sát hiểu biết cho rằng một hệ thống như của chúng ta là không khả thi. Sau nhiều lần bắt đầu sai, chúng tôi đã xây dựng một nguyên mẫu hoạt động. Nhưng chúng tôi gặp phải một vấn đề rõ ràng.

Kể từ khi Apple công bố tính năng này, công ty đã bị tấn công dữ dội với những lo lắng rằng hệ thống đằng sau việc phát hiện CSAM có thể được sử dụng để phát hiện các dạng ảnh khác theo yêu cầu của các chính phủ áp bức. Apple đã mạnh mẽ từ chối khả năng như vậy, nói rằng họ sẽ từ chối bất kỳ yêu cầu nào như vậy từ các chính phủ.

Tuy nhiên, những lo ngại về tác động trong tương lai của công nghệ được sử dụng để phát hiện CSAM vẫn còn phổ biến. Mayer và Kulshrestha nói rằng mối quan tâm của họ về cách các chính phủ có thể sử dụng hệ thống để phát hiện nội dung khác ngoài CSAM đã khiến họ bị 'làm phiền'.

amazon music hd vs apple music

Ví dụ, một chính phủ nước ngoài có thể yêu cầu một dịch vụ tiếp cận những người chia sẻ bài phát biểu chính trị không thiện cảm. Đó không phải là giả thuyết: WeChat, ứng dụng nhắn tin phổ biến của Trung Quốc, đã sử dụng đối sánh nội dung để xác định tài liệu bất đồng chính kiến. Năm nay, Ấn Độ đã ban hành các quy tắc có thể yêu cầu sàng lọc trước những nội dung chỉ trích chính sách của chính phủ. Nga gần đây đã phạt Google, Facebook và Twitter vì không gỡ bỏ các tài liệu biểu tình ủng hộ dân chủ.

Chúng tôi đã phát hiện ra những thiếu sót khác. Quá trình đối sánh nội dung có thể có kết quả dương tính giả và người dùng độc hại có thể đánh lừa hệ thống để khiến những người dùng vô tội phải giám sát.

Chúng tôi đã rất băn khoăn khi thực hiện một bước mà chúng tôi chưa từng thấy trong tài liệu khoa học máy tính: Chúng tôi cảnh báo chống lại thiết kế hệ thống của chính chúng tôi, thúc giục nghiên cứu thêm về cách giảm thiểu những nhược điểm nghiêm trọng ....

Apple đã tiếp tục giải quyết những lo ngại của người dùng về các kế hoạch của mình, xuất bản tài liệu bổ sungmột trang Câu hỏi thường gặp . Apple tiếp tục tin rằng hệ thống phát hiện CSAM của họ, sẽ xảy ra trên thiết bị của người dùng, phù hợp với các giá trị quyền riêng tư lâu đời của họ.

Tags: Quyền riêng tư của Apple, WashingtonPost.com, Các tính năng an toàn cho trẻ em của Apple