Apple News

Craig Federighi thừa nhận sự bối rối xung quanh các tính năng an toàn cho trẻ em của Apple và giải thích chi tiết mới về các biện pháp bảo vệ

Thứ Sáu, ngày 13 tháng 8 năm 2021, 7:33 sáng theo giờ PDT của Hartley Charlton

Phó chủ tịch cấp cao về kỹ thuật phần mềm của Apple, Craig Federighi, hôm nay đã bảo vệ kế hoạch gây tranh cãi của công ty các tính năng an toàn cho trẻ em trong một cuộc phỏng vấn quan trọng với Tạp chí Phố Wall , tiết lộ một số chi tiết mới về các biện pháp bảo vệ được tích hợp trong hệ thống của Apple để quét thư viện ảnh của người dùng để tìm Tài liệu lạm dụng tình dục trẻ em (CSAM).





craig wwdc 2021 quyền riêng tư
Federighi thừa nhận rằng Apple đã xử lý sự thông báo trong số hai tính năng mới kém, liên quan đến việc phát hiện nội dung khiêu dâm trong Tin nhắn dành cho trẻ em và nội dung CSAM được lưu trữ trong Ảnh iCloud thư viện và thừa nhận sự nhầm lẫn phổ biến xung quanh các công cụ:

Rõ ràng là rất nhiều tin nhắn bị lộn xộn khá tệ về cách mọi thứ được hiểu. Chúng tôi ước rằng điều này sẽ được công bố rõ ràng hơn một chút cho mọi người bởi vì chúng tôi cảm thấy rất tích cực và mạnh mẽ về những gì chúng tôi đang làm.



sự khác biệt giữa bút chì táo thế hệ thứ nhất và thứ hai

[...]

Nhìn lại, giới thiệu hai tính năng này cùng một lúc là một công thức cho sự nhầm lẫn này. Bằng cách phát hành chúng cùng lúc, mọi người đã kết nối chúng về mặt kỹ thuật và rất sợ hãi: chuyện gì đang xảy ra với tin nhắn của tôi? Câu trả lời là ... không có gì đang xảy ra với tin nhắn của bạn.

Tính năng An toàn Truyền thông có nghĩa là nếu trẻ em gửi hoặc nhận hình ảnh khiêu dâm qua iMessage, chúng sẽ được cảnh báo trước khi xem, hình ảnh sẽ bị mờ và sẽ có tùy chọn cảnh báo cho cha mẹ chúng. Mặt khác, quét CSAM cố gắng khớp ảnh của người dùng với ảnh đã băm của CSAM đã biết trước khi chúng được tải lên iCloud. Các tài khoản đã bị phát hiện CSAM sau đó sẽ được Apple xem xét thủ công và có thể được báo cáo cho Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC).

những tính năng thú vị của iphone 11 pro max

Các tính năng mới đã phải hứng chịu rất nhiều lời chỉ trích từ người dùng, nhà nghiên cứu bảo mật , NS Electronic Frontier Foundation (EFF) và Edward Snowden , Cựu giám đốc bảo mật của Facebook , và ngay cả Nhân viên của Apple .

Giữa những lời chỉ trích này, Federighi đã đề cập đến một trong những lĩnh vực quan tâm chính, nhấn mạnh rằng hệ thống của Apple sẽ được bảo vệ để không bị lợi dụng bởi chính phủ hoặc các bên thứ ba khác với 'nhiều cấp độ khả năng kiểm tra.'


Federighi cũng tiết lộ một số chi tiết mới xung quanh các biện pháp bảo vệ của hệ thống, chẳng hạn như thực tế là người dùng sẽ cần gặp khoảng 30 trận đấu cho nội dung CSAM trong Hình ảnh thư viện trước khi Apple được cảnh báo, sau đó nó sẽ xác nhận xem những hình ảnh đó có phải là bản sao chính hãng của CSAM hay không.

Nếu và chỉ khi bạn đáp ứng một ngưỡng nào đó theo thứ tự khớp với 30 hình ảnh khiêu dâm trẻ em đã biết, thì chỉ khi đó Apple mới biết bất kỳ điều gì về tài khoản của bạn và biết bất kỳ điều gì về những hình ảnh đó và tại thời điểm đó, chỉ biết về những hình ảnh đó chứ không phải về bất kỳ hình ảnh nào khác của bạn. Đây không phải là một số phân tích cho việc bạn có một bức ảnh của con bạn trong bồn tắm? Hoặc, đối với vấn đề đó, bạn có một bức ảnh của một số nội dung khiêu dâm thuộc bất kỳ loại nào khác không? Điều này thực sự chỉ khớp trên dấu vân tay chính xác của các hình ảnh khiêu dâm trẻ em cụ thể đã biết.

Ông cũng chỉ ra lợi thế bảo mật của việc đặt quy trình đối sánh trên điện thoại Iphone trực tiếp, thay vì nó xảy ra trên máy chủ của & zwnj; iCloud & zwnj ;.

Bởi vì nó trên [điện thoại], các nhà nghiên cứu bảo mật liên tục có thể xem xét nội dung những gì đang xảy ra trong phần mềm [điện thoại] của Apple. Vì vậy, nếu bất kỳ thay đổi nào được thực hiện nhằm mở rộng phạm vi của điều này theo một cách nào đó — theo cách mà chúng tôi đã cam kết không thực hiện — có khả năng xác minh, họ có thể phát hiện ra điều đó đang xảy ra.

Khi được hỏi liệu cơ sở dữ liệu hình ảnh được sử dụng để khớp với nội dung CSAM trên thiết bị của người dùng có thể bị xâm phạm khi chèn các tài liệu khác, chẳng hạn như nội dung chính trị ở một số vùng nhất định hay không, Federighi giải thích rằng cơ sở dữ liệu được xây dựng từ các hình ảnh CSAM đã biết từ nhiều tổ chức an toàn trẻ em, với ít nhất hai là 'ở các khu vực pháp lý riêng biệt,' để bảo vệ chống lại việc lạm dụng hệ thống.

tại sao podcast của tôi không phát

Theo Federighi, các tổ chức bảo vệ trẻ em này cũng như một đơn vị kiểm toán độc lập sẽ có thể xác minh rằng cơ sở dữ liệu hình ảnh chỉ bao gồm nội dung từ các thực thể đó.

Cuộc phỏng vấn của Federighi là một trong những phản hồi PR lớn nhất từ ​​Apple cho đến nay sau phản ứng trái chiều của công chúng về việc công bố các tính năng an toàn cho trẻ em, nhưng công ty cũng đã nhiều lần cố gắng giải quyết mối quan tâm của người dùng , xuất bản Câu hỏi thường gặp và trực tiếp giải quyết các mối quan tâm trong phỏng vấn với giới truyền thông .

Tags: The Wall Street Journal, Craig Federighi, Các tính năng an toàn cho trẻ em của Apple