애플 뉴스

Apple, 알려진 성적 학대 자료에 대한 사용자 사진 라이브러리 스캔을 포함한 새로운 아동 안전 기능 도입

2021년 8월 5일 목요일 오후 1시 PDT 작성: Joe Rossignol

오늘의 사과 새로운 어린이 안전 기능 미리보기 올해 말 소프트웨어 업데이트와 함께 플랫폼에 제공될 예정입니다. 회사는 이 기능이 출시될 때만 미국에서 사용할 수 있으며 시간이 지남에 따라 다른 지역으로 확장될 것이라고 말했습니다.





아이폰 통신 안전 기능

통신 안전

첫째, iPhone, iPad 및 Mac의 메시지 앱에는 성적으로 노골적인 사진을 받거나 보낼 때 어린이와 부모에게 경고하는 새로운 통신 안전 기능이 제공됩니다. Apple은 메시지 앱이 온디바이스 머신 러닝을 사용하여 이미지 첨부 파일을 분석할 것이며 사진이 성적으로 노골적인 것으로 판명되면 사진이 자동으로 흐리게 처리되고 어린이에게 경고가 표시될 것이라고 말했습니다.



iPhone에서 앱 로고를 변경하는 방법

자녀가 메시지 앱에서 민감한 것으로 표시된 사진을 보려고 하면 사진에 사적인 신체 부위가 포함될 수 있으며 사진이 상처를 줄 수 있다는 경고가 표시됩니다. 자녀의 나이에 따라 자녀가 민감한 사진을 계속 보거나 경고를 받은 후 성적으로 노골적인 사진을 다른 연락처로 보내기로 선택한 경우 부모가 알림을 받을 수 있는 옵션도 있습니다.

Apple은 iCloud에서 가족으로 설정된 계정에 대해 올해 말 iOS 15, iPadOS 15 및 macOS Monterey에 대한 업데이트에서 새로운 통신 안전 기능이 제공될 것이라고 말했습니다. Apple은 iMessage 대화가 종단 간 암호화로 보호되어 Apple에서 개인 통신을 읽을 수 없도록 했습니다.

아동 성학대 자료(CSAM) 사진 스캔

둘째, 올해부터 iOS 15 및 iPadOS 15부터 Apple은 iCloud 사진에 저장된 알려진 CSAM(아동 성적 학대 자료) 이미지를 감지할 수 있으므로 Apple은 이러한 사례를 NCMEC(National Center for Missing and Exploited Children)에 보고할 수 있습니다. , 미국 법 집행 기관과 협력하는 비영리 단체입니다.

Apple은 알려진 CSAM을 감지하는 방법이 사용자 개인 정보를 염두에 두고 설계되었다고 말했습니다. Apple은 클라우드에서 이미지를 스캔하는 대신 시스템이 NCMEC 및 기타 아동 안전 기관에서 제공하는 알려진 CSAM 이미지 해시 데이터베이스에 대해 기기 일치를 수행할 것이라고 말했습니다. Apple은 이 데이터베이스를 읽을 수 없는 해시 집합으로 변환하여 사용자의 기기에 안전하게 저장할 것이라고 밝혔습니다.

Apple에 따르면 NeuralHash라고 하는 해싱 기술은 이미지를 분석하고 해당 이미지에 고유한 숫자로 변환합니다.

Apple은 새로운 'Expanded Protections for Children' 백서에서 '해시의 주요 목적은 동일하고 시각적으로 유사한 이미지가 동일한 해시를 생성하도록 하는 반면, 서로 다른 이미지는 다른 해시를 생성하도록 하는 것입니다. '예를 들어, 약간 잘리거나 크기가 조정되거나 컬러에서 흑백으로 변환된 이미지는 원본과 동일하게 처리되며 동일한 해시를 갖습니다.'

애플 csam 순서도
이미지가 iCloud 사진에 저장되기 전에 Apple은 읽을 수 없는 알려진 CSAM 해시 세트에 대해 해당 이미지에 대해 온디바이스 일치 프로세스가 수행된다고 말했습니다. 일치하는 항목이 있는 경우 장치는 암호화된 안전 바우처를 생성합니다. 이 바우처는 이미지와 함께 iCloud 사진에 업로드되며, 일치의 미공개 임계값이 초과되면 Apple은 CSAM 일치에 대한 바우처의 내용을 해석할 수 있습니다. 그런 다음 Apple은 각 보고서를 수동으로 검토하여 일치 항목이 있는지 확인하고 사용자의 iCloud 계정을 비활성화하고 보고서를 NCMEC로 보냅니다. Apple은 정확한 임계값을 공유하지 않지만 계정이 잘못 플래그 지정되지 않도록 '매우 높은 수준의 정확도'를 보장합니다.

Apple은 알려진 CSAM을 감지하는 방법이 기존 기술에 비해 '상당한 개인 정보 보호 이점'을 제공한다고 말했습니다.

• 이 시스템은 사용자 개인 정보를 보호하면서 iCloud 사진 계정에 저장된 알려진 CSAM을 식별하는 효과적인 방법입니다.
• 프로세스의 일부로 사용자는 일치에 사용되는 알려진 CSAM 이미지 세트에 대해 아무것도 알 수 없습니다. 이것은 악의적인 사용으로부터 데이터베이스의 내용을 보호합니다.
• 시스템은 연간 1조 계정 중 1개 미만의 극히 낮은 오류율로 매우 정확합니다.
• 시스템은 iCloud 사진에 저장된 알려진 CSAM 컬렉션이 있는 사용자만 보고하기 때문에 클라우드 기반 스캔보다 훨씬 더 개인 정보를 보호합니다.

Apple 시스템의 기본 기술은 매우 복잡하며 기술 요약 자세한 내용은

'애플의 어린이 보호 확대는 판도를 바꾸는 판이다. 많은 사람들이 Apple 제품을 사용하고 있기 때문에 이러한 새로운 안전 조치는 온라인에서 유혹을 받고 아동 성적 학대 자료에 끔찍한 이미지가 유포되고 있는 아동의 생명을 구할 가능성이 있습니다.'라고 국립실종센터 회장 겸 CEO인 John Clark이 말했습니다. & 착취 아동. '국립 실종 착취 아동 센터에서 우리는 이 범죄가 아동 보호에 대한 확고한 헌신이 있을 때만 퇴치될 수 있다는 것을 알고 있습니다. Apple과 같은 기술 파트너가 나서서 그들의 헌신을 알리기 때문에 우리가 할 수 있는 일입니다. 현실은 사생활과 아동 보호가 공존할 수 있다는 것입니다. 우리는 Apple에 박수를 보내고 이 세상을 아이들에게 더 안전한 곳으로 만들기 위해 함께 일하기를 기대합니다.'

Siri 및 검색의 확장된 CSAM 지침

아이폰 csam 시리
셋째, Apple은 어린이와 부모가 안전한 온라인 상태를 유지하고 안전하지 않은 상황에서 도움을 받을 수 있도록 추가 리소스를 제공하여 장치 전반에 걸쳐 Siri 및 Spotlight Search의 지침을 확대할 것이라고 밝혔습니다. 예를 들어 Siri에게 CSAM 또는 아동 착취를 신고하는 방법을 묻는 사용자는 신고 장소와 방법에 대한 리소스를 알려줍니다.

Apple에 따르면 Siri 및 검색에 대한 업데이트는 올해 말 iOS 15, iPadOS 15, watchOS 8 및 macOS Monterey에 대한 업데이트로 제공될 예정입니다.

참고: 이 주제에 대한 토론의 정치적 또는 사회적 특성으로 인해 토론 스레드는 정치 뉴스 법정. 모든 포럼 회원과 사이트 방문자는 스레드를 읽고 팔로우할 수 있지만 게시는 게시물이 100개 이상인 포럼 회원으로 제한됩니다.

태그: Apple 개인 정보 보호 , Apple 어린이 안전 기능