애플 뉴스

Craig Federighi, Apple 아동 안전 기능에 대한 혼란을 인정하고 보호 장치에 대한 새로운 세부 사항을 설명

2021년 8월 13일 금요일 오전 7:33 PDT 작성: Hartley Charlton

Apple의 소프트웨어 엔지니어링 수석 부사장인 Craig Federighi는 오늘 회사의 논란의 여지가 있는 계획을 변호했습니다. 어린이 안전 기능 와의 중요한 인터뷰에서 월스트리트 저널 , 아동 성적 학대 자료(CSAM)에 대해 사용자의 사진 라이브러리를 스캔하기 위해 Apple 시스템에 내장된 보호 장치에 대한 여러 가지 새로운 세부 사항을 공개합니다.





크레이그 wwdc 2021 개인 정보 보호
Federighi는 Apple이 지난주 발표 두 가지 새로운 기능 중 아동용 메시지의 노골적인 콘텐츠 감지 및 에 저장된 CSAM 콘텐츠와 관련하여 아이클라우드 사진 라이브러리와 도구에 대한 광범위한 혼란을 인정했습니다.

많은 메시지가 어떻게 이해되었는지 면에서 꽤 심하게 뒤죽박죽이 된 것이 분명합니다. 우리는 우리가 하는 일에 대해 매우 긍정적이고 강하게 느끼기 때문에 이것이 모두에게 조금 더 명확하게 밝혀졌으면 합니다.



iPhone 12에서 배터리를 공유하는 방법

[...]

돌이켜보면 이 두 가지 기능을 동시에 도입하는 것이 이런 종류의 혼란을 야기하는 방법이었습니다. 동시에 공개함으로써 사람들은 기술적으로 그들을 연결하고 매우 두려워했습니다. 내 메시지에 무슨 일이 일어나고 있습니까? 대답은...당신의 메시지에 아무 일도 일어나지 않는다는 것입니다.

통신 안전 기능은 어린이가 iMessage를 통해 노골적인 이미지를 보내거나 받으면 보기 전에 경고를 받고 이미지가 흐려지며 부모에게 경고를 보낼 수 있는 옵션이 있음을 의미합니다. 반면 CSAM 스캐닝은 사용자의 사진을 iCloud에 업로드하기 전에 알려진 CSAM의 해시된 이미지와 일치시키려고 시도합니다. CSAM이 감지된 계정은 Apple의 수동 검토 대상이 되며 NCMEC(National Center for Missing and Exploited Children)에 보고될 수 있습니다.

Apple Watch에서 물을 제거하는 방법

새로운 기능은 사용자들로부터 많은 비판을 받았지만, 보안 연구원 , NS 전자 프론티어 재단(EFF)과 에드워드 스노든 , 페이스북 전 보안국장 , 그리고 심지어 애플 직원 .

이러한 비판 속에서 Federighi는 주요 우려 사항 중 하나를 언급하면서 Apple의 시스템이 '다중 수준의 감사 가능성'을 가진 정부 또는 기타 제3자에 의해 이용당하지 않도록 보호될 것이라고 강조했습니다.


Federighi는 또한 사용자가 CSAM 콘텐츠에 대해 약 30번의 경기를 만나야 한다는 사실과 같이 시스템의 안전 장치에 대한 여러 가지 새로운 세부 사항을 공개했습니다. 사진 Apple이 경고를 받기 전에 라이브러리를 확인하고 해당 이미지가 CSAM의 실제 인스턴스로 나타나는지 확인합니다.

알려진 아동 포르노 이미지가 30개 정도 일치하는 임계값을 충족하는 경우에만 Apple은 귀하의 계정에 대해 무엇이든 알고 해당 이미지에 대해서도 알고 있습니다. 당신의 다른 모든 이미지. 이것은 당신이 욕조에 있는 당신의 아이의 사진을 가지고 있었습니까? 아니면 그와 관련하여 다른 종류의 포르노 사진이 있습니까? 이것은 말 그대로 알려진 특정 아동 포르노 이미지의 정확한 지문에서만 일치합니다.

그는 또한 매칭 프로세스를 아이폰 ‌iCloud‌의 서버에서 발생하지 않고 직접.

[전화]에 있기 때문에 보안 연구원은 Apple의 [전화] 소프트웨어에서 무슨 일이 일어나고 있는지 지속적으로 조사할 수 있습니다. 따라서 우리가 하지 않기로 약속한 방식으로 이 범위를 확장하기 위한 변경 사항이 있는 경우 검증 가능성이 있으며 이러한 일이 일어나고 있음을 알 수 있습니다.

사용자 장치의 CSAM 콘텐츠를 일치시키는 데 사용되는 이미지 데이터베이스가 특정 지역의 정치적 콘텐츠와 같은 다른 자료를 삽입함으로써 손상될 수 있는지 묻는 질문에 Federighi는 데이터베이스가 여러 아동 안전 기관의 알려진 CSAM 이미지로 구성되어 있다고 설명했습니다. 시스템 남용을 방지하기 위해 최소 2개가 '별도의 관할권에' 있습니다.

사과 계정을 얻는 방법

Federighi에 따르면 이러한 아동 보호 기관과 독립 감사 기관은 이미지 데이터베이스가 해당 기관의 콘텐츠로만 구성되어 있는지 확인할 수 있습니다.

Federighi의 인터뷰는 어린이 안전 기능 발표에 대한 엇갈린 대중의 반응에 따라 지금까지 Apple의 가장 큰 PR 푸시백 중 하나이지만 회사는 반복적으로 시도했습니다. 사용자의 우려를 해결 , FAQ 게시 에 대한 우려 사항을 직접 해결하고 언론 인터뷰 .

태그: 월스트리트 저널, 크레이그 페더리기, 애플 어린이 안전 기능