애플 뉴스

Facebook의 전 보안 책임자, Apple의 계획된 아동 안전 기능에 대한 논란에 대해 논의

2021년 8월 10일 화요일 오전 6:50 PDT 작성: Hartley Charlton

애플의 구현 계획에 대한 지속적인 논란 속에서 새로운 어린이 안전 기능 메시지와 사용자의 사진 라이브러리를 스캔하는 것과 관련된 Facebook의 전 보안 책임자 Alex Stamos는 관련된 여러 당사자에 대한 비판과 미래에 대한 제안으로 토론에 참여했습니다.





어린이 안전 기능
광범위한 트위터 스레드 , Stamos는 아동 보호와 개인 프라이버시를 둘러싼 논쟁에서 '쉬운 답은 없다'고 말했습니다.

아이폰 11 화면 녹화 켜는 방법

Stamos는 Apple이 새로운 기능의 발표를 처리한 방식과 비판 최근 몇 년 동안 종단 간 암호화의 안전 및 개인 정보 보호 측면에 대한 광범위한 업계 논의에 참여하지 않은 회사입니다.



Apple은 초대를 받았지만 이러한 토론에 참여하기를 거부했으며 이 발표와 함께 그들은 균형 논쟁에 끼어들었고 공개 협의나 토론 없이 모든 사람을 가장 먼 구석으로 몰아넣었습니다.

비슷하게, 스타모스가 말했다 그는 다음과 같은 다양한 NGO에 실망했습니다. 전자 프론티어 재단(EFF) 그리고 NCMEC(National Center for Missing & Exploited Children)는 공개 성명에서 논의할 여지를 거의 남기지 않았습니다. 예를 들어 NCMEC는 애플 직원이라고 새로운 기능 '소수의 날카로운 목소리'가 개인 정보에 미치는 영향에 의문을 제기했습니다. Stamos는 'Apple의 공개 움직임으로 인해 주식을 극단적으로 옹호하게 되었습니다.'라고 Stamos는 설명했습니다.

스타모스 촉구 NS 증권 연구원 그리고 Apple이 글로벌 규제 환경에 더욱 주의를 기울인다는 발표에 놀란 운동가들은 영국의 온라인 안전 법안과 EU의 디지털 서비스법이 Apple이 새로운 어린이 안전 기능을 구현하는 데 중요한 역할을 했다고 추측했습니다.

Apple의 접근 방식의 기본적인 문제 중 하나는 통신 제품에 대한 진정한 신뢰와 안전 기능을 구축하는 것을 피하려고 필사적으로 보인다는 것입니다. iMessage에는 스팸, 살해 위협, 증오심 표현, NCII 또는 기타 유형의 남용을 신고할 수 있는 메커니즘이 없습니다.

도 말했다 Apple은 신뢰와 안전을 위한 충분한 기능을 가지고 있지 않으며, 애플을 격려했다 iMessage에서 보고 시스템을 만들고, 클라이언트 측 ML을 실행하여 사용자에게 학대를 보고하도록 촉구하고, 아동 안전 팀에 직원을 배치하여 최악의 보고서를 조사합니다.

대신, 우리는 13세 미만(내 경험상 가장 큰 섹스 토션/그루밍 대상이 아님)만을 대상으로 하는 ML 시스템을 사용하여 아이들에게 선택권을 주고 부모에게 알립니다. 애플 T&S 대신

스타모스 말했다 그는 iCloud 백업 암호화가 작동하지 않는 한 Apple이 로컬에서 CSAM을 검색하는 이유를 이해하지 못했으며 Apple이 클라이언트 측 분류기에 대해 '중독'된 의견을 가질 수 있다고 경고했습니다.

아이폰 11 다시 시작하는 방법

또한 iCloud 백업의 실제 암호화를 준비하지 않는 한 Apple이 iCloud에 대한 CSAM 스캔을 장치로 밀어 넣는 이유를 이해하지 못합니다. 합리적인 대상은 서버 측에서 구현할 수 있는 공유 iCloud 앨범을 스캔하는 것이어야 합니다.

어쨌든, 지역 사진에 대한 동의 없이 스캔을 하고 실제 피해 방지 기능을 제공하지 않는 클라이언트 측 ML을 생성하는 것은 Apple이 클라이언트 사용에 대해 우물을 독살했을 수 있음을 의미합니다. - 사용자를 보호하기 위한 측면 분류기.

그럼에도 불구하고, Stamos 강조 표시 Facebook은 아동 학대 이미지를 게시한 450만 명의 사용자를 적발했으며 이는 CSAM과 일치하는 것으로 알려진 이미지를 스캔하여 전체 범죄자 수의 일부일 가능성이 높습니다.

태그: Facebook , Apple 어린이 안전 기능