애플 뉴스

글로벌 정책 그룹 연합(Global Coalition of Policy Groups), Apple에 'iPhone에 감시 기능 구축 계획' 중단 촉구

2021년 8월 19일 목요일 오전 2:23 PDT 작성: Tim Hardwick

90개 이상의 정책 및 권리 그룹의 국제 연합 공개 서한을 발표했습니다 목요일에 Apple은 'iPhone, iPad 및 기타 제품에 감시 기능을 구축'하려는 계획을 포기할 것을 촉구했습니다. 사용자의 iCloud 사진 라이브러리에서 아동 성 학대 이미지 검색 (을 통해 로이터 ).





어린이 안전 기능 노란색

'이러한 기능은 아동을 보호하고 아동 성학대 자료(CSAM)의 확산을 줄이기 위한 것이지만 보호된 언어를 검열하고 전 세계 사람들의 사생활과 보안을 위협하는 데 사용될 수 있다는 점을 우려하고 있습니다. 많은 어린이들에게 결과를 초래할 것'이라고 이 단체는 편지에 적었습니다.



미국에 기반을 둔 비영리 민주주의 및 기술 센터(CDT)가 조직한 서한의 일부 서명자는 Apple의 온디바이스 CSAM 스캐닝 시스템이 정치적 또는 기타 민감한 콘텐츠를 검색하기 위해 다른 법률 시스템을 가진 국가에서 전복될 수 있다고 우려하고 있습니다.

'이 백도어 기능이 내장되면 정부는 애플이 다른 계정으로 알림을 확대하고 성적으로 노골적인 것 이외의 이유로 불쾌감을 주는 이미지를 감지하도록 강제할 수 있습니다.'

이 서한은 또한 Apple에 가족 계정의 iMessage에 대한 계획된 변경을 포기할 것을 촉구합니다. 서명자들은 이 단계가 편협한 가정의 어린이나 교육 자료를 찾는 어린이를 위험에 빠뜨릴 수 있을 뿐만 아니라 iMessage에 대한 종단 간 암호화도 깨뜨릴 수 있다고 주장합니다.

일부 서명자는 WhatsApp이 범죄 조사에서 메시지를 해독하지 못해 반복적으로 차단된 브라질과 같이 디지털 암호화 및 개인 정보 보호 권리에 대한 법적 분쟁이 이미 가열된 국가에서 왔습니다. 다른 서명자는 인도, 멕시코, 독일, 아르헨티나, 가나 및 탄자니아에 있습니다. 서명한 그룹에는 미국 시민 자유 연합(American Civil Liberties Union), 전자 프론티어 재단(Electronic Frontier Foundation), 액세스 나우(Access Now), 프라이버시 인터내셔널(Privacy International) 및 토르 프로젝트(Tor Project)가 있습니다.

에 저장된 알려진 CSAM 이미지를 감지하려는 Apple의 계획 아이클라우드 사진 되었습니다 특히 논란이 되는 그리고 보안 연구원, 학계, 개인 정보 보호 단체 및 기타 사람들로부터 정부가 대량 감시의 한 형태로 시스템을 남용할 수 있다는 우려를 불러일으켰습니다. 회사는 게시하여 우려 사항을 해결하기 위해 노력했습니다. 추가 서류 그리고 자주하는 질문 페이지 이미지 감지 시스템이 어떻게 작동하는지 설명하고 오탐지 위험이 낮다고 주장합니다.

Apple은 또한 아동 성학대 자료의 인정된 데이터베이스에 의해 표시된 아동 사진 이상으로 이미지 감지 시스템을 확장하라는 요구를 거부할 것이라고 밝혔습니다. 로이터 법원 명령에 복종하기보다는 시장에서 철수할 것이라고 언급하지 않았다고 지적했다.

태그: Apple 개인 정보 보호 , Apple 어린이 안전 기능