Apple이 iCloud 사진 스캔 계획을 포기한 이유

Apple이 iCloud 사진 스캔 계획을 포기한 이유
당신과 같은 독자는 MUO를 지원하는 데 도움이 됩니다. 귀하가 당사 사이트의 링크를 사용하여 구매하면 당사는 제휴 수수료를 받을 수 있습니다. 자세히 알아보기

Apple은 2021년 8월에 어린이를 포식자에 의한 학대로부터 보호하기 위해 iCloud 콘텐츠에서 아동 성적 학대 자료(CSAM)를 스캔할 계획을 발표했습니다.





회사는 사용자 개인 정보를 유지하면서 이러한 콘텐츠를 스캔하고 일치하는 이미지를 Apple에 보고하는 iCloud Photos에서 새로운 CSAM 감지 기능을 출시할 계획이었습니다.





오늘의 메이크업 비디오

그러나 새로운 기능은 엇갈린 반응을 보였습니다. 초기 발표 이후 1년이 넘도록 Apple은 CSAM용 iCloud 사진 스캔 계획을 공식적으로 포기했습니다.





페이스 북에서 사진을 비공개로 만드는 방법

Apple, 아동 학대 자료에 대한 iCloud 스캔 계획 취소

의 보고서에 따르면 열광한 , Apple은 아동 학대 콘텐츠에 대해 iCloud를 스캔하려는 계획에서 멀어지고 있습니다. 이 도구는 iCloud에 저장된 사진을 스캔하여 어린이 안전 기관에서 식별한 알려진 CSAM 이미지와 일치하는 사진을 찾습니다. 그런 다음 CSAM 이미지를 소유하는 것은 미국을 포함한 대부분의 관할권에서 불법이기 때문에 해당 이미지를 보고할 수 있습니다.

Facebook에서 내 사진을 비공개로 만드는 방법

Apple이 iCloud 사진 스캔 계획을 취소한 이유

2021년 최초 발표 이후 Apple은 전 세계적으로 디지털 개인 정보 보호 및 보안을 옹호하는 고객, 그룹 및 개인의 반발에 직면했습니다. iPhone은 일반적으로 Android 기기보다 더 많은 보안을 제공합니다. , 그리고 많은 사람들이 이것을 뒤로 물러나는 것으로 여겼습니다. 아동 안전 단체의 승리였지만 같은 달 말 90개 이상의 정책 그룹이 Apple에 공개 서한을 보내 회사에 계획을 취소하라고 말했습니다.



 애플스토어 앞

이 편지는 도구가 아동을 학대로부터 보호 , 언론의 자유를 검열하고 사용자 개인 정보 및 보안을 위협하는 데 악용될 수 있습니다. 압력이 가중됨에 따라 Apple은 피드백을 수집하고 기능에 필요한 조정을 하기 위한 출시 계획을 중단했습니다. 그러나 피드백은 iCloud 사진을 스캔하려는 Apple의 계획에 호의적이지 않았기 때문에 회사는 공식적으로 계획을 중단했습니다.

WIRED에 대한 성명에서 회사는 다음과 같이 말했습니다.





'우리는 ... 이전에 제안한 iCloud 사진용 CSAM 감지 도구를 사용하지 않기로 결정했습니다. 회사가 개인 데이터를 샅샅이 뒤지지 않고도 어린이를 보호할 수 있으며 정부, 아동 보호 단체 및 기타 회사와 계속 협력하여 보호할 것입니다. 청소년, 사생활 보호 권리를 보호하고 인터넷을 어린이와 우리 모두에게 더 안전한 곳으로 만드십시오.'

넷플릭스를 TV로 전송하는 방법

어린이 보호를 위한 Apple의 새로운 계획

Apple은 2021년 8월에 발표되고 같은 해 12월에 출시된 통신 안전 기능을 개선하기 위한 노력을 재조정하고 있습니다.





통신 안전은 선택 사항이며 부모와 보호자가 iMessage에서 성적으로 노골적인 이미지를 보내고 받지 않도록 자녀를 보호하기 위해 사용할 수 있습니다. 이 기능은 이러한 사진을 자동으로 흐리게 처리하고 어린이는 관련된 위험에 대해 경고합니다. 또한 Apple 기기에서 CSAM을 검색하려고 하면 누구에게나 경고합니다.

CSAM 탐지 도구 출시 계획이 취소된 가운데 회사는 이 기능을 더욱 개선하고 더 많은 커뮤니케이션 앱으로 확장하기를 기대하고 있습니다.