|
9일(현지시간) 미 경제매체 CNBC에 따르면 애플은 올가을부터 아동착취 음란물(CSAM) 근절을 위해 새롭게 도입하는 자동 탐지 시스템을 다른 이미지로 확대하라는 정부의 요구가 있다면 거절할 것이라고 강조했다.
애플은 홈페이지를 통해 자동 탐지시스템은 아이클라우드에 저장된 아동착취 음란물 탐색에만 제한적으로 사용된다고 설명했다. 어떤 정부도 CSAM 외의 다른 콘텐츠를 탐지 대상에 추가하도록 강제할 수 없다며, 이같은 요구에 절대 응하지 않을 것이라고 재차 확인했다.
논란이 되고 있는 프로그램은 인공지능(AI) 기능을 통해 아이폰에 저장된 이미지 중에서 아동에 대한 성적 학대로 의심되는 이미지를 포착하고, 검토팀에서 위법성을 적발하면 비영리 민간단체 아동실종학대방지센터(NCMEC)에 통보하는 기능을 한다. 이미지에만 적용되며 동영상은 스캐닝하지 못 한다.
중국 등 일부 국가에서는 애플의 새로운 시스템을 정치적 내용이 담긴 사진이나 다른 유형의 이미지를 검열하는 데 사용하는 새로운 법을 만들 수 있다는 우려도 나온다.
애플측은 AI와 암호화 기술을 통해 이미지를 스캐닝하고 불법 이미지로 알려진 데이터 베이스와 디지털 지문이 일치하는지 여부를 판독해 내는 것이라며 사생활 검열과는 다르다는 입장이다.
애플은 자동 탐지시스템은 성적 학대 이미지 외의 다른 것을 감시하는 데 사용될 수 없다며, “사용자의 프라이버시를 저하시키는 정부의 요구는 이전부터 있었지만 우리는 이런 요구를 꾸준히 거부해왔고 앞으로도 계속 거절할 것”이라고 했다.