애플 “아동 음란물 외 콘텐츠 감시 요구엔 응하지 않을 것”

애플 아동착취 음란사진(CSAM) 감지 SW 새로 개발
iOS15 업그레이드시 적용…기대·우려 교차
애플 "구글·MS의 비슷한 시스템보다 보안 철저"
"정부의 시스템 확장 요구에 응하지 않을 것"
  • 등록 2021-08-10 오후 4:36:01

    수정 2021-08-10 오후 8:55:49

[이데일리 장영은 기자] 애플이 이미지를 자동 탐색하는 새로 개발한 시스템을 아동 착취 음란물(Child Sexual Abuse Material) 탐지 외에는 사용하지 않을 것이라고 밝혔다. 이 시스템이 CSAM 근절에 기여할 것이란 기대와 사생활 침해가 될 수 있다는 우려가 교차하는 가운데 나온 입장이다.

아동 착취 음란물을 탐지하는 애플의 새로운 프로그램 도입을 두고 기대와 우려가 교차하고 있다. (사진= 애플)


9일(현지시간) 미 경제매체 CNBC에 따르면 애플은 올가을부터 아동착취 음란물(CSAM) 근절을 위해 새롭게 도입하는 자동 탐지 시스템을 다른 이미지로 확대하라는 정부의 요구가 있다면 거절할 것이라고 강조했다.

애플은 홈페이지를 통해 자동 탐지시스템은 아이클라우드에 저장된 아동착취 음란물 탐색에만 제한적으로 사용된다고 설명했다. 어떤 정부도 CSAM 외의 다른 콘텐츠를 탐지 대상에 추가하도록 강제할 수 없다며, 이같은 요구에 절대 응하지 않을 것이라고 재차 확인했다.

애플은 자사의 자동 탐지 시스템이 구글이나 마이크로소프트(MS) 등에서 이미 적용하고 있는 불법 아동 성학대 이미지를 제거하기 위한 시스템보다 기술적으로 훨씬 ‘사적’(more private) 이라고 덧붙였다.

논란이 되고 있는 프로그램은 인공지능(AI) 기능을 통해 아이폰에 저장된 이미지 중에서 아동에 대한 성적 학대로 의심되는 이미지를 포착하고, 검토팀에서 위법성을 적발하면 비영리 민간단체 아동실종학대방지센터(NCMEC)에 통보하는 기능을 한다. 이미지에만 적용되며 동영상은 스캐닝하지 못 한다.

애플의 새 시스템 도입에 아동보호단체 등은 환영하는 입장을 보였지만, 개인 사용자들과 보안업계에서는 사생활 침해 우려가 있다고 비판했다. 특히 보안 전문가들은 CSAM 탐지에 사용하는 알고리즘이 사람들을 감시하거나 해킹하는 ‘백도어’가 될 수 있다며 문제를 제기했다.

중국 등 일부 국가에서는 애플의 새로운 시스템을 정치적 내용이 담긴 사진이나 다른 유형의 이미지를 검열하는 데 사용하는 새로운 법을 만들 수 있다는 우려도 나온다.

애플측은 AI와 암호화 기술을 통해 이미지를 스캐닝하고 불법 이미지로 알려진 데이터 베이스와 디지털 지문이 일치하는지 여부를 판독해 내는 것이라며 사생활 검열과는 다르다는 입장이다.

애플은 자동 탐지시스템은 성적 학대 이미지 외의 다른 것을 감시하는 데 사용될 수 없다며, “사용자의 프라이버시를 저하시키는 정부의 요구는 이전부터 있었지만 우리는 이런 요구를 꾸준히 거부해왔고 앞으로도 계속 거절할 것”이라고 했다.

이데일리
추천 뉴스by Taboola

당신을 위한
맞춤 뉴스by Dable

소셜 댓글

많이 본 뉴스

바이오 투자 길라잡이 팜이데일리

왼쪽 오른쪽

스무살의 설레임 스냅타임

왼쪽 오른쪽

재미에 지식을 더하다 영상+

왼쪽 오른쪽

두근두근 핫포토

  • 표정부자 다승왕
  • "펑" 폭발음..포항제철 불
  • 노병, 돌아오다
  • '완벽 몸매'
왼쪽 오른쪽

04517 서울시 중구 통일로 92 케이지타워 18F, 19F 이데일리

대표전화 02-3772-0114 I 이메일 webmaster@edaily.co.krI 사업자번호 107-81-75795

등록번호 서울 아 00090 I 등록일자 2005.10.25 I 회장 곽재선 I 발행·편집인 이익원 I 청소년보호책임자 고규대

ⓒ 이데일리. All rights reserved