| 기사 내용과 무관함(사진=게티이미지) |
|
[이데일리 김지완 기자] 인공지능(AI) 머신러닝 데이터베이스에서 아동 성착취 사진 2000장이 삭제됐다. 이들 사진이 딥페이크 성범죄에 악용될 수 있단 우려 때문이다.
30일 AP통신에 따르면, 오픈 소스 데이터 셋을 만드는 비영리 단체인 ‘레이온’(LAION)은 미국 스탠퍼드대, 캐나다·영국 기관들과 협업해 아동 성 착취 이미지 2000여 장을 삭제했다.
이같은 조치는 최근 AI를 이용한 아동 딥페이크 성범죄가 증가했기 때문이다.
전문가들은 딥페이크 영상이 또 다른 아동 학대로 이어질 수 있다고 경고했다. 이들은 아동 성 착취 이미지가 딥페이크 성범죄에 사용될 수 있는 이미지의 AI 제공도 중단돼야 한다고 한목소리를 내는 이유다.