|
17일(현지시간) 로이터통신에 따르면 페이스북 모회사 메타플랫폼(이하 메타)은 청소년 이용자들을 위한 이런 내용의 안전 사용 강화 방안을 발표했다.
이번 조치는 최근 소셜미디어(SNS)의 청소년에 미치는 부정적인 영향에 대한 우려가 커지고 있는 상황에서 메타 측이 개인정보 보호 및 자녀 보호 기능을 강화한 대대적인 개편을 단행한 것이다.
인스타그램과 페이스북의 메타를 비롯해 틱톡의 바이트댄스, 유튜브의 구글 등은 이미 SNS의 중독성과 관련해 수백건의 소송에 직면해 있다. 이들 SNS가 기능을 의도적으로 설계해 청소년에게 중독성을 강화하고 있다는 지적이 잇따라 제기됐다.
10대 계정은 민감한 콘텐츠를 볼 수 없고, 인스타그램의 알고리즘은 성적인 콘텐츠나 자살 및 자해에 관한 콘텐츠를 추천하지 않는다.
인스타그램에 60분 이상 접속하면 앱을 종료하라는 알림이 표시되며, 오후 10시부터 오전 7시까지 밤새 알림을 무음으로 설정하는 기본 ‘수면 모드’가 제공된다.
아울러 부모의 감독 권한도 강화된다. 만 16세 미만의 사용자는 부모의 허락이 있어야만 기본 설정을 변경할 수 있다. 부모에겐 자녀가 누구와 소통하는지 모니터링하고 앱 사용을 제한할 수 있는 ‘감독 모드’ 설정이 제공된다.
청소년들이 나이를 속이거나 다른 기기를 사용해 성인용 계정을 만들려고 하는 경우 이를 추적할 수 있다는 게 메타 측 주장이다. 메타는 나이를 성인으로 표시한 사람이 실제는 청소년일 가능성이 있는지를 예측하는 기술도 개발 중이다.
아담 모세리 인스타그램 최고경영자(CEO)는 이번 청소년 보호 조치 도입과 관련해 “10대 이용자가 크게 줄어들 것으로 예상한다”면서도 “단기적으로 분명히 손해가 되겠지만, 부모들로부터 신뢰를 얻고 그들을 안심시키는 것이 장기적으로는 사업에 도움이 될 것”이라고 말했다.