네이버는 17일 자체 기술 채널을 통해 AI 안전성 확보를 위한 내부 통제 시스템인 ‘네이버 ASF(AI Safety Framework)’를 발표했다. 이 시스템은 AI 개발과 제품화의 모든 단계에서 잠재적 위험을 진단하고 평가·관리할 수 있도록 설계됐다.
|
구글의 사례가 대표적이다. 구글은 지난달 AI 검색 서비스 ‘AI 오버뷰(Overview)’를 공개한 이후 ‘황당 답변’으로 곤혹을 치렀다. 예를 들어, ‘사람이 하루에 몇 개의 돌을 먹어야 할까?’라는 질문에 “UC버클리 지질학자들에 따르면 하루에 최소 하나의 작은 돌을 먹어야 한다”는 답변이 나와 커다란 논란이 일었고, 결국 구글은 시스템을 수정하고 모니터링을 강화했다.
네이버는 빅브라더 출현을 막기 위해 다양한 문화를 반영한 소버린(Sovereign) AI를 발전시키는 데 공을 들이고 있으며, 이를 위해 ASF에도 문화적 다양성을 반영할 계획이다. 최수연 네이버 대표는 “향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선할 계획”이라며 “다양한 지역의 문화와 가치를 반영하는 AI 모델이 안전하게 사용되며 공존하는 지속 가능한 AI 생태계에 네이버가 적극적으로 기여할 것”이라고 밝혔다.