|
네이버 창업자인 이해진 글로벌투자책임자(GIO)는 지난 21일 각국 정상과 빅테크 대표 등이 참석한 ‘AI 서울 정상회의(AI Seoul Summit)’ 정상 세션에서 AI 안전성과 AI 주권을 강조하며 “다음 달 네이버 AI 안전 프레임워크를 공개할 예정”이라고 밝혔다.
공개 예정인 네이버 AI 안전 프레임워크는 기존의 AI 안전성 실행 체계를 한층 강화한 것이 특징이다. 네이버 구성원이 산업 현장에서 AI 시스템을 개발하고 배포하는 과정에서 AI 안전성을 구체적으로 실천하기 위한 구체적 내용이 담기게 될 것으로 알려졌다.
네이버 관계자는 “글로벌 커뮤니티에서도 네이버 AI 안전 프레임워크를 참고해 각 국가 또는 문화권만의 가치를 반영한 안전성 검증 프로토콜을 설계할 수 있기를 기대한다”고 밝혀, AI 다양성과 안전성을 위한 획기적 방안이 담기게 될 것이란 점을 암시했다.
네이버는 그동안 지속적으로 AI 안전성을 위한 노력을 이어왔다. 2021년 상반기 생성형 AI 안전성 강화를 위한 레드팀을 구성해 운영하고 있고, 이를 기반으로 자체 초대규모 AI 하이퍼클로바X의 경우 안전성 측면에서 우수한 평가를 받고 있다. 네이버클라우드가 지난달 공개한 하이퍼클로바X 테크니컬 리포트에 따르면 하이퍼클로바X 답변의 안전성은 비교 대상 모델들 중 가장 높은 점수를 받았다. 한국어 답변의 유해성을 평가하는, 벤치마크를 기준으로 답변의 질적 측면과 유해성을 종합적으로 고려했을 때도 리포트 내 비교 모델들 대비 가장 우수한 결과를 보였다.
|
네이버는 지난해엔 AI가 종교·도덕 등 사회적으로 첨예한 이슈에 대해 편향적으로 발언하는 문제를 완화하기 위해 한국어로 구성된 데이터셋을 제안해 글로벌 최고 권위 AI 학회에 채택되기도 했다. 특히 문화권에 따라 편향적 발언의 기준이 다를 수 있다는 점을 고려해 다른 국가에서도 자체적으로 데이터셋을 구축할 수 있도록 설계 방법을 함께 제안해 학계의 주목을 받기도 했다.
이 같은 노력으로 네이버는 두 차례 열린 AI 정상회의에 글로벌 기업들과 함께 참가하며 AI 기술력 및 AI 안전성을 위한 노력이 글로벌에서도 인정받았다. 글로벌 빅테크들이 참가해 AI 안전성 연구 및 레드팀 운영 관련 협력을 논의한 AI 정상회의에 국내 기업 중엔 네이버와 삼성전자만 두 번 모두 참석했다.
하정우 네이버 퓨처 AI 센터장은 지난 22일 AI 글로벌 포럼에서 “생성형 AI가 생산성 혁신을 불러올 수 있지만 AI의 잠재적 위험을 최소화하기 위해 안전성을 검증할 수 있는 시스템이나 프로토콜을 만들어야 한다”며 안전한 AI 구축을 위해 네이버가 수행한 노력을 소개했다.
하 센터장은 “보편적인 가치를 훼손하지 않는 선에서 AI 안전성에는 각 문화나 지역의 특징적인 가치를 반영해야 한다”며 “해당 문화에 적합한 안전성 검증 프로토콜을 효과적으로 구축할 수 있는 도구를 제공해야 한다”고 말했다. 그러면서 안전한 AI가 만들어낸 혁신의 기회에서 어떤 사람이나 이해관계자, 국가도 배제되지 않으려면 모든 국가들이 각국의 문화와 맥락을 충분히 이해하고 있는 소버린 AI를 개발할 수 있도록 도와야 한다고 강조했다.