공동 대표 파트너사인 AI 학습 데이터 플랫폼 스타트업 ‘셀렉트스타’와 행사를 진행하며, AI 안전성 기술 교류 및 논의의 장을 만드는 데 적극적으로 기여할 계획이다.
어떤 대회인데?
‘생성형 AI 레드팀 챌린지’는 최근 급격하게 성장하고 있는 기술인 초거대 언어모델(Large Language Model, LLM)의 안전성, 신뢰성, 보안을 강화하기 위한 방법을 모색하고자 진행되는 행사다.
모의 프롬프트로 LLM 공격해 안전성 검증하는 ‘생성형 AI 레드팀 챌린지’, 국내외 기술 리더 발표 진행되는 ‘AI 안전 컨퍼런스’로 구성된다.
11일에는 실제 서비스되고 있는 LLM에 참가자들이 모의로 프롬프트 공격을 하여 모델의 안전성을 검증하는 ‘생성형 AI 레드팀 챌린지’ 대회가 개최된다.
전공과 상관없이 AI 윤리, 안전에 관심이 있는 국민 누구나 사전 신청을 통해 참여가 가능하며, 우수 참가자들에게는 총 1700만원 규모의 상금 혜택이 제공된다.
북미 AI 스타트업 ‘코히어(Cohere)’의 공동 창업자 에이단 고메즈(Aidan Gomez), 해외 빅테크의 공동 출자로 만들어진 AI 윤리안전 포럼 ‘프런티어 모델 포럼(Frontier Model Forum)’의 대표이사 크리스 메세롤(Chris Meserole), 비영리기구 ‘AI 안전센터(Center for AI Safety)’ 총괄 댄 헨드릭스(Dan Hendrycks), 글로벌 최고 수준의 이미지 생성 인공지능 개발사인 ‘스태빌리티 AI(Stability AI)’의 CEO 에마드 모스타크(Emad Mostaque) 등 산업계와 학계에서 AI 안전성 연구를 이끌고 있는 인사들이 컨퍼런스 연사로 나선다.
네이버 하이퍼클로바X 안전성 검증나ㅓ
네이버는 대표 파트너사로서 행사를 운영하며 LLM 안전성 검증 및 강화, 안전한 AI 개발을 위한 전문가 논의에 적극 참여한다.
생성형 AI 레드팀 챌린지 참가자들이 국내 최고 수준 LLM의 안전성을 직접 검증하고 실험할 수 있도록 자체 개발한 초대규모 AI ‘하이퍼클로바X(HyperCLOVA X)’를 제공한다.
네이버는 이번 대회를 통해 축적된 검증 데이터를 기반으로 하이퍼클로바X의 안전성을 한층 강화할 계획이다.
또한 네이버의 AI 안전 연구와 정책 수립을 총괄하고 있는 하정우 네이버 퓨처(Future) AI 센터장이 컨퍼런스 연사로 참여해 안전한 AI 개발을 위한 네이버의 노력을 소개할 예정이다.
네이버는 독일 튀빙겐대학교(University of Tubingen)와 협업한 ‘초대규모 언어모델에서의 개인정보 유출 가능성 탐지 도구 제안’ 연구, 서울대학교와 협업한 ‘초대규모 언어모델 신뢰성 강화 기술’ 연구 등 AI 안전성 관련 주요 선행 연구들이 글로벌 AI 학회에서 채택되는 성과를 꾸준히 거두고 있다.
네이버클라우드 대표 축사도
네이버클라우드 김유원 대표도 행사 주관 기관인 초거대AI추진협의회 회장사 대표로서 축사를 진행하며 국내 AI 안전성 논의에 힘을 보탤 예정이다.
초거대AI추진협의회는 국내 초대규모 AI 경쟁력 강화를 위한 다양한 활동을 이끌고자 초거대 AI 기술 기업, IT 서비스, AI 벤처 등 국내 대중소 105개 기업이 회원사로 참여해 지난해 6월 발족했으며, 네이버클라우드는 공동 회장사로 참여하고 있다.
하정우 네이버 퓨처 AI 센터장은 “기업과 정부가 협력해 생성형 AI의 안전성을 논의할 수 있는 기회를 마련하고, 특히 글로벌 최고 수준의 AI 기술력뿐만 아니라 윤리와 안전 분야에서도 리더십을 확보해나가고 있는 기업으로서 네이버가 많은 기여를 할 수 있게 되어 의미있게 생각한다”고 말했다.
그는 “하이퍼클로바X의 안전성을 검증하고 강화하는 것은 물론, 여러 선행 연구와 서비스 운영 경험을 통해 쌓아온 네이버의 AI 안전성 기술 역량과 노하우를 공유할 것”이라고 말했다.
생성형 AI 레드팀 챌린지는 3월 21일부터 공식 홈페이지를 통해 참가자 모집을 시작한다.