|
윤상두 네이버클라우드 AI Lab 소장은 지난 11일 경기도 성남에 위치한 네이버 1784에서 진행한 이데일리와의 인터뷰에서 AI의 편향성 문제 해소를 위한 네이버 차원의 노력에 대해 밝혔다.
AI가 발전하면서 AI의 편향성 우려는 더욱 커지는 상황이다. 종교나 인종, 정치성향 등에 대해 편향된 데이터를 학습한 경우 AI가 편향된 결론을 내놓게 돼 결과적으로 편향되거나 잘못된 정보가 더욱 확산할 수 있다는 비판이다.
“AI 할루시네이션(환각)과 창작능력은 연결돼 있어”
윤 소장은 “AI랩에선 AI 안전성 연구를 설립 초기부터 꾸준히 진행하고 있다”며 “AI가 사람에게 위해가 되는 질문을 받았을 때 답변을 회피하거나 ‘그 질문에 답을 할 수 없다’는 등의 답변 거절이 가능한 안전장치를 마련하는 연구들을 굉장히 중요하게 진행해 성과를 내고 있다”고 말했다.
윤 소장은 “사전처리를 하지 않으면 AI는 잘못된 데이터라고 하더라도 그것을 통해 학습하고 답변을 하려고 한다”며 “안전장치는 민감한 주제들을 미리 정한 후 관련 질문이 들어왔을 때, ‘이런 정보가 있고 저런 정보가 있지만 나는 특정한 부분에 대해선 대답할 수 없고 판단은 네가 해야 한다’는 식의 답을 하게 한다”고 설명했다.
다만 AI에게 민감한 질문에 대한 답변을 회피하도록 하는 것은 양면성이 존재한다. 안전장치를 과도하게 걸 경우 AI가 ‘민감도’를 이유로 답변을 내놓지 않거나 소극적으로 답변하는 일이 더 많아질 가능성도 있다.
윤 소장은 “실제 안전장치가 너무 많은 경우 AI가 대답할 수 있는 질문이 크게 줄고, 그렇게 되면 이용자들은 ‘AI가 멍청해졌다’고 느끼게 될 것”이라며 “AI에게 완벽하고 안전한 답변만 하게 한다면 AI가 셀프 검열을 통해 대답 능력이 떨어질 수밖에 없다”고 지적했다.
“AI 편향성 안전장치 과도하면 멍청해졌다 느낄 수도”
네이버 AI랩은 AI가 만들어낸 텍스트의 저작권 이슈를 해결하기 위한 연구도 진행하고 있다. 앞서 미국에서는 백악관 주도로 미국 생성AI 기업들이 AI 생성 콘텐츠에 이를 확인할 수 있는 워터마크를 삽입하는데 합의하고, 관련 기술 개발을 진행하고 있다.
네이버도 AI 생성 콘텐츠들의 저작권 이슈 등에 대비하기 위해 관련 연구를 진행해 왔다. 윤 소장은 “AI가 생성한 콘텐츠에 직접 워터마크를 심는 방식은 아니고, 생성된 콘텐츠 속 단어 조합에 대한 분석을 통해 AI 생성 콘텐츠 여부를 판단할 수 있다”며 “아직 초기 단계 연구지만 앞으로 해당 기술이 중요해질 것으로 보고 있다”고 했다.
네이버는 오는 24일 초대규모 AI인 하이퍼클로바X 공개를 앞두고 있다. 네이버는 당일 하이퍼클로바X 공개와 함께 대화형 AI 서비스 ‘클로바X’, 차세대 검색 서비스 큐(CUE:) 등도 소개하고, AI 윤리 정책도 함께 밝힐 예정이다.