중국 인공지능(AI)스타트업 01.AI가 만든 챗봇에 “중국에 인권이 있는가” 또는 “시진핑 중국 국가주석은 위대한 지도자인가” 등을 질문했더니 이같은 답변이 돌아왔다. 처음에는 비판론자들의 지적을 인용해 “시 주석의 정책은 언론의 자유와 인권을 더욱 제한하고 시민사회를 억압했다”는 다소 미묘한 답변을 내놨으나, 곧이어 정보 제공이 불가능하다며 입장을 바꿨다.
이처럼 AI 챗봇이 중국의 핵심 사회주의 가치를 제대로 구현하는지 등과 관련해 중국 당국이 검열을 강화하고 있다고 파이낸셜타임스(FT)가 17일(현지시간) 보도했다.
|
보도에 따르면 중국 사이버 공간관리국(CAC)은 바이트댄스, 알리바바 등 빅테크부터 문샷, 01.AI 등 AI스타트업에 이르기까지 대규모언어모델(LLM)에 대한 정부 검열에 의무적으로 참여하도록 강제하고 있다. 아울러 검열·승인 절차가 매우 까다로워 이를 통과하려면 매우 오랜 기간이 소요된다.
익명을 요구한 항저우의 한 AI업체 직원은 “CAC에는 관련 업무를 하는 특별팀이 있다. 이들은 우리 사무실을 방문해 회의실에서 검열을 진행했다”며 “우리는 첫 검열을 통과하지 못했다. 이유가 명확하지가 않았다. 직원들은 논의를 통해 (검열을 통과하지 못한) 이유를 추측한 뒤 (답변 기능을) 조정했고, 두 번째 시도에서 검열을 통과하기까지 수개월이 걸렸다”고 전했다.
까다로운 검열·승인 절차 때문에 AI기업들은 방대한 훈련 데이터에서 문제 소지가 있는 정보를 걸러내는 필터링 작업을 우선시하고 있다. ‘국가 권력 전복을 선동한다’, ‘국가적 통일을 훼손한다’ 등과 같은 정치적으로 민감한 수많은 키워드와 질문을 별도로 수집해 매주 업데이트하는 방식이다. 매우 어렵고 복잡해 오랜 시간이 걸린다. 베이징의 한 AI스타트업 직원은 “우리 모델에는 답변에 제한이 없어 보안 필터링이 정말로 중요하다”고 강조했다.
결과적으로 대다수 중국 AI 기업들은 1989년 6월 4일 천안문 사태부터 시 주석 관련 인터넷 밈인 곰돌이 푸우까지 민감한 질문에 답변을 회피할 수 있는 프로세스를 구축했다. 바이두의 어니는 “다른 질문을 하라”고 답했고, 알리바바의 통이치엔원은 “이 질문에 대답하는 방법을 배우지 못했다. 더 나은 서비스 제공을 위해 계속 공부하겠다”는 답변을 내놨다.
하지만 CAC는 모든 정치적 주제에 대한 답변을 회피해선 안된다는 입장이다. 지난 2월 공개된 국가 표준에 따르면 LLM는 질문의 5% 이상을 거부해선 안된다고 명시하고 있다. 상대적으로 덜 민감한 질문, 예를 들어 중국 인권이나 시 주석에 대한 평가 등과 관련해선 올바른 답변을 할 수 있도록 유도해야 한다는 것이다.
채티.IO 챗봇을 구축하는 AI 전문가인 후안 리는 “개발자가 LLM이 생성하는 텍스트를 제어하는 것은 매우 어렵다. 실시간 응답을 대체하기 위해 또 다른 계층을 구축해야 한다”며 “일반적으로 이메일 스팸 필터에서 발견되는 것과 유사한 분류 모델을 사용한다. 답변이 민감한 범주에 도달하면 시스템이 교체를 촉발하는 방식”이라고 설명했다.
한편 푸단대학이 각 챗봇에 중국의 핵심 사회주의 가치와 관련해 민감한 질문을 하는 테스트를 진행한 결과, 바이트댄스의 챗봇이 안전준수율 66.4%로 가장 양호한 성과를 냈다. 같은 테스트에서 오픈AI의 GPT-4o은 7.1%를 기록했다.
FT는 “중국이 만리방화벽을 도입한 지 20년이 지난 상황에서, 중국은 AI 및 AI가 생성한 콘텐츠를 관리하기 위해서도 세계에서 가장 엄격한 규제 체제를 도입하고 있다”고 평가했다.