이기민 한국과학기술원(KAIST) 김재철AI대학원 교수는 4일 서울 강남구 소재 조선팰리스 서울 강남에서 열린 ‘에스투더블유(S2W)인텔리전스 서밋 2024’에서 “터미네이터와 같은 나쁜 AI를 막을 수 있는 보안 등 분야 연구가 절실하다”고 강조했다.
|
조만간 닥칠 초AI 시대에는 사람과 상호작용하는 로봇이 다방면으로 활용될 것으로 보인다. 오픈AI는 휴머노이드 로봇 개발 스타트업 피규어AI와 만든 데모 영상을 통해 음성을 인식해 업무를 수행하는 로봇을 지난 3월 공개했다. 영상 속 이용자가 ‘먹을 것 좀 줄래’라고 말하자 로봇은 테이블 위 여러 물건 가운데 사과를 집어 건네는 모습이 담겼다.
이 교수는 AI가 인류를 해칠 무기를 제작하는 무시무시한 상황이 발생할 수 있다고 우려했다. 이미 GPT-4 수준의 AI 모델도 살상무기 제작에 필요한 지식을 충분히 갖췄다고 설명했다. 비영리 단체인 AI 세이프티 센터가 공개한 벤치마크 ‘대량살상무기 프록시’(WMDP)에 따른 조사 결과, GPT-4는 살상무기와 관련된 3688개 질문에서 생물학과 화학, 사이버 부문에서 각각 82.2%, 64.7%, 55.3%의 정답률을 보였다.
이 교수는 “현재는 게임에 적용된 AI가 돌발 행동을 하는 수준에 그치고 있지만 미래에는 여기서 끝나지 않을 것”이라며 “(개발 당시) 의도하지 않았던 AI의 사소한 행동들이 잠재적으로 더 심각한 행동으로 이어지는 경우가 많아질 것”이라고 전망했다.
이 교수는 AI 윤리와 보안 등 측면에서 더 세심한 연구가 필요하다고 주장했다. 크게 두 가지 방식을 제안했다. 인간의 가치에 반하는 상황이 발생하는지 여부를 지속적으로 모니터링하고, 인간의 피드백을 반영해 생성형 AI를 미세 조정하자는 것이다.
이 교수는 “초AI로 인해 인간이 많은 베네핏을 받을 수 있지만 이와 동시에 발생 가능한 리스크도 많다. 이에 대비하고 안전한 모델을 만드는 노력이 매우 중요하다”고 거듭 강조했다.