|
이날 열린 REAIM은 정부와 기업, 학계, 시민사회 등이 모여 AI 기술의 군사적 이용 방안을 논의하는 국제 행사다. 이날 열린 브레이크아웃 세션에서는 AI가 군사와 사이버 안보에 미치는 영향과 잠재력을 중심으로 토론을 이어갔다.
좌장을 맡은 이원태 아주대 연구교수(전 한국인터넷진흥원 원장)는 “AI를 군사 전략적 의사결정 수단으로 활용할 때 기능적, 기술적 위험성이 존재한다”며 “여러 한계점과 부작용에 대한 윤리적, 법적 대응 방안이 필요하다”고 강조했다. AI가 제공한 데이터를 기반으로 지휘관들이 판단을 내릴 때 나타날 수 있는 환각(할루시네이션)이나 AI가 자체적으로 판단해 공격과 방어 등을 수행하는 자율무기가 간과할 수 있는 윤리적 위험성 등을 없앨 방안이 필요하다는 의미다.
이어 “무인으로 운용되는 드론이나 로봇도 정밀하게 목표를 설정하려면 데이터 정확성이 담보돼야 한다”며 “의사결정과 판단을 위해 어떻게 데이터를 수집하고 분석할 지가 핵심”이라고 덧붙였다.
이어 “국제법에서 중요한 비례성 원칙 등에 대한 적용에서도 우려가 나온다”며 “복잡하고 빠르게 변하는 전시 상황에서 AI가 전투원과 민간인을 구분해야 하는데 이 같은 역량을 갖추고 있는지 확실하지 않다. 따라서 AI가 군사적 맥락에서 운용될 수 있도록 국제적 가이드라인이 필요한 상황”이라고 부연했다.
이진 사이버안보연구소 소장은 데이터 학습의 효율성을 높여야 한다고 말했다. 이 소장은 “지금의 AI 산업은 정확하게 과거 군비경쟁과 같다. 돈을 들인 만큼 결과가 나오고 있고, 미국을 이길 방도가 없다시피 한 상황”이라며 “파인튜닝과 프로파일링으로 AI를 고도화하는 것은 동일한 데이터를 기반으로 하기 때문에 한계가 생길 가능성이 크다. 결국 방법을 바꿔 똑같은 데이터를 기반으로 전쟁 상황에 대한 롤플레잉을 각각 돌리고 데이터셋을 여러 개 만든다면 더 심도있는 결과가 나올 것이라고 본다”고 말했다.