|
11일(현지시간) 월스트리트저널(WSJ) 등에 따르면 미 상무부 산하 국가통신정보청(NTIA)는 AI 안전 규칙 제정을 마련하기 위한 60일간 공개 의견 수렴에 나섰다. AI의 윤리성·신뢰성을 확보하기 위한 제도적 장치를 마련하기 위한 첫걸음으로 해석된다. NICA는 수렴된 의견을 바탕으로 백악관과 의회에 정책 권고안을 제출할 예정이다.
공개 의견 수렴에 나선 것은 최근 AI 산업이 급성장하자 AI가 부정확한 정보를 제공하거나 잘못된 방향으로 이용자를 호도할 수 있다는 우려도 커지고 있기 때문이다.
WSJ은 NTIA가 AI의 위험성을 사전에 차단하기 위해 상품·서비스 출시에 앞서 안전성 인증 절차를 밟게 하는 방안도 검토 중이라고 보도했다. 미 정부에 납품하는 AI 상품·서비스에 윤리성·신뢰성 검수를 의무화하거나 AI 알고리즘 내에서 소수자 등에 대한 차별 요소를 발견하는 사람에게 포상금을 지급하는 방안도 거론된다.
최근 미국 정부는 AI의 안전성에 대한 우려를 드러내고 있다. 조 바이든 미국 대통령은 지난주 백악관 과학기술자문위원회 회의에서 AI가 사회와 경제·국가안보에 미칠 잠재적 위험을 거론하며 “기술 회사는 제품을 공개하기 전에 그것이 안전한지 확인할 책임이 있다”고 말한 바 있다. 바이든 행정부는 지난해엔 AI 개발자·이용자를 위한 가이드라인인 ‘AI 권리장전’을 만들어 AI가 성·인종차별 방지, 사생활 보호장치 등을 갖춰야 한다고 권고했다.
이탈리아 데이터보호청도 AI 챗봇인 챗GPT가 개인정보 보호 기준을 충족하지 못한다며 지난달 접속을 차단했다. 프랑스와 아일랜드, 캐나다 당국도 유사한 조치를 검토하고 있다.
AI 기업도 규제 필요성을 인정하고 있다. 챗GPT 개발사인 오픈AI는 “강력한 AI 시스템은 엄격한 안전평가를 받아야 한다”며 “최선의 형태로 규제가 마련될 수 있도록 정부와 적극적으로 협력하고 있다”고 밝혔다. 이는 불안정한 AI로 인한 사고를 미연에 방지, 사업의 지속 가능성을 확보하기 위한 것으로 해석된다.