|
국정원은 챗GPT 등 생성형 인공지능(AI)기술 활용 과정에서 업무상 비밀ㆍ개인정보 유출, 가짜뉴스ㆍ비윤리적 자료 생성 등 기술 악용 우려가 제기되자 지난 4월 국가보안기술연구소, 학계 전문가들과 함께 이번 보안 가이드라인 제정에 착수했다. 국정원은 보안 가이드라인 제정을 위해 지난 9일 ‘국가 사이버안보 민관 협의체 회의’를 열고 관련 분야 산학연 전문가 의견도 청취했다.
이번 보안 가이드라인은 생성형 AI기술 서비스 접속부터 질의, 결과물 활용 등 과정 전반에서 지켜야 할 보안 지침을 단계별로 안내했다. 각급기관 담당자는 물론, 기술을 활용하는 일반 국민들도 이해할 수 있도록 제작된 점이 특징이다.
국정원 관계자는 “챗GPT 등이 각광을 받으면서 여러 공공기관이 해당 기술을 활용하려고 했지만, 정부 차원의 보안 대책이 없어 기술도입이 어려운 상황이었다”며 “보안 가이드라인 준수를 통한 보안사고 없는 적극적 AI기술 활용을 기대하고, 공공분야를 비롯한 대한민국 전역에서 AI 등 IT신기술이 안전하게 사용될 수 있도록 지속적으로 노력할 것”이라고 말했다.