|
|
지난달 오픈AI가 아이폰 사용자를 위한 인공지능(AI) 챗봇 ‘챗GPT’를 앱 형태로 출시한 가운데, 정작 애플은 사내에서 챗GPT 기술 사용을 금지하고 있다. 정보 유출 우려때문이다.
글로벌 보안업체 체크포인트는 지난 1월, 다크웹 등에서 챗GPT를 사용하여 새로운 악성코드를 제작할 수 있는 사이버공격 도구를 생성하려는 시도가 발견됐다고 밝히기도 했다.
이런 가운데 과학기술정보통신부 박윤규 2차관이 13일 정보보호기업 및 학계, 유관기관 전문가들과 함께 챗GPT 등 생성형 인공지능(AI)의 보안 위협 대응방향 모색을 위해 서울 송파구 ㈜이글루코퍼레이션에서 현장 토론회를 열었다.
그러나 챗지피티를 악용해 악성코드, 랜섬웨어, 피싱메일 제작 등 사이버공격에 활용할 가능성이 있으며, 챗GPT 이용 과정에서 개인정보 및 기업의 영업 기밀 정보가 유출되는 등 크고 작은 보안 문제가 대두되며 우려의 목소리가 제기되고 있다.
미국, EU 등 해외 주요국에서도 인공지능 기술에 대한 위험성을 우려하며 안전한 사용과 신뢰 환경 구축을 위한 규제 방안 논의에 착수하고 있는 상황이다.
이날 토론회는 외부의 다양한 의견을 폭 넓게 수렴하기 위해 인공지능 기술을 정보보안에 접목하고 있는 정보보호기업을 비롯하여 인공지능 관련 산업계, 학계, 유관기관 등이 참여하였으며, 각 분야 전문가의 주제 발표와 심층토론으로 진행됐다.
첫 번째 주제발표는 이상근 고려대학교 교수가 ‘챗GPT 기술의 진화, 그리고 사이버보안’을 주제로 ▲ 챗지피티 등 생성형 인공지능 기술의 발전 동향, ▲ 생성형 인공지능의 한계와 보안 위협 분석, ▲생성형 인공지능 기술의 발전에 대비한 심층 연구 필요성에 대해 발표했다.
세 번째로 김정희 한국인터넷진흥원 미래정책연구실장은 ‘챗GPT의 보안위협 동향분석 및 대응방향‘을 주제로 ▲ 디지털 패러다임 변화에 따른 보안 위협 대응 현황, ▲ 생성형 인공지능를 통한 보안위협 현황 및 사례분석, ▲ 생성형 인공지능의 보안위협 예방을 위한 대응방안 대하여 발표했다.
전문가들은 생성형 인공지능의 보안 위협 대응 필요성에 공감하며, 생성형 인공지능의 안전한 이용과 인식제고, 생성형 인공지능을 악용한 사이버공격에 대한 예방·대응체계, 인공지능을 활용한 사이버보안 대응역량 제고 방안 등에 대해 논의했다.
박윤규 제2차관은 “챗GPT 등 생성형 인공지능 기술은 앞으로 더 발전하여 일상에 폭넓게 보편적으로 사용될 것인 만큼, 보안 위협 우려에 적극적으로 대응해 나갈 필요가 있다”면서 “정부는 생성형 인공지능 서비스를 국민이 안심하고 이용하도록 안전한 사이버환경을 조성하는 한편, 갈수록 지능화되고 고도화되는 사이버위협에 대한 대응 역랑을 갖추기 위해 최선을 다하겠다”고 했다.