|
생성형 AI 등장 이후, 기술 발전이 가속화됨에 따라 과거에 비해 데이터가 복잡하고 예측하기 어려운 방식으로 처리되는 경우가 증가하고 있다. 이에 따라 AI개발·제공 과정에서 정보주체의 개인정보 침해에 대한 불안과 우려가 커지는 상황이다.
이에 개인정보위는 ‘AI 시대 안전한 개인정보 활용 정책방향’, ‘데이터 경제 활성화 추진과제’ 등 AI 개인정보 관련 주요 정책을 마련했다. 또 ‘AI 프라이버시 민관 정책협의회’를 구성해 민간 전문가들과 공동으로 개인정보 규범체계를 마련 중이다.
이번 간담회는 국내 AI 산업의 한 축인 스타트업들과 함께 개인정보 관련 주요 정책과제를 점검하고 현장의 목소리를 청취하기 위해 마련됐다.
AI 스타트업들은 AI로 인한 개인정보 위험에 대응하고, 투명성과 신뢰성을 확보하기 위한 기업 차원의 주요 성과를 공유했다.
이어 김동환 포티투마루 대표가 자연어 처리를 기반으로 딥러닝 AI 기술을 접목해 사용자 질의 의도를 정확히 이해하고, 단 하나의 정답을 도출하는 자사 핵심 기술을 소개했다. 또한 AI 신뢰성과 품질 우수성을 확보하기 위한 노력에 대해 발표했다.
마지막으로 배호 큐빅 대표는 딥페이크 대응기술 및 거대언어모델(LLM)에서 민감한 내부정보 유출을 예방하는 자사 솔루션을 소개했다. 큐빅은 고품질 데이터는 인공지능 발전의 핵심이지만 각종 규제 등으로 확보가 어려운 점을 해결하기 위해 합성데이터 시장에 주목하고 있으며, 안전한 데이터 활용을 위해 비식별 기술 등을 개발해 대응 중이다.
자유 토론에서는 간담회에 참석한 기업들이 AI 사업 추진과정에서 겪고 있는 다양한 애로 사항을 제시했다. 이 중 개인정보 관련 법적 불확실성은 다수 기업이 공통적으로 겪고 있는 문제로 드러났다.
아울러 AI 분야 가이드라인을 여러 부처에서 산발적으로 발표하기 때문에 각종 정보가 산재돼 있고, 기업에서는 이를 인지하기 어려워, AI 관련 각종 가이드라인을 한눈에 알아볼 수 있도록 범정부 통합 가이드라인 제정 필요성도 제시됐다.
한편, 일부 참석자는 딥페이크(첨단 조작 기술) 악용 등 위험성만을 강조해 규제에 초점을 둔다면 우리나라 AI 기술과 새싹기업 발전을 저해한다는 의견도 전달했다. 기술 중립적인 시각에서 개별 AI 서비스의 용례, 위험성 등을 고려한 세심한 규제·감독이 필요하다는 의견이다.
고학수 개인정보위 위원장은 “경성적인 규범은 AI 기술의 빠른 변화 속도를 따라갈 수 없기 때문에 원칙 기반의 유연한 규율체계가 필요하다”며 “사전적정성 검토와 규제샌드박스 신청 사례 등 AI 서비스·기술의 다양한 용례를 바탕으로 세밀하게 접근해 국내 AI 생태계를 발전시키는 한편, 글로벌 규범 논의 과정에서도 역할을 다해나가겠다”고 했다.