“2년 뒤 기업 30%, AI 딥페이크로 생체 인증 신뢰 못할 것”

  • 등록 2024-02-05 오전 10:15:56

    수정 2024-02-05 오전 10:15:56

[이데일리 김현아 기자]2026년이 되면 얼굴 생체 인식 솔루션을 겨냥한 AI 딥페이크(Deepfake) 공격으로 인해 기업의 30%가 신원 확인 및 인증 솔루션을 더 이상 단독으로 신뢰할 수 없게 될 것이란 전망이 나왔다.



가트너의 VP 애널리스트인 아키프 칸(Akif Khan)은 “지난 10년 동안 AI 분야는 수많은 변곡점을 거치면서 합성 이미지 생성이 기능해졌다. 이렇게 인공적으로 생성된 실존 인물의 얼굴 이미지는 ‘딥페이크’로 알려져 있으며, 악의적인 공격자가 생체 인증을 약화시키거나 비효율적으로 만드는 데 사용될 수 있다”고 말했다.

이어 “결과적으로 조직은 인증 대상자의 얼굴이 실제 사람인지 딥페이크인지 구분할 수 없기 때문에 신원 확인 및 인증 솔루션의 신뢰도에 의문을 제기하기 시작할 것”이라고 설명했다.

오늘날 얼굴 생체 인식을 이용한 신원 확인 및 인증 프로세스는 사용자의 진위 여부 평가를 위해 PAD(Presentation attack detection) 기술을 활용하고 있다.

이에, 칸은 “PAD 메커니즘을 정의하고 평가하는 현재의 기준 및 테스트 프로세스는 최신 AI 생성 딥페이크를 이용한 디지털 인젝션 공격을 구분해내지 못한다”고 지적했다.

가트너의 연구 결과에 따르면, 가장 일반적인 공격 벡터는 프레젠테이션 공격이지만 2023년에는 인젝션 공격이 200%나 증가한 것으로 나타났다.

이러한 공격을 막아내기 위해서는 PAD, IAD(Injection attack detection) 및 이미지 검사 기술을 함께 사용해야 한다.

IAD와 이미지 검사 툴을 결합하여 딥페이크 위협 완화

얼굴 생체 인식을 넘어선 AI 딥페이크로부터 기업을 보호하기 위해서는 최고정보보안책임자(CISO)와 위험 관리 리더들이 어떤 공급업체를 선택하는지가 중요하다.

현재의 표준을 뛰어넘는 역량 및 계획을 갖췄으며 새로운 유형의 공격을 모니터링, 분류, 정량화 할 수 있는 공급업체를 선택해야 할 것이다.

칸 애널리스트는 “조직들은 공급업체들 중 이미지 검사와 결합된 IAD를 사용하여 최신 딥페이크 기반 위협을 완화하는 데 특별히 투자해 온 업체와 협력하여, 최소한의 제어 기준을 정의하기 시작해야 할 것”이라고 전했다.

전략을 정의하고 기준을 설정한 후에는 디바이스 식별 및 행동 분석과 같은 추가적인 리스크 및 인식 신호를 포함시켜 신원 확인 프로세스의 공격 탐지 확률을 높여야 한다고 조언했다.

특히 ID 및 액세스 관리를 담당하는 보안 및 위험 관리 리더들은 실제 사람의 존재 여부를 증명할 수 있는 기술을 도입하고 계정 탈취를 방지하는 추가적인 단계를 구축하는 등 AI 기반 딥페이크 공격 위험을 완화할 수 있는 조치를 취해야 한다고 했다.

이데일리
추천 뉴스by Taboola

당신을 위한
맞춤 뉴스by Dable

소셜 댓글

많이 본 뉴스

바이오 투자 길라잡이 팜이데일리

왼쪽 오른쪽

스무살의 설레임 스냅타임

왼쪽 오른쪽

재미에 지식을 더하다 영상+

왼쪽 오른쪽

두근두근 핫포토

  • "으아악! 안돼! 내 신발..."
  • 이즈나, 혼신의 무대
  • 만화 찢고 나온 미모
  • 지드래곤 스카프 ‘파워’
왼쪽 오른쪽

04517 서울시 중구 통일로 92 케이지타워 18F, 19F 이데일리

대표전화 02-3772-0114 I 이메일 webmaster@edaily.co.krI 사업자번호 107-81-75795

등록번호 서울 아 00090 I 등록일자 2005.10.25 I 회장 곽재선 I 발행·편집인 이익원 I 청소년보호책임자 고규대

ⓒ 이데일리. All rights reserved