쏘카 AI팀, 자연어처리 최고 학회 'EMNLP 2023' 우수상

  • 등록 2023-12-08 오전 8:06:00

    수정 2023-12-08 오전 8:06:00

쏘카 AI팀. 왼쪽부터 박경호 팀장, 김현수 매니저, 조충현 매니저. (사진=쏘카)
[이데일리 한광범 기자] 쏘카는 자사 AI팀(박경호 팀장, 김현수 매니저, 조충현 매니저, 원해진 매니저)이 자연어처리 분야 세계 최고 권위를 자랑하는 ‘EMNLP 2023’에서 채택된 논문이 우수상을 받았다고 8일 밝혔다.

EMNLP(Empirical Methods in Natural Language Processing)는 자연어처리(NLP, Natural Language Processing) 분야 최고의 국제 학술대회로 꼽힌다. EMNLP에서는 AI 번역, 기계 독해, 번역 등 언어 데이터 기반의 인공지능 연구를 다룬다. 이달 6일~10일 사이 싱가포르에서 개최되는 ‘EMNLP 2023’에는 구글 딥마인드, 마이크로소프트 리서치 등 유수의 AI 기업이 참여했다.

쏘카 AI팀은 지난 7일 열린 MRL(Multilingual Representation Learning) 워크숍에 참가해 다양한 언어에서 활용할 수 있는 다국어 언어 처리 기술에 대한 연구 성과를 공유했다. 쏘카 AI팀은 ‘소규모 언어 데이터를 활용한 다국어 음성 파운데이션 모델 학습 방법(Adapt and Prune Strategy for Multilingual Speech Foundation Model on Low-resourced Languages)’을 제안, 수십억 개에서 수천억 개의 파라미터를 가진 거대모델에서 필요한 파라미터만 추출해 새로운 언어 혹은 도메인에서도 성능을 보장할 수 있는 사례에 대해 소개했다.

쏘카 AI팀이 제안한 방법은 먼저 Lottery Ticket Hypothesis라는 경량화 기법을 이용해 거대 모델에서 타깃으로 삼은 언어에 관련된 파라미터만을 추출한다. 추출된 파라미터에는 타깃 언어과 관련된 문법적, 고차원의 언어적 특성이 담겨있어 적은 파라미터만으로도 충분히 여러 문제를 풀 수 있다.

제안한 기법은 도메인에 관련된 지식(domain-specific knowledge)을 추가적으로 학습시키기 위해 LoRA(Low-Rank Adaption)을 이용한다. LoRA 기법을 통해 약 2% 만의 파라미터만으로 학습이 가능해 적은 양의 연산 자원에도 기존과 유사한 성능을 달성할 수 있음을 밝혔다.

박경호 쏘카 AI 팀장은 “쏘카에서 연구한 음성 언어 파운데이션 모델을 세계 최고 권위를 자랑하는 학회에서 공유할 수 있어 뜻깊었고, 이번 논문이 성과가 자연어 학습 모델 연구에 레퍼런스로 활용되길 기대한다”며 “앞으로도 지속적인 연구를 통해 쏘카의 모빌리티 서비스를 효율화하는 한편 이용자에게는 더 합리적이고 편리한 이동 경험을 제공하는데 적용할 수 있도록 노력하겠다”고 말했다.

한편, 쏘카 AI팀은 올해 EMNLP, ICLR 등 유명 국제 학회에서 약 7편의 연구논문을 발표했고, 연구 성과는 다양한 AI 제품에 적용되고 있다. 대표적으로 이번 연구 결과는 쏘카가 오는 2024년 선보일 AICC(AI-based Contact Center) 제품에도 적용, 음성 언어 파운데이션 모델 구축에 필요한 연산 자원을 절감하는데 큰 역할을 했다.

이데일리
추천 뉴스by Taboola

당신을 위한
맞춤 뉴스by Dable

소셜 댓글

많이 본 뉴스

바이오 투자 길라잡이 팜이데일리

왼쪽 오른쪽

스무살의 설레임 스냅타임

왼쪽 오른쪽

재미에 지식을 더하다 영상+

왼쪽 오른쪽

두근두근 핫포토

  • 핫걸! 다 모였네
  • "노병은 돌아온다"
  • '완벽 몸매'
  • 바이든, 아기를
왼쪽 오른쪽

04517 서울시 중구 통일로 92 케이지타워 18F, 19F 이데일리

대표전화 02-3772-0114 I 이메일 webmaster@edaily.co.krI 사업자번호 107-81-75795

등록번호 서울 아 00090 I 등록일자 2005.10.25 I 회장 곽재선 I 발행·편집인 이익원 I 청소년보호책임자 고규대

ⓒ 이데일리. All rights reserved