14일 업계에 따르면 빅테크 기업들이 비용이 적게 드는 경량형 AI 개발에 속도를 내고 있다. AI 서버용 거대언어모델은 비용 측면에서 부담이 커서다.
특히 AI 거품론이 나오는 이유는 수익화 여부에서 비롯한다. 거대 AI 모델은 훈련 효율성을 위해 GPU 10만개 이상의 AI 클러스터를 구축해야 하는데, GPU 10만개 이상 클러스터를 만들기 위해 소요되는 비용은 5조원 이상으로 알려져 있다.
이 때문에 엔비디아 그래픽처리장치(GPU)처럼 비용이 많이 드는 장치를 쓰지 않아도 되는, 대중화를 노린 생성형 AI 시장이 커질 수 있다. 기업과 소비자간 거래(B2C)를 통해 생성형 AI 경험을 쌓으면, 기업들은 AI 모델 확산으로 수익성 개선이 가능해진다.
|
시장조사업체 밸류에이츠(Valuates)에 따르면 소형 언어모델 시장은 2022년 51억 8000만 달러에서 2029년 171억 9000만 달러까지 연평균 17.8% 성장할 것으로 예상된다. 김광진 한화투자증권 연구원은 “거대 AI 모델은 확산이나 배포 측면에서 한계가 있다”며 “향후 AI 모델은 배포가 용이한 소형언어모델 경쟁이 증가할 것”이라고 전망했다. 엔비디아 GPU를 꼭 쓰지 않아도 된다면 AI 서버 한 대당 구매 비용을 30~40% 절감할 수 있다고 김 연구원은 분석했다.
국내 메모리 업체인 삼성전자(005930)나 SK하이닉스(000660)에는 이 같은 상황이 긍정적으로 작용할 수 있다. 엔비디아 GPU를 쓰든 구글 TPU를 쓰든 메모리는 계속 필요해서다.
AI 기능 확대 경쟁에서 기기 성능 향상을 위한 메모리 채용량은 증가할 수밖에 없다. 황 교수는 “기업들이 엔비디아 의존도를 낮추기 위해 여러 시도를 하고 있다”며 “다만 메모리 회사는 수요가 이어질 수 있기 때문에, 우려할 부분은 없다”고 덧붙였다.