한국형 '인공지능 대전환' 첫 발

2025-12-31 13:00:01 게재

정예 5개사 '독자 AI 파운데이션 모델' 발표 … “인공지능 강국 도약 발판”

세계 인공지능(AI) 경쟁에서 대한민국을 대표할 ‘독자 AI 파운데이션 모델’(독파모)이 베일을 벗었다.

과학기술정보통신부는 30일 서울 강남구 코엑스에서 독파모 1차 발표회를 열었다. 이날 행사에는 네이버클라우드 업스테이지 SK텔레콤 NCAI LGAI연구원 등 정예팀 5곳이 참여했다.

독파모는 정부가 오픈AI 구글 등이 주도하고 있는 세계 AI 생태계에서 한국어와 한국사회에 최적화된 AI를 개발해 AI 주권을 확보하기 위해 추진하고 있는 사업이다. 지난해 8월 5개 정예팀을 확정해 AI 학습에 필요한 그래픽처리장치(GPU)와 데이터 등을 지원했다.

정부는 다음달 중순 1개팀 탈락을 시작으로 6개월 마다 평가를 거쳐 최종 2개팀을 선발할 계획이다.

과학기술정보통신부는 30일 서울 강남구 코엑스에서 ‘독자 AI 파운데이션 모델 프로젝트 1차 발표회’를 개최했다. 앞줄 왼쪽부터 양재수 한국데이터산업진흥원장, 김유원 네이버클라우드 대표, 홍진배 정보통신기획평가원장, 이연수 NC AI 대표, 김성훈 업스테이지 대표, 정재헌 SK텔레콤 대표, 임문영 국가인공지능전략위원회 부위원장, 배경훈 부총리 겸 과기정통부 장관, 하정우 AI미래기획수석, 박윤규 정보통신산업진흥원장, 황종성 한국지능정보사회진흥원장, 성낙호 네이버클라우드 전무, 최정규 LG AI연구원 상무. 사진 과학기술정보통신부 제공

배경훈 부총리는 축사를 통해 “AI모델 개발에 매진해 온 정예팀 모두가 승자”라며 “이번 도전이 대한민국을 AI 강국으로 도약시키고, 경제·사회 전반의 AX 대전환을 완성하는 데 결정적 동력이 될 것”이라고 말했다.

이날 5개 정예팀은 5개월에 걸쳐 준비한 AI모델을 공개했다. 가장 먼저 모델을 발표한 네이버클라우드는 학습 단계부터 텍스트 이미지 음성을 동시에 이해하고 이를 생성하는 옴니모달 AI 모델을 공개했다.

성낙호 네이버클라우드 하이퍼스케일 AI 총괄은 “거대언어모델(LLM)은 책만 읽고 공부한 두뇌 같은 존재지만 옴니모달은 뛰어난 두뇌에 손과 발을 달아 보고 듣고 만지면서 입체적이고 통합적으로 학습하는 모델”이라고 설명했다. 네이버클라우드는 해당 모델로 올해 대학수학능력시험 문제를 풀이한 결과 국어 수학 한국사 등 주요 과목에서도 1등급에 해당하는 성적을 받았다고 밝혔다.

NC AI는 제조 국방 패션 등 산업의 AI 전환에 강점이 있는 배키(VAETKI)를 공개했다.

이연수 NC AI 대표는 “배키는 초거대모델부터 경량화모델 VLM까지 현장 특성에 맞춘 멀티 스케일, 멀티 모달, 멀티 모달리티를 지원한다”며 “다양한 산업 데이터를 수용하고 생성하며 각 산업군에 최적화된 특화 모델을 완성하도록 지원할 것”이라고 말했다.

이날 NC AI는 28개 산업 현장에서 진행 중인 프로젝트도 발표했다. 정예팀 가운데 유일한 스타트업인 업스테이지는 솔라 오픈 100B(매개변수1000억개)를 선보였다.

김성훈 업스테이지 대표는 “이 모델은 한국어가 굉장히 강하다”라고 말했다. 또한 솔라의 강점으로 ‘마음을 읽는다는 점’을 꼽았다. ‘어머니가 짜장면을 싫어하는 이유’를 검색하면 솔라는 한국의 정서를 반영해 자세하게 답변하지만 글로벌 모델은 이를 담아내지 못한다는 게 김 대표의 설명이다.

SK텔레콤은 5개 모델 가운데 규모가 가장 큰 500B 규모 초거대 AI 모델 ‘에이닷엑스 케이원’(A.X K1)을 공개했다.

정석근 SKT AI CIC장은 “파라미터(매개변수)는 뇌의 시냅스와 비슷하다”라며 “시냅스가 많을수록 고차원적인 사고가 가능하듯 파라미터가 많을수록 AI가 더 똑똑하고 복잡한 추론을 할 수 있다”고 말했다.

SK텔레콤에 따르면 에이닷엑스 케이원은 사용자의 지시를 따르는 부문, 한국어 시험 문제 풀이 부문에서 딥시크에 비해 각각 148%, 110% 우수한 것으로 평가됐다.

LG AI 연구원은 ‘K-엑사원’을 공개했다. LG AI 연구원에 따르면 K-엑사원은 매개변수 236B 규모 모델로 개발 착수 5개월 만에 글로벌 빅테크 최신 오픈 웨이트 모델과 경쟁할 수 있는 수준에 도달했다. 특히 전문가 혼합 모델 구조(MoE)에 하이브리드 어텐션 기술을 더해 메모리 및 연산 부담을 70% 줄이고, 고가의 최신 인프라가 아닌 A100급 그래픽처리장치(GPU) 환경에서 구동할 수 있도록 한 것이 장점이다.

LG AI연구원은 향후 조 단위 파라미터 규모 글로벌 최상위 모델과 경쟁할 수 있도록 성능을 고도화한다는 계획이다.

고성수 기자 ssgo@naeil.com

고성수 기자 기사 더보기