업스테이지 ‘솔라 오픈’ 공개
‘딥시크 R1’ 성능 추월
인공지능(AI) 스타트업 업스테이지는 자체 개발한 거대언어모델(LLM) ‘솔라 오픈 100B’를 오픈소스로 전면 공개했다고 6일 밝혔다.
솔라 오픈은 업스테이지가 주관사로 참여 중인 과학기술정보통신부의 ‘독자 AI 파운데이션 모델 프로젝트’의 첫 번째 결과물이다. 데이터 구축부터 학습에 이르는 과정 전반을 독자적으로 수행하는 ‘프롬 스크래치’ 방식으로 개발했다. 업스테이지는 해당 모델을 글로벌 오픈소스 플랫폼 ‘허깅페이스’에 공개했다. 특히 개발 과정과 기술적 세부 내용을 담은 테크 리포트도 함께 발표했다.
솔라 오픈은 1020억 매개변수 모델로 성능 면에서 글로벌 프런티어급 모델들과 어깨를 나란히 했다. 중국의 대표 AI 모델인 ‘딥시크 R1’ 대비 사이즈는 15%에 불과하지만 한국어(110%) 영어(103%) 일본어(106%) 등 3개 국어 주요 벤치마크 평가에서 이를 상회하는 성과를 거뒀다.
특히 한국어 능력은 단연 압도적이다. 한국 문화 이해도(Hae-Rae v1.1), 한국어 지식(CLIcK) 등 주요 한국어 벤치마크 결과 딥시크 R1 대비 2배 이상의 성능 격차를 보였다. 오픈AI의 유사 규모 모델인 ‘GPT-OSS-120B-Medium’과 비교해서도 100% 앞선 성능을 기록했다.
수학, 복합 지시 수행, 에이전트 등 고차원적 지식 영역에서도 딥시크 R1과 대등한 성능을 확보했다.
한편 업스테이지는 솔라 오픈 학습에 사용한 데이터셋의 일부를 한국지능정보사회진흥원(NIA)의 ‘AI 허브’를 통해 개방해 국내 AI 연구 생태계 활성화를 위한 공공재로 환원한다는 계획이다.
고성수 기자 ssgo@naeil.com