KAIST, 인공지능 ‘지식 이식’ 기술 개발

2026-02-01 16:17:37 게재

새 모델 등장해도 재학습 없이 적응 지식 이전 … 후학습 비용 절감

KAIST는 전산학부 김현우 교수 연구팀이 고려대학교 연구팀과 공동으로 서로 다른 인공지능(AI) 모델 간에 학습된 지식을 그대로 전달할 수 있는 ‘지식 이식’ 기술을 개발했다고 1일 밝혔다.

이번에 개발된 기술은 새로운 AI 모델이 등장할 때마다 특정 분야 지식을 다시 학습해야 했던 기존 방식의 비효율을 줄이기 위한 것이다. 연구팀은 이를 ‘TransMiter’로 명명했다. 모델 구조나 크기에 관계없이 기존 AI가 습득한 적응 지식을 다른 AI로 이전할 수 있는 것이 특징이다.

최근 사진과 텍스트를 함께 이해하는 시각–언어 모델(Vision-Language Model, VLM)이 빠르게 확산되고 있지만, 새로운 모델이 출시될 때마다 막대한 데이터와 비용을 들여 후학습(post-training)을 반복해야 하는 문제가 제기돼 왔다. 기존 적응 기법 역시 모델 구조가 조금만 달라져도 활용이 어렵거나, 연산·메모리 비용이 크게 늘어나는 한계가 있었다.

연구팀이 제안한 TransMiter는 AI 내부 구조를 직접 수정하지 않고, 예측 결과(output)를 기반으로 학습된 적응 경험을 다른 모델에 전달하는 방식이다. 서로 다른 AI 모델이라도 동일한 입력에 대한 출력 정보를 정리해 공유함으로써, 복잡한 재학습 과정 없이 기존 지식을 즉시 활용할 수 있도록 했다.

연구진은 이번 기술을 통해 그동안 재사용이 어렵다고 여겨졌던 AI의 적응 지식을 모델 종류와 무관하게 이전할 수 있음을 입증했다고 설명했다. 이를 통해 반복적인 후학습 비용을 줄이고, 초거대언어모델에 특정 분야 지식을 추가·갱신하는 이른바 ‘지식 패치’ 방식으로의 활용 가능성도 제시했다.

김현우 교수는 “초거대언어모델이 빠르게 발전하는 상황에서, 모델이 바뀔 때마다 반복적으로 수행하던 후학습 비용을 크게 줄일 수 있다”며 “필요한 전문 지식을 손쉽게 추가하는 방식으로 AI 활용 효율을 높일 수 있을 것”이라고 말했다.

이번 연구에는 KAIST 전산학부 송태훈 석사과정생과 이상혁 박사후연구원, 고려대 박지환 박사과정생이 공동 저자로 참여했으며, 연구 결과는 인공지능 분야 국제 학술대회인 ‘AAAI 2026’에 구두 발표로 채택돼 지난 1월 25일 공개됐다.

한편 이번 연구는 국방기술진흥연구소와 정보통신기획평가원(IITP)의 연구 지원을 받아 수행됐다.

장세풍 기자 spjang@naeil.com
장세풍 기자 기사 더보기