KAIST, 안테나로 AI 모델 탈취 기술 공개
원거리서 ‘설계도’ 분석 … 물리 기반 보안 위협 확인
국내 대학 연구진이 원거리에서 인공지능(AI) 모델 구조를 탈취할 수 있는 기술을 공개하고 대응 방안도 함께 제시했다.
KAIST 전산학부 한준 교수 연구팀은 싱가포르국립대, 저장대와 공동으로 소형 안테나만으로 인공지능 모델 구조를 분석하는 공격 기술 ‘모델스파이(ModelSpy)’를 개발했다고 3일 밝혔다.
이 기술은 인공지능 연산 과정에서 발생하는 전자기파를 포착해 내부 구조를 역추적하는 방식이다. 그래픽처리장치(GPU)에서 발생하는 미세 신호 패턴을 분석해 모델의 층 구조와 설정값을 복원하는 것이 핵심이다.
실험 결과 벽 너머나 최대 6m 거리에서도 인공지능 모델 구조를 파악할 수 있었고, 딥러닝 모델의 핵심 구조인 층을 최대 97.6% 정확도로 추정했다.
특히 서버 침투나 악성코드 설치 없이 소형 안테나만으로 공격이 가능해 기존 사이버 보안 체계를 우회하는 새로운 유형의 위협으로 평가된다. 물리적 환경에서도 기업의 핵심 인공지능 자산이 유출될 수 있다는 점에서 파장이 예상된다.
연구팀은 전자기파 교란과 연산 난독화 등 대응 기술도 함께 제시했다. 공격 가능성을 입증하는 데 그치지 않고 현실적 방어 방안을 제안했다는 점에서 의미가 있다는 평가다.
한준 교수는 “인공지능 시스템이 물리적 환경에서도 공격에 노출될 수 있음을 확인했다”며 “자율주행과 국가 기반시설 등 핵심 인공지능 인프라 보호를 위해 사이버와 물리를 결합한 보안 체계 구축이 필요하다”고 말했다.
이번 연구는 컴퓨터 보안 분야 국제 학술대회인 NDSS 2026에서 발표돼 최우수 논문상을 수상했다.