단국대, 인공지능 적대적 공격 탐지·보정 기술 개발

2026-04-21 14:14:43 게재

김선오 교수팀, 재학습 없이 신뢰성 높여

국내 대학 연구팀이 인공지능(AI)의 판단을 왜곡하는 ‘적대적 공격’을 탐지하고 보정하는 기술을 개발했다.

단국대는 김선오 교수(컴퓨터공학과)팀이 엄대호 서울시립대 교수와 공동으로 인공지능 신뢰도를 높이는 방어 기술을 개발했다고 21일 밝혔다.

적대적 공격은 이미지나 데이터에 사람이 인지하기 어려운 미세한 변형을 가해 인공지능이 전혀 다른 대상으로 인식하도록 만드는 방식이다. 자율주행, 보안, 의료영상 등 정확성과 신뢰성이 중요한 분야에서 위험 요소로 지적돼 왔다.

연구팀은 기존 모델이 단일 입력 이미지에 의존해 작은 교란에도 오판할 수 있다는 한계를 개선하기 위해 ‘다중 시점 기반 적응형 대응(MAC)’ 기법을 제안했다. 이 기법은 여러 이미지를 동시에 분석해 데이터의 변형·오염 정도를 추정하고 결과를 보정하는 방식이다.

특히 별도의 재학습 없이 추론 단계에서 적용할 수 있어 추가 비용 부담을 줄이면서도 속도와 메모리 효율을 유지할 수 있다는 점이 특징이다. 연구팀은 다양한 데이터셋과 공격 환경에서 성능을 검증해 실제 활용 가능성을 확인했다고 설명했다.

김선오 교수는 “입력 데이터를 다양한 시각에서 재검증하고 공격 정도에 따라 결과를 보정하도록 설계한 것이 핵심”이라며 “인공지능 안전성과 신뢰성이 중요한 분야에서 활용될 수 있을 것”이라고 밝혔다.

이번 연구 결과는 컴퓨터 비전 분야 국제 학술대회인 ‘국제전기전자공학회·컴퓨터비전학회 학술대회(CVPR)’에 채택됐으며, 6월 발표될 예정이다.

장세풍 기자 spjang@naeil.com
장세풍 기자 기사 더보기