미국현장 리포트
미 국방부의 AI 전쟁 무기화 둘러싼 갈등
수백명의 구글 직원들이 회사 최고경영자에게 공개서한을 보내 미 국방부가 구글의 인공지능(AI) 기술을 기밀 군사 업무에 사용하는 것을 금지할 것을 요구했다.
이는 또다른 경쟁 AI 기업인 앤스로픽(Anthropic)이 유사한 제한을 요구했다가 국방부와 갈등을 빚은지 두달 만에 나온 움직임이다. 워싱턴포스트가 입수한 서한에 따르면 이번 청원에는 구글의 핵심 AI 조직인 딥마인드 소속 연구진을 포함해 600명 이상의 직원들이 서명했다.
이들은 순다르 피차이 CEO에게 국방부와 기밀 AI 활용 계약을 체결하지 말 것을 촉구했다. 직원들은 서한에서 기밀 군사 프로젝트에 AI 기술이 투입될 경우 구글 내부조차 해당 기술이 실제로 어떻게 사용되는지 알 수 없게 될 것이라고 우려했다.
서한에는 다음과 같은 내용이 담겼다. “우리는 AI가 인류에게 이익이 되는 방향으로 사용되기를 원하며, 비인도적이거나 극도로 해로운 방식으로 활용되는 것을 원하지 않는다. 여기에는 치명적 자율무기와 대규모 감시가 포함되지만 그 위험은 그 이상으로 확대될 수 있다.”
“구글이 이러한 피해와 연결되지 않도록 보장할 수 있는 유일한 방법은 기밀 군사 업무 참여 자체를 거부하는 것이며, 그렇지 않을 경우 우리는 알지 못하거나 통제할 수 없는 방식으로 기술이 사용되는 상황을 막을 수 없게 된다.”
이번 서한은 인공지능이 현대전의 핵심 기술로 부상하는 가운데 AI 기업과 그 직원들이 군의 기술 활용 방식에 대해 어디까지 발언권과 책임을 가져야 하는지를 둘러싼 실리콘밸리 내부의 논쟁을 다시 불러일으키고 있다.
미군의 AI 활용 확대와 실리콘밸리의 반발
이란에서 베네수엘라에 이르기까지 미국 군은 AI 우선 전쟁 수행 방식을 빠르게 도입하고 있다. 그러나 최근 국방부와 AI 기업 앤스로픽 간의 갈등은 이러한 기술 배치가 과연 효과적이고 안전하며 합법적인지에 대한 심각한 의문을 제기한다. 워싱턴포스트 보도에 따르면 인기 AI 챗봇 클로드를 개발한 앤스로픽은 지난해부터 미군 시스템에 빠르게 통합되어 데이터 분류와 잠재적 표적 식별 작업 등에 활용돼 왔다.
그러나 회사는 올해 2월 국방부와의 협력이 갑작스럽게 중단됐는데 이는 자사 기술이 대규모 감시체계나 치명적 자율무기 운영에 사용되지 않도록 보장하는 계약 조항을 추가하려 했기 때문으로 전해졌다.
앤스로픽은 자사의 AI 모델인 클로드가 인간의 개입 없이 표적을 식별하고 공격할 수 있는 무기, 즉 흔히 완전 자율무기로 사용되지 않도록 보장받기를 원했다. 또한 회사는 군이 상업적으로 구매한 위치정보, 금융기록 및 기타 대규모 데이터셋을 분석해 미국인을 감시하는 데 클로드를 활용하는 것도 금지하려 했다.
국방부는 이러한 제한 요구에 동의하지 않았고 이후 앤스로픽을 공급망 위험으로 지정해 방위 계약 대상에서 배제했다. 이에 대해 앤스로픽은 적법절차 위반과 수정헌법 제1조 침해 등을 이유로 이의를 제기했다. 미국 정부와 앤스로픽은 현재 국방부의 계약 배제 조치가 합법적인지를 두고 법정 공방을 벌이고 있다.
국방부와 기술 산업이 10여년간 협력해 개발한 메이븐 스마트 시스템은 정보분석 감시 표적식별능력을 크게 강화했으며, 위성자료, 데이터 브로커가 판매한 정보, 군용 드론과 센서, 소셜미디어 등에서 수집한 방대한 데이터를 분석해 관심 인물과 목표물을 선별한다. 그러나 AI 도입을 서두르는 것은 생사를 좌우하는 결정에서 인간의 전문성과 판단을 약화시키고 군인과 민간인 모두를 위험에 빠뜨릴 수 있다.
상대적으로 느슨한 펜타곤 AI 지침
펜타곤은 AI 기능이 포함된 자율무기에 관한 자체 지침도 마련해 두고 있다. 그러나 이 지침은 인간의 개입 없이 표적을 식별하고 공격할 수 있는 무기를 금지하지는 않는다. 대신 이러한 무기가 사용 승인 이전에 “적절한 수준의 인간 판단”을 허용하는지를 검토하도록 요구한다. 즉, 인간이 전반적인 운용 방향에만 관여하더라도 기준을 충족할 수 있다는 의미다.
미국 국방부 고위 관계자들은 군이 기술 발전 과정에서 핵심적인 안전장치를 무시하고 있다고 우려하는 가운데서도 미군이 AI 도입에 전력을 기울이고 있음을 분명히 하고 있다. 피트 헤그세스 국방장관은 상원 군사위원회 청문회에서 “우리는 반드시 앞서 나가야 한다”고 강조했다. 그는 “AI가 제공하는 이점은 상황인식, 표적선정 주기 등 거의 모든 군사역량에 적용될 수 있다”며 “그래서 우리는 AI를 최전선에 두고 있다”고 말했다.
그레고리 앨런 전 국방부 합동인공지능센터 전략·정책 국장은 현재 미군 AI 정책 설계의 핵심 인물 가운데 한명이다. 그는 군에서의 AI 도입을 과거 전투 및 국방 분야에서 컴퓨터가 빠르게 확산되고 사실상 필수기술로 자리 잡았던 과정에 비유했다.초기 군사 AI 활용은 주로 컴퓨터 비전 즉 이미지 속 패턴과 대상을 식별하는 기술에 집중됐다.
앨런은 “정찰 체계 전반에서 수집되는 데이터의 양이 인간 분석가의 눈으로 처리할 수 있는 수준을 이미 넘어섰다”고 설명했다. 그는 이어 AI가 군사적 의사결정 지원에도 활용될 수 있다고 덧붙였다.
펜타곤은 스페이스X, 오픈AI, 구글, 엔비디아, 리플렉션, 마이크로소프트, 아마존웹서비스 등 7개 주요 AI 기업과 계약을 체결했다고 발표했다. 국방부는 이 계약이 “데이터 통합을 간소화하고, 상황인식을 향상시키며, 복잡한 작전 환경에서 전투원의 의사결정을 지원하기 위한 것”이라고 설명했다.
미군이 보유한 정밀유도무기 체계는 GPS 유도와 레이더 추적 기술 등에 의존하는데 이러한 첨단무기들은 운용 비용이 매우 높다. 대표적으로 토마호크 순항미사일은 뛰어난 정밀성을 자랑하지만 한 발당 수백만 달러의 비용이 소요된다.
그레고리 앨런은 AI 기반 컴퓨터 비전 기술이 이러한 문제를 우회할 수 있는 대안이라고 설명했다. AI 드론은 레이더 대신 지상 이미지를 분석해 스스로 방향을 설정하고 목표를 추적할 수 있다는 것이다. 그는 “핵심은 AI 기반 드론이 토마호크 시스템보다 우수하다는 점이 아니다”라며 “오히려 신뢰성은 떨어질 수도 있지만, 발당 수백만 달러가 드는 기존 시스템에 비해 훨씬 저렴하다는 데 의미가 있다”고 말했다.
미국 관리들은 ABC 뉴스에서 이란과의 전쟁이 시작된 이후 미 육군이 중동 지역에 약 1만 대의 AI 기반 드론을 배치했다고 밝혔다. 앨런은 “AI는 과거에는 값비싸고 복잡했던 기술들을 더 저렴하고, 운용하기 쉬우며, 완전히 새로운 방식으로 활용할 수 있게 만들고 있다”고 평가했다.
투명성, 책임성, 민주적 통제가 핵심과제
인공지능은 현대전의 핵심 기술로 빠르게 자리잡으며 군사작전의 속도 효율성 비용구조를 근본적으로 바꾸고 있다. 표적 식별, 정보 분석, 의사결정 지원, 그리고 저비용 드론 운용까지 AI의 활용 범위는 계속 확장되고 있으며, 미군과 주요 기술 기업들은 이를 중심으로 긴밀한 협력 체계를 구축하고 있다.
그러나 이러한 발전은 동시에 중대한 윤리적·법적 논쟁을 낳고 있다. 치명적 자율무기, 대규모 감시, 알고리즘 오류로 인한 민간인 피해 가능성은 AI의 군사적 활용이 단순한 기술 문제가 아니라 인권과 국제법의 문제임을 보여준다. 또한 기술 기업 내부에서도 군사 활용에 대한 책임과 통제 범위를 둘러싼 갈등이 심화되고 있다.
따라서 향후 AI 기반 군사기술의 확산은 단순한 도입 경쟁이 아니라 투명성 책임성, 그리고 강력한 민주적 통제 장치를 얼마나 확보하느냐에 따라 그 방향성이 결정될 것이다. 의회의 감독 강화, 명확한 규제 체계 구축, 그리고 공공성과 안보 사이의 균형 설정이 향후 핵심과제가 될 것이다.
CA 변호사·회계사