[앗, 이런 일] 美 국방부와 AI기업 앤트로픽의 갈등
앤트로픽의 AI 모델 ‘클로드(Claude)’에 걸려 있는 ‘살상용 무기 및 대량 감시 금지’ 제한을 풀라
[최보식의언론=김진안 전 삼성전자 중동구 지역장 전무]
미국 AI기업인 앤트로픽이 창사 이래 최대의 위기에 직면했다. 헤그세스 국방장관이 다리오 아모데이 앤트로픽 회장에게 앤트로픽의 AI 모델 ‘클로드(Claude)’에 걸려 있는 ‘살상용 무기 및 대량 감시 금지’ 제한을 풀라고 요구했기 때문이다.
앤트로픽은 애초에 오픈AI의 '상업주의'에 반대해 나온 연구자들이 2021년에 세운 회사다. 연구진 모두가 인간에게 유익하고 도적적인 AI를 만들겠다고 오픈AI를 떠난 사람들이다. 앤트로픽이 추구하는 AI모델은 인간에게 안전한 AI이고 AI의 윤리성이다.
그들이 추구하는 이상은 앤트로픽의 윤리규범에 분명하게 명시되어 있고 개발에 반영해 왔다. 비윤리적인 답변이 나오지 않도록 통제장치를 개발과정에서 반영하는 것이 원칙이다.
앤트로픽이 개발한 클로드모델은 기존기술 기반의 소프트웨어 서비스업체들을 궤멸시킬 정도로 오픈AI를 포함한 경쟁사 누구보다 우수한 성능을 가지고 있다. 미국 국방부도 앤트로픽 제품이 가장 우수하고 이미 클로드 모델을 사용하고 있음을 인정했다. 미 국방부도 현존 최고 AI모델을 군사목적에 100% 활용해야 한다.
그런데 클로드 모델에 내재된 윤리적 제한장치들로 사용에 문제가 생기고 있다. 국방부의 사용 목적이야 당연히 적국을 공격하는 살상용이다. 이런 목적의 용도에는 클로드가 걸어놓은 내부 제한으로 원하는 답변을 내놓지않고 있는 것이다. 헤그세스 장관은 개별 사안마다 개발사의 허가를 받는 방식이 아닌, 군이 재량껏 기술을 운용할 수 있는 전면적인 개방을 요구했다.
헤그세스 국방장관은 앤트로픽이 계약서에 명시한 ‘인간의 개입 없는 살상용 자율 무기 체계 통합 금지’ 조항을 삭제하고, 대신 국방부가 원하는 “모든 합법적인 목적”에 기술을 사용할 수 있도록 보장하라는 것이다. 국방부가 말하는 "합법적인 목적"을 국방부가 판단하고 결정하니 문제가 된다.
만일 앤트로픽이 거절하면 현재 국방부와 진행 중인 2억불짜리 계약을 취소하고 앤트로픽을 “공급망 리스크(supply chain risk)”로 지정하겠다고 했다. 이렇게 되면 미 국방부와 거래하는 어떤 기업도 앤트로픽 모델을 쓸 수 없게 된다. 심지어 국방물자생산법(DPA)을 발동하여 강제로 제한이 걸려 있지 않은 클로드를 징발하도록 명령할 것이라고 경고했다. 앤트로픽은 내년에 기업공개할 계획이라는데 향후 성장에 큰 지장에 생길 수 있다.
다리오 아모데이 CEO는 현재의 AI 기술이 인간의 감독 없이 살상 무기를 운용하기에는 신뢰도가 부족하며, 대규모 감시 등에 활용되는 것은 민주적 가치를 훼손할 수 있다는 이유로 "양심상 수용할 수 없다"며 일단 거부 의사를 밝힌 상태다.
회사의 제품이 너무 뛰어나니 이런 곤욕을 치룬다. 엔트로픽의 설립 목적이 공익과 윤리성인데 만약 아모데이 회장이 헤그세스의 요구를 수용할 경우, 오픈 AI를 나와 앤트로픽을 설립한 목적이 사라지며 핵심 개발자들이 대거 이탈할 가능성도 제기된다.
국가의 이익과 기업이 추구하는 이상 사이에서 선택해야 하니 앤트로픽이 창사 이래 가장 가혹한 시험대에 올랐다. 정부의 강제명령이면 선택조차 어려울 수 있다.
다음은 CNN의 28일 자 ‘Trump administration orders military contractors and federal agencies to cease business with Anthropic’(트럼프 행정부, 군 계약업체와 연방 기관에 앤트로픽과의 거래 중단 명령)라는 제목의 기사의 주요 내용이다.
트럼프 행정부는 Anthropic이 자사의 인공지능 기술을 국방부가 아무런 제한 없이사용하도록 허용하는 것을 거부한 뒤, 군과 거래하는 연방 기관과 계약업체들에게 앤트로픽과의 거래를 중단하라고 지시했다.
Donald Trump 대통령은 금요일 오후 트루스 소셜에 올린 글에서, 국방부를 포함한 정부 기관들이 6개월 안에 앤트로픽 제품 사용을 단계적으로 중단해야 한다고 밝혔다. 이후 Pete Hegseth 국방장관은 X에서 앤트로픽을 ‘공급망 위험(supply chain risk)’으로 지정할 것이라고 말했다. 이러한 지정은 보통 외국의 적대 세력의 연장선으로 여겨지는 기업들에 적용된다.
이번 극적인 조치는, 빠르게 발전하는 이 기술이 어떻게 사용될지를 좌우할 수 있는 주요 인공지능 기업과 정부 사이의 일주일간 대치에 마침표를 찍는다.
앤트로픽은 자사의 인기 있는 AI 모델에 부과한 제한을 두고 국방부와 갈등을 빚어왔다.
앤트로픽은 금요일 성명에서 “이러한 지정은 법적으로도 타당하지 않을 뿐 아니라, 정부와 협상하는 모든 미국 기업에 위험한 선례를 남길 것”이라고 밝혔다. 이어 “국방부의 어떤 위협이나 처벌도 대규모 국내 감시나 완전 자율 무기에 대한 우리의 입장을 바꾸지 못할 것이다. 우리는 공급망 위험 지정에 대해 법원에서 다툴 것”이라고 했다.
국방부는 기밀 네트워크에서앤트로픽의 클로드(Claude) AI 시스템을 사용하고 있으며, 이를 ‘모든 합법적 목적’에 활용할 수 있기를 원하고 있다. 그러나 앤트로픽은 국방부에 대해 두 가지레드라인을 제시하고 있다. 클로드가 자율 무기에 사용되어서는 안 되며, 미국 시민에 대한 대규모 감시에 사용되어서도 안 된다는 것이다.
국방부는 AI를 사용하는 데 관심이 없다고 주장하며, 자신들이 라이선스하는 기술을 자유롭게 사용할 수 있어야 한다고 말하고 있다.
어떻게 여기까지 오게 되었나
이 대치는 화요일, 국방부에서 열린 헤그세스와Dario Amodei(앤트로픽 최고경영자) 간의 중대한 회동에서 정점에 이르렀다. 사안에 정통한 한 소식통은 해당 회의가 우호적인 분위기에서 진행됐다고 전했지만, 금요일에 나온 트럼프의 발언은 상황이 달라졌음을 시사한다.
앤트로픽은 목요일, 국방부의 요구에 응할 의사가 전혀 없다고 발표했다.
아모데이는 성명에서 “위협은 우리의 입장을 바꾸지 못한다. 우리는 양심상 그들의 요구에 응할 수 없다”고 말했다.
국방부 연구·공학 담당 차관인 Emil Michael은 Bloomberg와의 인터뷰에서, 회사가 목요일 성명을 내기 전까지 앤트로픽과의 거래가 “그들이 실질적으로 원했던 것에 합의하는” 방향으로 최종 단계에 와 있었다고 말했다.
국방부 대변인 Sean Parnell은 X에 “이는 앤트로픽이 중요한 군사 작전을 위태롭게 하거나 전투원들을 위험에 빠뜨리는 것을 막기 위한, 단순하고 상식적인 요청”이라며 “우리는 어떤 회사도 작전상 결정을 어떻게 내릴지에 대해 조건을 강요하도록 두지 않을 것”이라고 썼다.
트럼프는 금요일 트루스 소셜에서 앤트로픽이 ‘재앙적인 실수(disastrous mistake)’를 저질렀다고 말하며, 군이 어떻게 운영되는지를 지시하려 했다고 비난했다. 트럼프의 게시물 직후, 일반조달청(GSA)은 연방 정부의 AI 도구 중앙 시험장인 USAi.gov에서 앤트로픽을 제거하겠다고 밝혔다.
헤그세스는 금요일 “미국 군과 거래하는 어떤 계약자, 공급업체, 파트너도 앤트로픽과는 거래할 수 없을 것”이라고 말했다.
이번 주 AI 업계는 대체로 앤트로픽을 옹호했으며, OpenAI의 최고경영자 Sam Altman도 국방부와 협력하는 문제에 관해 앤트로픽과 같은 우려를 공유한다고 밝혔다.
앤트로픽과 오픈AI는 CNN의 논평 요청에 즉각 답하지 않았다.
<기사 원문>
The Trump administration ordered federal agencies and contractors that work with the military to cease business with Anthropic after the company refused to allow the Pentagon to use its artificial-intelligence technology without restrictions.
Government agencies, including the Pentagon, have six months to phase out use of Anthropic's products, President Donald Trump said in a post on Truth Social on Friday afternoon. Defense Secretary Pete Hegseth later said on X that Anthropic will be deemed a "supply chain risk," a type of designation usually reserved for companies thought to be extensions of foreign adversaries.
The dramatic move caps a weeklong showdown between a leading AI company and the government that could shape the future of how the rapidly developing technology is used.
Anthropic has been at odds with the Pentagon over restrictions placed on its popular AI model.
"We believe this designation would both be legally unsound and set a dangerous precedent for any American company that negotiates with the government," Anthropic said in a statement Friday. "No amount of intimidation or punishment from the Department of War will change our position on mass domestic surveillance or fully autonomous weapons. We will challenge any supply chain risk designation in court."
The Pentagon, which uses Anthropic's Claude AI system on its classified networks, wants to be able to use it for "all lawful purposes." But Anthropic has two redlines for the Pentagon: that Claude will not be used in autonomous weapons, and that it will not be used in the mass surveillance of US citizens.
The Pentagon claims that it has no interest in using AI for and that it needs the freedom to use the technology it is licensing.
How we got here
The standoff came to a head on Tuesday at a high-stakes meeting at the Pentagon between Hegseth and Anthropic CEO Dario Amodei. While a source familiar with the matter said the meeting was cordial, Trump's comments on Friday suggest the situation changed.
Anthropic on Thursday announced it had no intention of acquiescing to the Pentagon's demands.
"Threats do not change our position: we cannot in good conscience accede to their request," the Amodei said in a statement.
Emil Michael, the Pentagon's under secretary for research and engineering, said in an interview with Bloomberg that they were "at the final stages" of a deal with Anthropic that would have "agreed to what they wanted in substance" when the company made its Thursday statement.
"This is a simple, common-sense request that will prevent Anthropic from jeopardizing critical military operations and potentially putting our warfighters at risk," Pentagon spokesperson Sean Parnell wrote on X. "We will not let ANY company dictate the terms regarding how we make operational decisions.“
Trump said on Truth Social on Friday that Anthropic has made a "disastrous mistake" and accused it of trying to dictate how the military operates. Shortly after Trump's post, the General Services Administration said it would remove Anthropic from USAi.gov, the federal government's centralized testing ground for AI tools.
"No contractor, supplier, or partner that does business with the United States military" will be permitted to do business with Anthropic, Hegseth said on Friday.
The AI industry largely came to Anthropic's defense this week, and OpenAI CEO Sam Altman said he shares Anthropic's concerns when it comes to working with the Pentagon.
Anthropic and OpenAI did not immediately respond to CNN's request for comment.
#AI윤리논쟁 #군사AI압박 #앤트로픽위기 #클로드