Anthropic은 왜 펜타곤에 “No”라고 말했을까 (feat 공급망 위험, OpenAI, AI 윤리)

앤트로픽 국방부 AI 논쟁이 전 세계를 뒤흔들고 있음. AI에게도 양심이 있을까.

질문이 좀 이상하게 들릴 수 있음. AI는 도구인데 양심이 어딨냐고. 근데 AI를 만드는 회사에는 양심이 있을 수 있음.

Anthropic이 미국 국방부에 “No”라고 말했음. 우리 AI로 대규모 감시하지 마라, 완전 자율무기에 쓰지 마라. 이 두 가지만 약속해달라고.

그 대가는 미국 역사상 최초의 자국 기업 ‘공급망 위험(Supply Chain Risk)’ 지정이었음. 원래 러시아, 중국 같은 적대국에만 쓰던 칼을 자기 나라 기업에 들이민 것임.

그리고 불과 몇 시간 후, OpenAI가 그 빈자리를 채웠음. “같은 레드라인을 지키겠다”는 말과 함께. 이 모순적인 상황이 던지는 질문은 단순하다: AI 시대에 양심의 가격표는 얼마인가.

한 회사의 거부가 만든 나비효과

이야기는 2024년 6월로 거슬러 올라감. Claude가 미국 국방부 기밀 시스템에 배치된 시점임. 미군이 기밀망에 올린 유일한 AI 모델이었음.

기밀망 AI라는 건, 쉽게 말하면 군대의 가장 중요한 정보를 다루는 시스템에 들어간 AI라는 뜻임. 일반 인터넷과 완전히 분리된 네트워크에서 돌아가는 것임.

Anthropic은 군사 협력 자체를 거부한 게 아니임. 정보 분석, 의사결정 보조, 행정 업무 등에는 Claude를 쓸 수 있도록 했음. 다만 딱 두 가지에 선을 그었음.

Anthropic의 두 가지 레드라인

첫 번째: 자국민을 상대로 한 대규모 감시 활동에 Claude를 쓰지 마라.
두 번째: 인간의 개입 없이 스스로 목표를 선정하고 공격하는 완전 자율무기 시스템에 Claude를 쓰지 마라.
Anthropic 공식 성명에 따르면, 이 두 가지 예외가 단 한 건의 정부 임무에도 영향을 미치지 않았다.

앤트로픽 국방부 협상의 결렬

Anthropic 공식 성명에 따르면, 이 두 가지 예외가 단 한 건의 정부 임무에도 영향을 미치지 않았다. 실제로 군이 요청한 어떤 작전도 이 레드라인에 걸리지 않았다는 것임 (GeekNews).

펜타곤의 역린을 건드리다

문제는 원칙이 아니라 원칙을 고집하는 태도였음.

수개월간 국방부와 Anthropic 사이에 협상이 오갔음. 2월 24일에는 국방부 장관 Pete Hegseth와 Anthropic CEO Dario Amodei가 직접 회담까지 가졌음 (GeekNews).

국방부의 요구는 명확했음. “모든 합법적 목적에 제한 없이 사용할 수 있게 해라.” Anthropic의 대답도 명확했음. “두 가지만 빼고 다 해드리겠다.”

이 교착 상태에서 국방부는 칼을 빼들었음. 국방물자생산법(DPA)까지 발동하겠다고 위협했고, 모델 제한 철회 시한을 금요일 오후 5시 1분(ET)으로 잡았다 (The Hacker News).

Anthropic이 시한을 넘기자, 국방부 장관 Hegseth는 10 USC 3252에 따라 Anthropic을 ‘공급망 위험’으로 지정하도록 지시했음. 트럼프 대통령은 모든 연방기관의 Anthropic 기술 사용 중단을 명령하고 6개월 전환 기간을 부여했음.

sam altman vs dario amodei

공급망 위험 지정이라는 초강수 — 한 기업의 윤리적 선택에 대한 국가의 응답 | Photo: AI로 생성된 이미지 임.

앤트로픽 국방부 공급망 위험 지정이 실제로 의미하는 것

‘공급망 위험(Supply Chain Risk)’이라는 표현이 좀 모호하게 들릴 수 있음. 쉽게 말하면 이건 “이 회사 제품은 국가 안보에 위험하니까 국방부 계약에서 빼라”는 뜻임. 식당으로 치면 보건소에서 “이 식자재 업체는 위생 불량이니 납품 금지”라고 적발한 것과 비슷함.

원래 이 조치는 화웨이, 카스퍼스키 같은 러시아/중국 기업에 쓰던 것임. 미국 기업에 적용된 건 Anthropic이 최초임. 이게 얼마나 이례적인 일인지, 법률 전문가들도 놀랐다.

앤트로픽 국방부 지정의 법적 범위

Just Security의 분석에 따르면, 이 지정은 국방부(DoW) 계약에만 법적 효력이 있음. 민간 시장이나 다른 정부 기관에 직접적인 법적 구속력은 없음.

하지만 실질적인 위축 효과(chilling effect)가 문제임. 미국 10대 기업 중 8개가 Claude를 쓰고 있는 상황에서, “국방부가 위험하다고 지정한 회사”라는 꼬리표가 붙으면 민간 계약에도 영향이 불가피함.

Mayer Brown 로펌 분석에 따르면, 정부 계약을 가진 기업들은 하청업체의 공급망 위험 지정 여부를 확인해야 하는 의무가 생기기 때문에, Anthropic과의 거래를 재검토할 수밖에 없는 구조임.

OpenAI, 빈자리를 채우다

타이밍이 모든 걸 말해줌.

트럼프의 Anthropic 금지 발표가 나온 지 수시간 후, OpenAI CEO Sam Altman이 국방부와의 기밀 네트워크 AI 배포 계약 체결을 발표했음 (GeekNews).

OpenAI는 자신들도 Anthropic과 동일한 3가지 금지선을 포함했다고 주장했음.

ANTHROPIC vs OPENAI: 국방부 AI 계약 접근법 비교

Anthropic
  • 계약서에 명시적 금지 조항 (레드라인)
  • 기밀망 직접 배치
  • 대규모 감시 + 자율무기 거부
  • 결과: 공급망 위험 지정

OpenAI
  • 기술적 안전장치 (클라우드 전용)
  • FDE 인력 투입
  • 3가지 금지선 포함 주장
  • 결과: 계약 체결

계약적 레드라인 vs 기술적 안전장치

여기서 핵심 차이가 보이는 것임. Anthropic은 “계약서에 명시적으로 금지 조항을 넣겠다”는 입장이었고, OpenAI는 “기술적 구조로 안전을 보장하겠다”는 접근이었음.

쉽게 비유하면, Anthropic은 “칼을 쓰면 안 된다고 법에 써놓자”는 방식이고, OpenAI는 “칼 대신 가위만 납품하겠다”는 방식임. 결과적으로 같은 것 같지만, 가위도 사람을 찌를 수 있다는 점에서 본질적 차이가 있음.

Fortune은 이를 “Anthropic이 우려했던 바로 그 결과”라고 분석했음.

MIT Technology Review도 OpenAI의 타협안이 기술적 안전장치에 의존한다는 점에서, 정책이 바뀌거나 기술이 진화하면 그 안전장치가 무력화될 수 있다고 지적했음.

테크 업계의 양심 연대

이 사건이 단순한 정부-기업 분쟁으로 끝나지 않은 이유가 있음.

Google과 OpenAI 직원 수백 명이 notdivided.org를 통해 Anthropic 지지 공개서한에 서명했음. “우리는 분열되지 않을 것임”라는 이름의 이 연대는 2018년 Google Project Maven 반대 이후 가장 대규모의 테크 업계 내부 윤리 저항임 (The Hacker News). 이 연대의 확산은 AI 안보의 새 지도에서 분석한 칩 수출통제 이슈와도 맥락이 연결됨.

Project Maven의 유산

Project Maven이 뭐냐면, 2018년에 Google이 미군의 드론 영상 분석에 AI를 제공하는 프로젝트에 참여했다가, 직원 4,000명 이상이 반대 서명을 하고 수십 명이 퇴사해서 결국 계약을 종료한 사건임. 이번 Anthropic 연대는 그때의 에너지가 다시 터진 것임.

동시에 Google 내부에서도 DeepMind의 군사 프로젝트 참여에 대한 레드라인 설정을 요구하는 움직임이 발생했음. 무기 개발이나 전투 지원에 AI를 쓰지 말라는 요구다 (GeekNews).

TechCrunch에 따르면, 테크 종사자들은 의회에도 Anthropic 공급망 위험 지정 철회를 요구하는 서한을 보냈음.

ANTHROPIC-PENTAGON 분쟁 타임라인

2024.06

Claude 기밀망 배치

미군 기밀 시스템에 배치된 유일한 AI 모델

2026.02.24

Hegseth-Amodei 회담

국방장관-CEO 직접 협상, 교착 상태

2026.02.28

공급망 위험 지정

미국 역사상 최초 자국 기업 공급망 위험 지정

2026.02.28 (수시간 후)

OpenAI 국방부 계약 체결

Anthropic 빈자리를 OpenAI가 채움

AI 앱 시장 경쟁 - 스마트폰 앱 선택 화면

소비자의 선택이 새로운 투표가 되는 시대 — AI 앱 시장의 판도 변화 | Photo: Unsplash

역설: 양심이 브랜드가 되다

여기서 재밌는 반전이 있음.

분쟁 직후 Claude가 미국 앱스토어 무료 앱 1위를 기록했음. 한국에서도 Claude 총 결제금액이 16억 원에서 197억 원으로 12배 이상 폭증했음. 건당 결제액도 4.26만 원에서 10.6만 원으로 2.5배 올랐다. 반면 ChatGPT 글로벌 일일 점유율은 69.1%에서 45.3%로 급락했고, Gemini 점유율은 14.7%에서 25.1%로 상승했음 (서울신문).

ANTHROPIC 분쟁 후 시장 반응

197억 원

한국 Claude 결제액

$3,800억

기업가치

45.3%

ChatGPT 점유율 (하락)

Anthropic의 기업가치는 3,800억 달러, 연매출은 140억 달러로, 국방부 계약(최대 2억 달러, 연매출의 1.4%)을 잃고도 오히려 성장 궤도에 올라탔다. 양심이 브랜드 가치로 전환된 것임 (CNBC). 이런 AI 기업간 역학 변화는 AGI 그 다음 날에서 분석한 AI 리더십 구도와도 맞물린다.

한국 직장인에게 이게 왜 중요한가

“미국 국방부 이야기가 나랑 무슨 상관이야”라고 생각할 수 있음. 상관이 큼.

2026년 기준 국내 기업 85%가 생성형 AI를 활용 중이며, 55.7%가 이미 도입을 완료했다(전사 22.4% + 부서별 33.2%). 79.3%가 AI 예산을 확대하고 있음 (CIO Korea).

문제는 ChatGPT를 쓰건, Claude를 쓰건, Gemini를 쓰건 — 그 AI 공급업체가 미국 정부 정책 변동의 직접적 영향을 받는 구조라는 것임. 공급업체 리스크가 곧 우리 리스크가 되는 상황임.

앤트로픽 국방부 분쟁이 한국 기업에 미치는 연쇄 효과

예를 들어 회사에서 Claude 기반으로 업무 시스템을 구축했다고 해보자. Anthropic이 공급망 위험으로 지정되면서 미국 정부 계약이 있는 파트너사가 Anthropic과의 거래를 재검토하게 됨. 이 연쇄 효과가 우리 회사까지 닿을 수 있음.

반대로 OpenAI를 쓰는 회사는 “우리 공급업체는 정부와 잘 지내니까 괜찮겠지”라고 안심할 수 있지만, OpenAI가 정부 요구에 더 유연하게 대응한다는 건 반대로 말하면 윤리적 기준이 정치적 상황에 따라 변할 수 있다는 뜻이기도 함.

직장인 개인 관점에서도 달라지고 있음. 한국 직장인들도 AI 윤리를 모델 선택 기준으로 고려하기 시작했음 (서울신문). “이 AI가 내 데이터를 어떻게 쓰는가”에서 “이 AI 회사가 어떤 원칙을 가지고 있는가”로 관심이 확장되고 있는 것임.

기업 AI 담당자가 지금 해야 할 3가지

첫째, AI 공급업체 다변화 전략 수립임. 단일 모델 의존도를 줄이고, 최소 2개 이상의 AI 공급업체를 확보해야 함. 이건 기술적 이유가 아니라 지정학적 리스크 관리 차원임.

둘째, 공급업체의 윤리 정책 모니터링임. AI 공급업체가 정부 정책 변동에 어떻게 대응하는지, 데이터 활용 원칙은 무엇인지 주기적으로 점검해야 함. 특히 국방이나 공공 부문 계약이 있는 기업은 공급망 위험 지정의 연쇄 효과를 반드시 고려해야 함.

셋째, AI 리터러시와 윤리 감수성의 동시 확보임. 한국 AI 기본법(2025.12)은 규제보다 진흥에 무게를 둔 체계이지만, 군사 AI 윤리 논의는 이미 글로벌 의제로 떠올랐다. 한국도 REAIM(AI 군사 이용 국제회의) 참여를 통해 이 논의에 동참하고 있음.

INSIGHT

앤트로픽 국방부 분쟁은 “AI에게 양심이 있느냐”가 아니라, “AI를 만드는 사람들이 양심을 지킬 때 그 비용을 누가 부담하느냐”를 묻고 있음. 그리고 그 비용의 일부는 결국 AI를 쓰는 우리 모두에게 전가될 것임.

ACTION

AI 도구 선택이 더 이상 기능과 가격만의 문제가 아니게 됐다. 회사에서 쓰는 AI의 공급업체가 어떤 정치적/윤리적 리스크를 안고 있는지 파악하고, 단일 공급업체 의존도를 줄이는 것이 2026년 가장 현실적인 AI 리스크 관리 전략임.

참고 자료

  1. Pentagon Designates Anthropic Supply Chain Risk Over AI Military Dispute — The Hacker News, 2026-02-28
  2. 국방부와의 협약 — GeekNews, 2026-03-02
  3. Anthropic, 국방부 장관 Pete Hegseth의 공급망 위험 지정에 대한 공식 성명 발표 — GeekNews, 2026-02-28
  4. 미국 국방부 장관, Anthropic을 국가 안보 공급망 위험 기업으로 지정하도록 지시 — GeekNews, 2026-02-28
  5. Google 직원들, 군사용 인공지능에 ‘레드라인’ 설정 요구 — GeekNews, 2026-02-28
  6. OpenAI, 미 국방부와 비공개 네트워크 내 모델 배포에 합의 — GeekNews, 2026-02-28
  7. 트럼프 대통령, Anthropic 정부 사용 금지 후 OpenAI와 국방부 계약 체결 — GeekNews, 2026-02-28
  8. The Pentagon’s fight with Anthropic was the first real test for how we will control powerful AI — Fortune, 2026-03-03
  9. What Hegseth’s Supply Chain Risk Designation Does and Doesn’t Mean — Just Security, 2026-03
  10. Pentagon Designates Anthropic as Supply Chain Risk — Mayer Brown, 2026-03
  11. OpenAI’s ‘compromise’ with the Pentagon is what Anthropic feared — MIT Technology Review, 2026-03-02
  12. 몸값 뛴 클로드, 추락한 챗GPT — 서울신문, 2026-03-04
  13. 2026년 국내 기업 85%가 생성형 AI 도입 — CIO Korea, 2026
  14. Tech workers urge DOD to withdraw Anthropic label as a supply chain risk — TechCrunch, 2026-03-02
  15. Trump admin blacklists Anthropic — CNBC, 2026-02-27

FAQ

Q1. Anthropic의 공급망 위험 지정은 일반 소비자에게도 영향이 있나요?

법적으로는 미국 국방부(DoW) 계약에만 적용되며, 일반 소비자가 Claude를 사용하는 데 직접적인 법적 제약은 없음. Anthropic 공식 성명에서도 일반 고객에게는 영향이 없다고 확인했음 (GeekNews). 다만 장기적으로 사실상의 위축 효과가 기업 고객에게 영향을 줄 수 있음.

Q2. OpenAI의 국방부 계약은 Anthropic과 무엇이 다른가요?

가장 큰 차이는 접근 방식임. Anthropic은 계약서에 명시적 금지 조항(레드라인)을 요구했고, OpenAI는 클라우드 전용 배포와 FDE(Forward Deployed Engineer) 인력 투입이라는 기술적 안전장치로 대응했음. OpenAI는 자사의 3가지 금지선이 Anthropic보다 더 강력하다고 주장하지만, 기술적 안전장치는 정책 변화에 따라 무력화될 수 있다는 비판이 있음 (MIT Technology Review).

Q3. 한국 기업이 AI 공급업체 리스크를 관리하려면 어떻게 해야 하나요?

세 가지가 핵심임. (1) AI 공급업체 다변화: 단일 모델 의존도를 줄이고 최소 2개 이상의 AI 공급업체를 확보, (2) 공급업체 윤리 정책 모니터링: 정부 정책 변동 대응 방식과 데이터 활용 원칙 주기적 점검, (3) 계약 조항에 공급망 리스크 대응 방안 포함: 특히 국방/공공 부문 계약이 있는 기업은 하청업체의 공급망 위험 지정 연쇄 효과를 반드시 고려해야 함.

Q4. Anthropic은 이 사건으로 사업적 타격을 입었나요?

역설적이게도 단기적으로는 오히려 긍정적 효과가 나타났음. Claude가 미국 앱스토어 1위를 기록하고, 한국 총 결제금액이 12배 이상 증가했으며, 기업가치는 3,800억 달러로 평가됨. 국방부 계약(최대 2억 달러)은 연매출 140억 달러의 1.4%에 불과해 재무적 타격은 제한적이었음. 다만 IPO 준비 과정에서 앤트로픽 국방부 공급망 위험 지정이라는 꼬리표가 어떤 영향을 미칠지는 아직 불확실하는 것임.

이 글이 도움이 되셨나요?

☕ Buy me a coffee

댓글 남기기