Anthropic이 세계에서 가장 파괴적인 기업이 됐음. — 앤트로픽 AI 재귀적 자기개선(Recursive Self-Improvement)이 이미 실험실 안에서 티핑 포인트를 넘어섰다는 것임.
TL;DR — 앤트로픽 AI 재귀적 자기개선 핵심 수치
Anthropic의 AI가 이제 자기 코드의 70~90%를 직접 작성하고 있음. 인간보다 427배 빠르게. Claude 모델 하나가 28개 하위 에이전트를 지휘하며, 자율적으로 병렬 실험을 수행 중. Anthropic은 RSP v3.0에서 구속력 있던 안전 일시정지 조항을 삭제하고, 조건부 브레이크로 교체. 회사 측은 AI가 1~5년 내 신입 사무직 일자리의 50%를 대체할 것이라 경고.
루프는 이미 돌아가고 있음: 앤트로픽 AI 재귀적 자기개선
이전 분석에서 Anthropic이 왜 펜타곤에 “No”라고 했는지 살펴봤음. 그런데 TIME의 커버 스토리가 보여주는 진짜 이야기는 펜타곤과의 충돌이 아님 — 그 충돌을 불가피하게 만든 가속, 그 자체임.
밤잠을 설치게 만들 숫자 하나를 알려줌. Anthropic의 새로운 모델을 구동하는 코드의 70~90%를 Claude가 직접 작성하고 있음 (TIME Magazine).
Claude가 보조한 게 아님. Claude가 검토한 것도 아님. Claude가 직접 작성한 것임.
그리고 이걸 인간 연구원보다 427배 빠른 속도로 해냄. 이렇게 생각하면 됨: 인간 엔지니어가 하루 종일 걸리는 작업을, Claude는 대략 1분 만에 끝낸다는 말임.
더 이상 공상과학 전제가 아님. 이건 분기 실적을 견인하는 동력임.
앤트로픽 AI 재귀적 자기개선은 어떻게 작동하는가
재귀적 자기개선(Recursive Self-Improvement) — AI 시스템이 자기 능력을 향상시키고, 그 향상된 능력으로 다시 자기 자신을 더 개선하는 개념 — 은 원래 철학 세미나나 일론 머스크 트윗에서나 나오던 사고 실험이었음.
이렇게 비유하면 됨. 목수가 더 좋은 연장을 만들고, 그 연장으로 더 좋은 연장을 또 만드는 가속 루프임. 단, 이 목수는 잠을 안 자고, 쉬지도 않고, 427배 속도로 일한다는 차이가 있음.
Anthropic 샌프란시스코 본사에서 이 루프는 이미 돌아가고 있음. 연구원 한 명이 6개의 Claude 인스턴스를 관리함. 그 6개의 Claude 각각이 28개의 하위 Claude 에이전트를 지휘함. 인간 1명당 168개의 병렬 AI 워커가 실험을 돌리고, 코드를 쓰고, 결과를 디버깅하는 구조임 (TIME Magazine).
숫자를 보면 어질어질해짐. 연구원 한 명이 사실상 168개 AI 에이전트로 구성된 인력을 지휘하는 것임. 이걸 Anthropic 엔지니어링 팀 전체로 확장하면, 수만 명에 해당하는 지칠 줄 모르는 연구 보조원 — 그것도 자기 자신을 구동하는 시스템을 개선하는 보조원 — 을 굴리는 셈임.

실험실에서 학계로
이건 이론이 아님. 88세의 전설적 컴퓨터 과학자 Donald Knuth — 말 그대로 The Art of Computer Programming을 쓴 사람 — 가 Claude Opus 4.6이 방향성 해밀턴 순환 분해(Directional Hamiltonian Cycle Decomposition) 문제를 독자적으로 풀어낸 과정을 분석한 논문을 발표했음. 진짜 창의적인 수학적 추론이 필요한 문제였음 (GeekNews).
학계도 현장이 이미 알고 있는 사실을 따라잡는 중임. AI 최고 권위 학회인 ICLR 2026이 올해 4월 리우데자네이루에서 앤트로픽 AI 재귀적 자기개선 전용 워크숍을 최초로 개최함. 주최 측의 프레이밍이 모든 걸 말해줌: “재귀적 자기개선은 더 이상 추론적 비전이 아니라 구체적인 시스템 문제가 됐다” (ICLR 2026 Workshop).
Anthropic의 최고과학책임자(CSO) Jared Kaplan은 완전 자동화된 AI 연구가 1년 이내에 도래할 수 있다고 봄 (TIME Magazine). 보조 연구도 아니고, 증강 연구도 아닌, 완전 자동화된 연구임.
이게 무슨 의미인지 정리해보면 이런 말임: 세계에서 가장 강력한 AI를 만드는 회사가, 조만간 AI를 만드는 과정에서 인간을 완전히 빼버릴 수 있다고 생각한다는 것임.
예전에 OpenAI 이사회에 있었던 조지타운대 연구원 Helen Toner의 발언이 직격탄임: “세계에서 가장 부유한 기업들이 AI R&D를 완전 자동화하려 한다는 사실에 ‘WTF’라는 반응이 나와야 정상” (TIME Magazine).
맞는 말임. 그런데 반응이 의외로 조용했음. 아마 업계 밖에서는 이 루프가 얼마나 멀리까지 진행됐는지 체감하는 사람이 거의 없기 때문일 것임.
없어진 안전 브레이크: 앤트로픽 AI 재귀적 자기개선의 위험
여기서부터 이야기가 불편해짐. Anthropic은 원래 안전한 AI 회사가 되기로 한 곳임. OpenAI가 안전을 너무 가볍게 여긴다고 판단해 나온 전직 OpenAI 연구원들이 세운 회사임.
그들의 대표 정책이 책임 있는 스케일링 정책(Responsible Scaling Policy, RSP)이었음 — AI의 원자로 비상 정지 시스템이라고 생각하면 됨. AI가 너무 강력해졌는데 안전 조치가 따라가지 못하면, 비상 브레이크를 당겨서 훈련을 멈추겠다는 것이었음.
2026년 2월 24일, 그들은 조용히 규칙을 다시 썼음. RSP v3.0에서 안전이 보장되지 않으면 개발을 일시정지하겠다는 구속력 있는 약속을 삭제한 것임 (Anthropic RSP v3.0, WinBuzzer).
기존 정책은 이랬음: 안전하다고 증명하지 못하면 멈춘다. 새 정책은 이렇게 바뀜: 속도를 줄이는 걸 고려할 수 있지만, (1) 우리가 확실히 선두이고 AND (2) 재앙적 위험이 심각한 경우에만.
조건이 두 개임. 둘 다 충족돼야 함. 경쟁사 중 누구라도 가까이 오면 브레이크는 풀리는 구조임.
Kaplan은 기존 약속을 “순진했다”고 표현함 — 경쟁 시장에서 일방적으로 멈추겠다는 약속은 비현실적이었다는 논리임 (TIME Magazine).
독립 AI 평가 기관 METR의 Chris Painter는 이 변화를 “끓는 물 속 개구리 효과”라고 묘사함 — 개별 수정 하나하나는 합리적으로 보이지만, 누적된 방향성은 명백하다는 것임 (GeekNews).
빅3 안전 정책 비교
이 긴장 속에서 방향을 잡으려는 건 Anthropic만이 아님. 3대 프런티어 AI 연구소를 비교하면 이런 그림이 나옴:
| 항목 | Anthropic | OpenAI | Google DeepMind |
|---|---|---|---|
| 안전 정책 | RSP v3.0 (구속력 있는 일시정지 삭제) | “기술적 안전장치” (RLHF 기반) | Frontier Safety Framework v3.0 (CCL 기반) |
| 매출 (2026) | $25억 (Claude Code 단독) | $250억 ARR | 별도 비공개 |
| 기업가치 | $3,800억 (약 532조 원) | $7,300~8,400억 (약 1,022~1,176조 원) | $2.3조 Alphabet의 일부 |
| 군사 협력 | 거부 (공급망 위험 지정) | 펜타곤 계약 확보 | $2억 DoD Gemini 계약 |
| 재귀적 자기개선 투명성 | 코드 70~90%, 427배 속도 (공개) | 비공개 | 비공개 |
| 기업용 LLM 점유율 | 32% (2023년 12%에서 상승) | 25% (2023년 50%에서 하락) | ~20% (Menlo Ventures, 2025년 중반) |
기업용 LLM 시장 점유율 변화 (2023 vs 2026)
출처: TIME Magazine, Menlo Ventures (2025년 중반)

역설을 주목할 필요가 있음. Anthropic은 재귀적 자기개선 지표를 공개적으로 밝힌 유일한 회사임. 동시에 그렇게 하면서 안전 약속을 약화시킨 유일한 회사이기도 함.
Google DeepMind의 Frontier Safety Framework v3.0은 핵심 역량 수준(Critical Capability Levels, CCL) — 특정 대응을 트리거하는 미리 정의된 임계값 — 을 사용함. 최신 업데이트에서 “유해한 조작(Harmful Manipulation)” 카테고리를 새로 추가함 (Google DeepMind). OpenAI는 주로 RLHF(인간 피드백 강화학습) 기반 기술적 안전장치에 의존함 — 조직 차원의 일시정지 트리거를 설정하는 대신, 모델이 유해한 요청을 거부하도록 훈련하는 방식임.
경고하면서 가속하는 역설
Anthropic CEO Dario Amodei는 TIME에 AI가 1~5년 내 신입 사무직 일자리의 50%를 대체할 수 있다고 말함 (TIME Magazine).
다시 한번 읽어볼 필요가 있음. AI를 만드는 회사의 CEO가 자기 제품이 대졸 초급 일자리의 절반을 없앨 것이라고 경고하는 것임. 그러면서 속도를 줄이지 않고 있음.
시장은 이미 그 충격을 느꼈음. Anthropic이 비코더 플러그인 — 프로그래밍 경험이 전혀 없는 사람도 Claude로 소프트웨어를 만들 수 있게 하는 기능 — 을 출시했을 때, 소프트웨어 기업들의 시가총액에서 약 $3,000억(약 420조 원)이 증발함 (TIME Magazine).
420조 원임. 기능 하나 출시에 날아간 금액임.
Anthropic의 사회적 영향 책임자 Deep Ganguli도 이 모순을 인정함: “양쪽에서 동시에 말하는 것처럼 느껴질 수 있다” (TIME Magazine).
2026년 최고의 절제된 표현임. 재앙적 일자리 대체를 경고하면서 동시에 그 원인 기술을 가속하는 건 ‘양쪽에서 말하는’ 정도가 아님. 절벽 도로에서 시속 120km로 달리면서 승객들에게 “가드레일은 이론적으로 존재함”라고 안내방송하는 격임.
경쟁사 직원들이 편을 들 때
그래도 투자자들은 몰려듦. Anthropic의 기업가치는 $3,800억(약 532조 원) — OpenAI의 $7,300~8,400억(약 1,022~1,176조 원)에 비해 크게 뒤지지 않는 수준 — 이고, 매출 규모는 훨씬 작음에도 그러함. Claude Code 단독으로 연간 $25억을 벌어들이고, 전체 매출은 가파른 상승세임 (TIME Magazine).
베팅의 논리는 명확함: 앤트로픽 AI 재귀적 자기개선 경쟁에서 이기는 자가 AI 시장 전체를 가져간다는 것임. 안전 우려는 감수 가능한 리스크로 가격에 반영되고 있음.
현직·전직 AI 업계 종사자 900명이 Anthropic의 군사용 AI 사용 관련 입장을 지지하는 공개 서한에 서명함 — 모든 결정에 동의해서가 아니라, 좋은 선택지가 없는 업계에서 Anthropic이 그나마 최선이라고 보기 때문임 (Fortune).
OpenAI와 Google DeepMind 소속 직원 30명 이상 — Jeff Dean 포함 — 이 Anthropic이 군 공급망 편입을 강제당하는 것에 반대하는 법정 의견서(amicus brief)를 제출함 (Fortune). 경쟁사 직원들이 공개적으로 법적 싸움을 지지한다면, 그 업계 컨센서스는 어떤 정책 문서보다 큰 목소리인 것임.

그 이후 — 지면서 이기는 게임?
3월 9일, Anthropic은 공급망 위험 지정에 이의를 제기하는 연방 소송을 제기함 — 펜타곤 협력을 거부한 대가로 받은 조치에 대한 것임. 군에 “No”라고 했던 회사가 이제 법정에서 정부와 싸우고 있음 (TIME Magazine).
반전은 여기에 있음. 펜타곤과의 충돌이 Anthropic이 기획하지 않은 최고의 마케팅 캠페인이 되어버렸을 수 있음. 데이터 주권과 윤리적 AI를 중시하는 기업 고객들 — 특히 유럽, 헬스케어, 금융 서비스 — 이 군사 계약을 거부했다는 바로 그 이유로 Anthropic 쪽으로 기울고 있음.
기업용 LLM 시장 점유율 숫자가 이야기를 말해줌. Anthropic은 2023년 12%에서 2026년 32%로 뛰었음. OpenAI는 같은 기간 50%에서 25%로 떨어짐 (TIME Magazine). 고객 흐름이 뒤집힌 것임.
OpenAI 연구원들이 조용히 Anthropic으로 이동하고 있음. 한때 Anthropic 창업 멤버들이 OpenAI에서 나온 인재 파이프라인이 이제 방향을 바꾼 것임. 연구원들이 발로 투표할 때, 그 발자국을 따라가면 됨.
한국 직장인에게 주는 앤트로픽 AI 재귀적 자기개선의 시사점
이건 실리콘밸리만의 이야기가 아님. CIO Korea에 따르면 한국 기업의 85%가 2026년 말까지 생성형 AI를 도입할 전망이고, 79.3%가 AI 예산을 늘릴 계획임 (CIO Korea).
한국 기업들은 이 역설의 한국판을 마주하고 있음. 삼성, 네이버, 카카오 모두 핵심 업무에 AI를 통합 중임. 그런데 그 통합을 가능하게 하는 재귀적 자기개선 기술은 미국 기업 3곳이 통제하고 있음 — 각자의 전략적 어젠다를 갖고.
한국 직장인 개인에게 커리어 시사점은 구체적임: AI 도구와 함께 일하는 법을 배우는 속도가, 특정 기술 역량보다 더 중요해지고 있음. AI가 자기 코드의 70~90%를 직접 작성하는 세상에서, 가치는 코드를 쓰는 것에서 코드를 쓰는 AI를 지휘하는 것으로 이동하게 됨.
PwC의 최신 인력 조사에 따르면 AI에 노출된 직무에서 스킬이 변화하는 속도가 비AI 직무 대비 66% 더 빠름. 감가상각되지 않는 스킬은? AI가 풀어야 할 문제를 올바르게 정의하는 능력임.
앤트로픽 AI 재귀적 자기개선: 다음 단계는
앤트로픽 AI 재귀적 자기개선은 되돌릴 수 없는 문턱을 넘었음. 루프는 돌아가고 있음. 안전 브레이크는 급정지에서 조건부 감속으로 재설계됐음. 그리고 이 모든 것의 중심에 있는 회사는 재앙적 위험을 경고하면서 동시에 수십억 달러를 모아 더 빠르게 움직이고 있음.
문제는 AI가 모든 산업을 변혁할 것이냐가 아님 — 그건 이미 일어나고 있음. 문제는, AI를 만드는 인간이 인간의 이해 속도보다 빠르게 자기 자신을 개선하는 시스템에 대해 의미 있는 감독을 유지할 수 있느냐인 것임.
한줄 코멘트. 세계에서 가장 파괴적인 기업이 안전 우려에도 불구하고 파괴하는 게 아님 — 경쟁 역학이 감속을 존재적 위험으로 만들기 때문에 파괴하는 것임. AI가 자기 코드의 90%를 인간보다 427배 빠른 속도로 작성하는 세상에서, “책임”과 “스케일링”은 서로 반대 방향의 힘이 됨.
직장인 시사점. AI가 오늘 못 하는 것에 최적화하는 걸 멈춰야 함. 인간만이 영구적으로 할 수 있는 것에 최적화를 시작해야 함: 올바른 질문을 설정하고, 모호함을 헤쳐나가고, AI가 훈련받지 못한 맥락을 이해하는 판단을 내리는 것임. 향후 3년 안에 살아남는 직장인은 AI를 피한 사람들이 아닐 것임 — AI를 지휘하는 법을 배운 사람들일 것임.
참고 자료
- “The Most Disruptive Company in the World,” TIME Magazine, 2026년 3월 11일
- Anthropic RSP v3.0, 2026년 2월 24일 — anthropic.com
- “Anthropic, 대표 안전 서약 철회,” WinBuzzer, 2026년 2월 25일
- “클로드의 순환들 [PDF],” Donald Knuth via GeekNews, 2026년 3월 4일
- ICLR 2026 Workshop on AI with Recursive Self-Improvement — recursive-workshop.github.io
- ChatGPT Revenue and Usage Statistics (2026), Business of Apps
- OpenAI Revenue, Valuation & Funding, Sacra
- “Google to Provide Gemini AI Agents to 3 Million DoD Employees,” TechBriefly, 2026년 3월 11일
- “Strengthening the Frontier Safety Framework,” Google DeepMind
- “Google and OpenAI Employees Back Anthropic Legal Fight,” Fortune, 2026년 3월 10일
- “2026년 국내 기업 85% 생성형 AI 도입,” CIO Korea
자주 묻는 질문 (FAQ)
앤트로픽 AI 재귀적 자기개선이란 무엇이고 어떻게 작동하나요?
재귀적 자기개선(Recursive Self-Improvement)은 AI 시스템이 스스로 자기 능력을 향상시켜, 더 나은 AI가 더 좋은 AI를 만드는 피드백 루프를 형성하는 것을 뜻하는 것임. Anthropic에서는 Claude 모델이 신규 모델의 코드 70~90%를 직접 작성하며, 개별 연구원이 6개의 Claude 인스턴스를 관리하고 각각이 28개 하위 에이전트를 지휘해 병렬 실험을 수행하는 것임.
Anthropic은 왜 RSP v3.0에서 안전 일시정지 약속을 삭제했나요?
Anthropic의 CSO Jared Kaplan은 기존의 구속력 있는 일시정지를 “순진한 것”이라 표현하며, 경쟁 시장에서 일방적인 개발 중단 약속은 비현실적이었다고 주장했음. 새로운 RSP v3.0은 급정지를 조건부 감속으로 대체했으며, 경쟁 우위와 심각한 재앙적 위험이 모두 충족돼야 작동함.
Anthropic의 기업용 시장 점유율은 OpenAI와 비교하면 어떤가요?
Anthropic의 기업용 LLM 시장 점유율은 2023년 12%에서 2026년 32%로 성장했고, OpenAI는 같은 기간 50%에서 25%로 하락했음. 군사 계약을 거부한 Anthropic의 입장이 데이터 주권과 윤리적 AI를 중시하는 고객, 특히 헬스케어와 금융 서비스 분야의 기업을 끌어들였음.
앤트로픽 AI 재귀적 자기개선은 소프트웨어 개발자에게 어떤 의미인가요?
AI가 자기 코드의 70~90%를 인간보다 427배 빠른 속도로 작성하는 환경에서, 가치는 코드를 쓰는 것에서 코드를 쓰는 AI를 지휘하는 것으로 이동하는 것임. Anthropic CEO는 AI가 1~5년 내 신입 사무직 일자리의 50%를 대체할 수 있다고 예측하는 것임. Anthropic의 비코더 플러그인 출시만으로 소프트웨어 기업 시가총액 약 $3,000억(약 420조 원)이 증발했음.
재귀적 자기개선이 한국 기업에 미치는 영향은 무엇인가요?
한국 기업의 85%가 2026년 말까지 생성형 AI를 도입할 전망이며, 79.3%가 AI 예산 증액을 계획하고 있음. 그러나 이런 통합을 구동하는 앤트로픽 AI 재귀적 자기개선 기술은 미국 기업 3곳이 통제하고 있음. 한국 직장인은 AI 도구와 함께 일하는 법을 배우는 데 집중할 필요가 있으며, AI 협업 속도가 특정 기술 역량보다 더 중요해지고 있음.
