AI 시대 생존이 화두인 지금, 영화 인터스텔라가 다시 떠오른다. 그 영화 속 지구는 죽어가고 있었다.
식량 위기, 황사 폭풍, 희망 없는 미래. 인류는 서서히 멸종을 향해 걸어가고 있었다. 쿠퍼(매튜 매커너히)는 NASA 전직 파일럿이었지만, 옥수수 농사를 짓고 있었다. 한때 우주를 날던 사람이 땅을 파는 신세가 된 것임.
이 장면이 왜 지금 떠오르냐면, 2026년 직장인의 현실이 그것과 닮아 있기 때문임.
“사실상 모든 화이트칼라 업무가 12~18개월 내에 자동화될 수 있음.” Microsoft AI CEO 무스타파 술레이만이 2026년 초 던진 이 발언은 사무실 의자에 앉은 사람들의 등에 식은땀이 흐르게 했다. AI가 글을 쓰고, 코드를 짜고, 보고서를 만들고, 심지어 전략까지 제안하는 시대. 한때 ‘전문가’라는 타이틀이 밥벌이를 보장해줬지만, 지금은 그 타이틀이 흔들리고 있음. AI 시대 생존 전략을 지금 당장 고민해야 하는 이유임.
하지만 인터스텔라의 쿠퍼는 포기하지 않았다. 미지의 우주로 떠나면서 이렇게 말했다. “We will find a way. We always have.” 우리는 늘 답을 찾아왔다고. 이 글은 바로 그 답을 찾는 과정에 대한 이야기임.
우주로 떠나는 결단 — 인간과 AI의 역할이 갈린다
인터스텔라에서 쿠퍼가 우주로 떠난 건, 지구에서 답을 찾을 수 없었기 때문임. 익숙한 것을 버리고 미지의 영역으로 나아간 것임.
AI 시대도 마찬가지다. 기존 방식으로는 답이 없음. ‘열심히 일하면 된다’는 공식이 더 이상 작동하지 않음. 그래서 새로운 프레임워크가 필요함.
HAS(Human Agency Scale) 프레임워크가 그 지도 역할을 함. 쉽게 말하면, 일의 종류를 ‘인간 개입이 얼마나 필요한가’로 등급을 매긴 것임. 마치 자동차 자율주행 레벨처럼 — 레벨 1은 기계가 다 하고, 레벨 5는 인간이 반드시 필요한 영역임.
AI 시대 생존 핵심 지표
0배+
GPT-3.5 추론 비용 하락
(18개월)
20~60%
금융권 AI 도입
생산성 향상
0%+
동남아 기업
AI 실무 적용
| HAS 레벨 | 설명 | 예시 | AI 역할 |
|---|---|---|---|
| H1 | AI 단독 처리 가능 | 데이터 입력, 정형 보고서 | AI가 100% 수행 |
| H2 | AI 주도 + 인간 확인 | 이메일 분류, 일정 관리 | AI 90%, 인간 감독 |
| H3 | 인간-AI 협업 | 기획안 초안, 시장 분석 | AI가 초안, 인간이 판단 |
| H4 | 인간 주도 + AI 보조 | 전략 수립, 팀 리딩 | 인간이 결정, AI가 지원 |
| H5 | 인간 개입 필수 | 대인 커뮤니케이션, 위기 관리, 공감 | 인간만 가능 |
핵심은 H1~H2 영역에 머물러 있는 직장인은 위험하다는 것임. 데이터 입력, 단순 보고서 작성, 이메일 분류 같은 일을 주로 하는 사람이라면, AI가 그 자리를 대신할 수 있음.
반대로 H4~H5 영역 — 전략적 판단, 대인관계, 공감, 위기 관리 — 은 AI가 건드릴 수 없는 인간의 성역임. 결국 우주선의 행선지를 정하는 건 AI가 아니라 쿠퍼였던 것처럼, 방향을 잡는 건 여전히 인간의 몫이다. 이는 AGI가 화이트칼라를 구조조정하는 메커니즘에서도 확인할 수 있는 패턴이다.
웜홀 너머 새로운 세계들 — AI는 이미 일터를 바꾸고 있다
인터스텔라에서 웜홀을 통과하면 전혀 다른 행성들이 나옴. 어떤 곳은 거대한 파도가, 어떤 곳은 얼음이, 어떤 곳은 구름 바다가 펼쳐져 있음. 각각의 환경에 맞게 적응해야 살아남는 구조다.
AI 산업도 마찬가지로 다양한 ‘행성’이 존재함. Morgan Stanley는 AI 산업을 크게 두 가지로 나눴다.
조력자(Enablers): 반도체, 클라우드, HW 기업들. 2023~2024년 AI 성장을 이끈 인프라 제공자들이다. 엔비디아, AWS, 마이크로소프트 같은 기업들이 여기에 해당함.
도입자(Adopters): AI를 실제 비즈니스에 통합하는 기업들. Morgan Stanley는 2025년을 ‘에이전틱 AI 도입자의 해’로 명명했다. 이제 AI를 만드는 시대에서, AI를 쓰는 시대로 넘어간 것임.

AI가 보고서에서 실행으로 진화한다
Palantir의 사례가 대표적이다. 이 회사는 파운드리(Foundry) 플랫폼으로 기업의 복잡한 데이터를 하나의 ‘디지털 트윈’으로 구조화함. 쉽게 말하면 회사 전체를 가상 세계에 복제해놓고, AI가 그 가상 세계에서 시뮬레이션을 돌리는 것임. 팔란티어가 20년간 온톨로지를 구축한 진짜 이유에서 이 구조를 더 깊이 분석한 바 있음.
결과는 놀라웠다. 데이터 전처리 시간을 80% 절약하고, 단순히 ‘보고서를 만드는 AI’가 아니라 ‘공급망 노선을 바꾸고, 주문을 실행하는 AI’로 진화했다. 리포트 AI에서 실행형 AI로의 전환이다.
비용도 급격히 떨어지고 있음. GPT-3.5급 모델의 추론 비용이 18개월 만에 280배 이상 하락했다 (Stanford AI Index Report). 이건 마치 항공권 가격이 280분의 1로 떨어진 것과 같다 — 과거에는 부자만 타던 비행기를, 이제 누구나 탈 수 있게 된 것임. DeepSeek-R1 같은 오픈소스 추론 모델의 등장도 이 범용화를 가속하고 있음.
동남아시아에서는 이미 기업의 절반 이상이 파일럿을 넘어 AI를 실제 업무에 적용하고 있다 (McKinsey). 글로벌 평균을 초과하는 수치다. 젊은 모바일 네이티브 인구와 높은 리더십 의지가 결합된 결과다.
금융권에서도 변화가 두드러진다. AI가 신용 위험 메모의 초안을 작성하면, 인간은 전략적 감시와 예외 관리에 집중함. 이 조합으로 생산성이 20~60% 향상됐다 (Bain & Company). AI가 80%의 기초 작업을 하고, 인간이 나머지 20%의 판단을 담당하는 구조다. AI 시대 생존의 핵심 공식이 바로 여기에 있음.
만 박사의 거짓말 — AI도 거짓말한다
인터스텔라에서 가장 충격적인 장면 중 하나는 만 박사(맷 데이먼)의 배신이다. 그는 자신의 행성이 인류 거주에 적합하다며 거짓 데이터를 보냈다. 생존 신호는 있었지만, 데이터는 조작되어 있었다.
AI 할루시네이션(Hallucination)이 정확히 이것임. AI가 겉으로는 완벽하게 그럴듯한 답변을 내놓지만, 사실은 완전히 틀린 정보를 생성하는 현상이다. 만 박사가 NASA에 보낸 신호처럼 — 형식은 완벽하지만, 내용은 거짓인 것임.
이게 왜 위험하냐면, AI의 거짓말은 인간의 거짓말과 다르기 때문임. 인간은 거짓말할 때 대체로 눈을 피하거나, 말이 더듬거리거나, 어딘가 어색한 구석이 있음. 하지만 AI는 틀린 답을 자신감 넘치는 어투로, 논리적인 문장 구조로, 마치 교과서에서 인용한 것처럼 제시함.
더 큰 문제가 있음. AI의 내부 작동 방식은 개발자조차 완전히 파악하지 못함. 마치 외계 식물을 키우는 것과 같다 — 물과 햇빛을 줬더니 자라는데, 왜 자라는지, 어떤 열매를 맺을지는 아무도 모르는 상황이다.
AI vs 인간 — 역할의 분기점
AI: 80점 대답 자판기
- 정형화된 데이터 분석 즉시 처리
- 초안 작성, 코드 생성, 번역 자동화
- 24/7 가동, 피로도 없음
- 할루시네이션 — 자신감 넘치는 거짓말
인간: 100점 판단 + 직관
- 맥락 파악, 전략적 방향 설정
- 이해관계자 설득, 공감, 신뢰 구축
- 위기 상황 판단, 윤리적 결정
- 직관 — 데이터 뒤의 의미를 읽는 능력
AI 안전의 현주소
AI 관련 사고 보고가 2024년 역대 최고치를 기록했다. 감염성 탈옥(Infectious Jailbreaks)이라는 새로운 위협도 등장했다 — 하나의 AI 에이전트 보안이 뚫리면, 연결된 다른 AI 에이전트까지 연쇄적으로 뚫리는 현상이다. 마치 아파트 한 집에 불이 나면 윗집까지 번지는 것과 같다.
가장 우려스러운 점은 격차다. AI의 역량은 기하급수적으로 발전하고 있는데, AI 안전 기술은 선형적으로만 발전하고 있음. 즉, AI의 속도를 안전장치가 따라잡지 못하고 있는 것임. 서울 AI 정상회의에서 국제 AI 안전 연구소 네트워크가 결성된 것도 이런 위기감 때문임.
쿠퍼의 직관 — 데이터만으로는 안 된다
만 박사의 거짓말을 간파한 건 쿠퍼의 직관이었다. 데이터는 “이 행성은 안전하다”고 말했지만, 쿠퍼는 뭔가 이상하다는 걸 본능적으로 느꼈다. 결국 그 직관이 옳았다.
AI 시대에도 이 직관의 가치가 빛을 발하고 있음. 프로젝트 메이븐(Project Maven) — 미 육군의 AI 감시 시스템 — 의 사례가 대표적이다. 한 보도에 따르면, 이 시스템에서 가장 뛰어난 운용 성과를 보인 인물은 AI 박사나 데이터 사이언티스트가 아니라 법 집행 기관 출신의 현장 전문가였다.
거리에서 수십 년간 익힌 수사적 본능, 사람의 행동 패턴을 읽는 눈, 이상 징후를 감지하는 촉 — 이런 현장 직관이 AI가 놓치는 수상한 패턴을 포착했다. 학위보다 직관이 더 정확했던 것임.

이것이 바로 경력직의 가치임. AI는 ’80점짜리 대답 자판기’와 같다. 질문을 넣으면 제법 괜찮은 답이 나옴. 하지만 80점을 100점으로 끌어올리는 것, 즉 답변의 맥락이 맞는지, 현실에서 작동하는지, 빠진 변수는 없는지를 판단하는 건 인간의 영역임. AI 시대 생존은 결국 이 20%의 차이에서 결정됨.
AI 시대 생존, 경력직 검증이 필수인 이유
사회 초년생에게 AI 결과물을 검증하라고 하면 무엇이 문제인지 모르는 경우가 많다. 직관이 쌓이지 않았기 때문임. 반면 경력자는 결과물을 훑어보기만 해도 “이건 맥락이 안 맞는데?”라는 걸 즉각 포착함.
시니어의 진짜 실력은 ‘적절한 발문(發問) 능력’에 있음. “답변하기 전에 나한테 역질문부터 해봐(Ask before answer).” 이런 지시를 AI에게 내릴 수 있는 건 도메인 전문성이 있는 사람뿐임. 어떤 질문을 해야 좋은 답이 나오는지 아는 것, 이것이 프롬프트 엔지니어링의 본질이자 경력의 핵심 가치임.
결국 인간의 역할은 이렇게 변하고 있음. 단순 작업자에서 전략적 감독자(Strategic Overseer)로. 직접 보고서를 쓰는 대신, AI가 쓴 보고서의 방향과 품질을 감독하는 역할임. 감독의 질은 경험에서 나옴.
사랑이 차원을 초월하듯 — 인간만의 무기가 있다
인터스텔라의 가장 아름다운 장면은 쿠퍼가 5차원 공간에서 딸 머피에게 메시지를 보내는 순간이다. 과학으로 설명할 수 없는 것, 수식으로 풀 수 없는 것 — 사랑이 차원을 초월해 답을 전달함.
AI 시대에도 마찬가지다. AI가 아무리 발전해도 넘지 못하는 영역이 있음. 공감, 관계, 스토리텔링. 이것이 인간만의 무기임.
역량의 중심축이 이동하고 있음. ‘정보 중심’에서 ‘관계 중심’으로. 과거에는 정보를 많이 아는 사람이 전문가였다. 하지만 이제 정보는 AI가 0.3초 만에 검색해준다. 진짜 가치는 그 정보를 맥락에 맞게 전달하고, 사람의 마음을 움직이고, 신뢰 관계를 만드는 데 있음.
한국 직장인에게 이건 구체적인 기회로 다가온다. 한국의 관계 중심 비즈니스 문화 — 술자리, 골프, ‘정(情)’ — 가 AI 시대에 오히려 강점이 될 수 있음. AI는 데이터를 분석하지만, 거래처 사장님의 표정을 읽는 건 인간만 가능하기 때문임. 이것이 AGI 시대 한국의 선택지에서 다룬 핵심 논점과도 맞닿아 있음.
“We Will Find a Way” — AI 시대 생존을 위한 5가지 태도
김대식 교수(KAIST 뇌과학)는 AI 시대 생존을 위해 인간이 가져야 할 5가지 태도를 제시했다. 이것은 인터스텔라의 쿠퍼가 보여준 모습과 정확히 겹친다.
인터스텔라 쿠퍼가 보여준 다섯 가지 자세
첫째, 유연성과 회복탄력성(Polytropos). 호메로스의 오디세이아에서 오디세우스를 묘사하는 단어다. ‘다양한 형태로 변할 수 있는 자’라는 뜻이다. 쿠퍼가 파일럿에서 농부로, 다시 우주 탐험가로 변신했듯 — 하나의 직업, 하나의 스킬에 고정되지 않는 유연함이 필요함.
둘째, 나만의 목표와 이상 설정. AI는 ‘무엇을 위해 살 것인가’를 상상하지 못함. 효율은 AI가, 방향은 인간이 정하는 것임. “이번 분기 매출 15% 올리자”는 AI가 계산할 수 있지만, “왜 이 사업을 하는가?”는 인간만이 답할 수 있음.
셋째, 개방적 태도. 호모 파버(도구를 만드는 인간)의 오만을 경계해야 함. “내가 만든 도구로 세상을 지배할 수 있다”는 착각은 AI 시대에 가장 위험한 사고방식이다. 세상의 복잡성을 인정하고, 배우는 자세를 유지하는 것임.
넷째, 독립적 주체성. NPC(Non-Player Character, 게임에서 배경으로만 존재하는 캐릭터)가 아닌 플레이어로서의 자아를 유지하는 것임. AI가 추천해주는 대로만 살면, 우리는 알고리즘의 NPC가 됨. 자기 선택과 판단의 주체로 서는 것이 중요하다.
다섯째, 질문하고 발문하는 태도. AI를 ‘정답 자판기’가 아니라 ‘컨설팅 파트너’로 활용하는 것임. “답을 줘”가 아니라 “이 문제를 어떻게 바라봐야 할까?”라고 묻는 사람이 AI 시대 생존에 성공하는 사람이다.
| 태도 | 인터스텔라 대응 | 직장인 실천 |
|---|---|---|
| 유연성 (Polytropos) | 파일럿에서 농부, 다시 탐험가 | 직무 전환, 새 스킬 학습 주기적으로 |
| 목표 설정 | “인류를 구하겠다” | 커리어 방향을 내가 정한다 |
| 개방적 태도 | 블랙홀도 탐험 | 모르는 분야에 겸손, 계속 학습 |
| 독립적 주체성 | 만 박사에 휘둘리지 않음 | AI 추천을 그대로 따르지 않는다 |
| 질문하는 태도 | “왜 유령이 나타나지?” | AI에게 답 대신 질문을 시킨다 |
INSIGHT
AI는 답을 주고, 인간은 질문을 함. 기술이 아무리 발전해도 “왜?”라고 묻는 존재는 인간뿐임. 인터스텔라의 쿠퍼가 블랙홀 너머에서 답을 찾았듯, 우리도 AI 너머에서 인간만의 답을 찾을 수 있음. “We will find a way. We always have.”
ACTION
1. AI 결과물을 그대로 쓰지 말 것 — “이 맥락에서 맞나?”를 한 번 더 확인하는 습관이 할루시네이션을 잡고, 본인의 전문성을 증명하는 방법이다.
2. H5 영역을 의식적으로 키울 것 — 대인 커뮤니케이션, 갈등 조정, 공감은 실제 사람과의 부딪힘에서 자란다.
3. AI를 ‘자판기’가 아니라 ‘후배’로 대할 것 — “이거 해줘” 대신 “이 문제를 어떻게 바라봐야 할까?”라고 묻는 순간, AI는 도구에서 파트너가 됨.
참고 자료
- Morgan Stanley, “AI Enablers & Adopters Research Report”
- McKinsey, “AI in Southeast Asia: An Era of Opportunity”
- Palantir Technologies, “Foundry Platform — Ontology-Driven AI”
- Stanford HAI, “AI Index Report 2025 — AI 추론 비용 280배 하락”
- Bain & Company, “AI in Financial Services: Productivity Gains”
- 김대식, KAIST 뇌과학 — AI 시대 인간의 태도
- 서울 AI 정상회의, 국제 AI 안전 연구소 네트워크 결성
- Fortune, “Microsoft AI Chief: White-Collar Automation in 12-18 Months”
자주 묻는 질문
