포스트

Anthropic vs 펜타곤 - 군사 AI 사용 최후통첩과 안전 서약 후퇴의 모순

목차

  1. 개요
  2. 배경
  3. 핵심 내용
  4. 의미와 시사점
  5. 결론
  6. Reference

개요

2026년 2월 같은 주에 Anthropic을 둘러싼 두 가지 상충하는 사건이 벌어졌다. 미국 국방부가 Claude의 군사적 사용 제한을 해제하라는 최후통첩을 보낸 것과, Anthropic이 자체 핵심 AI 안전 서약인 RSP(Responsible Scaling Policy)를 조용히 철회한 것이다. 하나는 외부 압력에 맞선 공개적 저항이고, 다른 하나는 내부 안전 약속의 사적 후퇴다.

배경

Anthropic은 2023년에 RSP를 도입했다. 적절한 안전 조치가 마련되지 않으면 더 강력한 모델의 훈련을 중단하겠다는 약속이었다. 동시에 Anthropic은 미 국방부와 2억 달러 규모의 계약을 맺고 있으며, 해당 계약에는 자율 무기와 대규모 감시를 금지하는 사용 정책 제한이 포함되어 있었다. 두 사건이 같은 주에 터지면서 Anthropic의 안전 철학에 대한 근본적인 질문이 제기되었다.

핵심 내용

펜타곤의 최후통첩

국방장관 Pete Hegseth가 Anthropic CEO Dario Amodei에게 최후통첩을 보냈다. 2026년 2월 27일 금요일 오후 5시 1분까지 Claude를 “모든 합법적 목적”에 제한 없이 사용할 수 있도록 허용하라는 요구였다.

Hegseth는 거부할 경우 두 가지 위협을 제시했다.

위협 수단내용
국방생산법(Defense Production Act) 발동COVID 팬데믹 당시 사용된 강제 생산 명령권으로, Title I의 핵심 강제 권한 적용 위협
공급망 위험 지정화웨이 등 적성국 기업에만 적용하던 지정을 Anthropic에 적용, 군 계약업체들이 Anthropic과의 관계를 끊도록 강제

Hegseth의 AI 전략 메모랜덤은 모든 국방부 AI 계약에 180일 이내에 표준 “모든 합법적 사용” 조항을 포함하도록 지시했다. 이는 Anthropic의 기존 제한 조건과 정면으로 충돌한다.

Anthropic의 입장

Anthropic은 최후통첩을 거부했다. 회사가 요청한 것은 최소한의 안전장치 유지뿐이었다.

  • 자율 무기 시스템 개발 금지
  • 미국 시민을 대상으로 한 대규모 감시 금지

Anthropic은 이러한 안전 조치가 실제 군사 작전을 방해하지 않는다고 주장했다. 그러나 펜타곤의 “최종 제안”을 수용할 수 없다는 입장을 밝히면서, 향후 군사 업무에서 배제될 가능성에 직면하게 되었다.

RSP 안전 서약의 후퇴

같은 주, Anthropic은 자사의 핵심 안전 서약인 RSP를 근본적으로 수정했다. 기존 RSP의 핵심은 “안전 조치가 검증되지 않으면 더 강력한 모델의 훈련을 중단한다”는 약속이었다.

수석 과학자 Jared Kaplan은 TIME에 다음과 같이 설명했다. “우리가 AI 모델 훈련을 멈추는 것이 실제로 누구에게도 도움이 되지 않을 것이라고 느꼈다. AI의 급속한 발전 속에서 경쟁자들이 앞서 나가는 동안 일방적 약속을 하는 것이 합리적이지 않다고 판단했다.”

Anthropic이 제시한 RSP 변경의 세 가지 이유는 다음과 같다.

  • 능력 임계값에 따른 위험의 공적 근거를 흐리는 “모호성 지대”
  • 점점 반규제적으로 변하는 정치 환경
  • 상위 RSP 수준에서 업계 전반의 조율 없이는 충족하기 매우 어려운 요건들

새로운 RSP는 경직된 중단 조건을 투명한 위험 보고와 경쟁 동등성 약속으로 대체했다. 개발을 지연시키는 것은 자사가 AI 경쟁의 선두에 있다고 판단하고, 재앙의 위험이 실질적이라고 판단하는 경우에만 적용된다.

두 사건의 모순

두 사건을 병치하면 Anthropic이 어떤 경계를 공개적으로 방어하고, 어떤 경계를 사적으로 포기하는지가 드러난다.

구분군사 사용 제한RSP 안전 서약
대응 방식공개적 거부조용한 철회
결과제한 유지경직된 중단 조건 폐기
외부 반응긍정적 평가비판적 평가

METR의 정책 이사는 이 변화를 “트리아지 모드”로의 전환이라고 묘사했다. 능력 개발이 안전 평가 역량을 앞질렀다는 현실을 인정하는 것이다.

의미와 시사점

이 사건은 AI 안전 논의에서 여러 중요한 질문을 제기한다.

첫째, 국가 안보와 AI 안전 사이의 경계를 누가 결정하는가? 국방생산법이라는 강력한 도구가 AI 기업에 대해 발동될 수 있다는 선례가 만들어지고 있다.

둘째, 경쟁 압력이 자발적 안전 약속을 무력화하는가? Kaplan의 “경쟁자들이 앞서 나가는 동안 일방적 약속이 합리적이지 않다”는 발언은 자발적 안전 서약의 구조적 한계를 보여준다.

셋째, 공개적 저항과 사적 후퇴의 모순이 AI 안전에 대한 신뢰를 어떻게 형성하는가? 군사 사용에는 저항하면서 내부 안전 약속은 완화하는 이중성은 복잡한 신호를 보낸다.

넷째, 업계 전반의 조율 없이 개별 기업의 안전 약속이 지속 가능한가? Anthropic이 스스로 인정했듯이, 단독 행동의 한계가 분명해지고 있다.

결론

Anthropic-펜타곤 분쟁과 RSP 철회는 AI 안전이 이론적 약속에서 현실적 타협의 영역으로 이동했음을 보여준다. 자율 무기와 대규모 감시에 대한 경계는 유지하면서도, 모델 훈련 중단이라는 핵심 안전 약속은 경쟁 압력 앞에서 후퇴했다. AI 안전의 미래는 개별 기업의 자발적 서약이 아니라 업계 전반의 조율과 제도적 프레임워크에 달려 있다는 교훈을 남긴다.

Reference