본문 바로가기

요즘 사람들이 ChatGPT 끊고 Claude로 갈아타는 진짜 이유 — AI 군사 윤리 논란

반응형

30

 

원본 영상: Why Everyone is Switching from ChatGPT to Claude Right Now — Joma 2nd Channel


https://www.youtube.com/watch?v=hiQm6Cgwxkg

 

솔직히 이 영상 보기 전까지는 그냥 "Claude가 요즘 잘 나가네" 정도로만 생각하고 있었다.

ChatGPT 쓰다가 Claude로 넘어가는 사람들 많다는 건 알았는데, 그게 단순히 성능 때문이 아니라 이런 배경이 있었다는 걸 영상 보고 나서야 제대로 알았다. 개발자로 일하면서 AI 툴은 일상적으로 쓰고 있는 입장이라 이 이슈가 남의 얘기처럼 안 느껴졌다.


Anthropic이 트럼프한테 밴당한 이유

내용을 정리하자면 이렇다.

Anthropic은 원래 미국 국방부(Department of War)랑 이미 협력 관계였다. 팔란티어를 통해서 고도로 기밀적인 작업(IMPACT 6 레벨)도 하고 있었고, 2026년 1월에는 Claude가 마두로 체포 작전에 사용되기도 했다.

근데 거기서 Anthropic이 제동을 걸었다. "모델이 아직 그 수준이 안 됐다, 치명적 임무에 사용하면 안 된다"는 거였다. 그리고 국방부는 "all lawful use(모든 합법적 용도에 사용 가능)"라는 조항에 동의하라고 요구했는데, Anthropic이 이걸 거부했다.

거부 이유는 명확했다. 자국민 대규모 감시, 완전 자율 무기 시스템에 AI를 쓰는 건 동의할 수 없다는 것. 그러자 트럼프가 모든 정부 기관에 Anthropic 사용 중단을 명령하고, "공급망 리스크"로 분류해버렸다.

공급망 리스크로 분류되면 국방부와 거래하는 회사들은 Anthropic이랑 일체 거래가 금지된다. 사실상 블랙리스트다.


OpenAI는 왜 욕을 먹냐

Anthropic이 밴당하자마자 OpenAI가 그 자리를 꿰찼다. Anthropic이 거부한 조건을 OpenAI가 수락했다.

물론 OpenAI도 "레드라인이 있다"고 했다. 자국민 대규모 감시, 자율 킬봇, 고위험 자동화 결정 등은 안 된다고. 근데 문제는 그들이 "all lawful use"에 동의해버린 것이다.

영상에서 이 부분이 핵심이라고 봤다. 헌법 해석은 얼마든지 바뀔 수 있다. "합법적 용도"의 범위를 어떻게 정의하느냐에 따라 저 레드라인들은 언제든지 무력화될 수 있다는 게 사람들의 논리다. 국방부 고위 관계자도 이 계약이 "Anthropic이 거부한 바로 그 조건"에서 흘러나온 것이라고 확인해줬다.

OpenAI 입장에서는 억울할 수도 있다. 근데 퍼블릭 이미지는 이미 망가졌고, 원래 비영리 단체로 "AI가 잘못된 손에 들어가지 않게 하겠다"는 취지로 만들어진 회사가 이 짓을 하고 있으니... 사람들 반응이 이해는 간다.

Katie Perry가 월 200달러짜리 Claude 구독을 했다는 것도 웃긴데, 어쨌든 그 상징성은 있다. 실제로 Claude 앱이 앱스토어 1위까지 올라갔다고 하니까.


AI 회사들 포지셔닝 정리

영상에서 각 회사를 꽤 직설적으로 정리해줬는데, 내 식으로 한 번 더 정리하면:

  • xAI (Grok): 처음부터 완전 동의. Elon은 원래 이런 입장이라 사람들도 딱히 놀라지 않는 분위기.
  • OpenAI: 겉으로는 윤리 얘기 하면서 사실상 동의. 사람들이 가장 배신감 느끼는 케이스.
  • Anthropic: 완전 거부, 블랙리스트. 지금은 오히려 윤리적 회사 이미지.
  • Google: 애매한 중간. 비분류 업무(물류, 행정 등) 수준에서만 지원. 근데 2025년에 AI 원칙에서 무기 관련 금지 조항을 슬쩍 삭제한 전력이 있음.
  • Meta: 오픈소스로 가는 중. 이번 이슈에선 상대적으로 조용함.

진짜 무서운 건 따로 있다

영상에서 가장 인상 깊었던 부분은 죄수의 딜레마 비유였다.

핵 개발이랑 구조가 똑같다. 서로 원하지 않아도 "안 하면 내가 뒤처진다"는 공포 때문에 계속 달리는 것. 미국이 혼자 윤리 가이드라인 잡고 2년을 검토하는 동안, 중국은 그런 고민 없이 1년 만에 군사에 통합해버리면 미국이 지는 거다.

근데 AI 군사화는 핵보다 훨씬 더 빠르고 싸고 효율적이라는 게 문제다. 핵은 억제력으로 기능하지만, 자율 드론은 "시작했다는 것도 모르는 사이에 끝날 수 있다"는 얘기도 나온다. 오버파워드라는 표현이 딱 맞는 것 같다.

미국이 핵 개발에 쏟아부은 돈이 1996년 기준으로 12조 달러라고 한다. 지금도 연간 1천억 달러 넘게 쓰고. 그 돈이 다른 곳에 쓰였으면 세상이 어떻게 달라졌을까... 라는 생각이 드는데, AI 군사화도 같은 궤적을 밟을 것 같아서 씁쓸하다.


개발자로서 이 상황을 보면

나는 매일 Claude나 ChatGPT 같은 AI 툴을 쓴다. 코딩 도구로, 정보 검색 도구로. 이게 이미 내 일상이다.

근데 이번 사건을 보면서 이 AI 회사들의 결정이 단순히 서비스 퀄리티 문제가 아니라는 걸 다시 한번 느꼈다. 내가 쓰는 AI가 어떤 정치적 포지셔닝을 하고 있는지, 어디에 어떻게 쓰이고 있는지가 점점 더 중요해지는 시대다.

Anthropic이 선택한 길이 맞는지 틀린지는 모르겠다. 밴을 당했으니 비즈니스 관점에서는 손해일 수 있다. 근데 적어도 자기들이 어디까지 동의하고 어디서 선을 긋는지를 명확하게 했다는 점은 인상적이다.

OpenAI가 욕을 먹는 이유도 결국 같은 맥락이다. 윤리를 강조하는 척하면서 실제로는 그 윤리를 스스로 무너뜨리는 것처럼 보이기 때문이다. 오빈하이머 AI 버전이라는 표현이 좀 과하긴 한데... 틀린 말도 아닌 것 같다.

AGI에 도달하기도 전에 지금 수준의 AI로 서로 싸우다가 망할 수도 있다는 영상의 마지막 말이 계속 머릿속에 맴돈다.

별로 유쾌한 생각은 아닌데, 그래도 이런 걸 생각해보는 게 의미있다고 본다. 기술 뒤에 있는 결정들이 결국 우리 삶에 영향을 주니까.


#claude #chatgpt #openai #anthropic #AI윤리 #AI군사화 #ChatGPT해지 #Claude구독 #AI트렌드 #테크이슈 #AI뉴스 #인공지능윤리 #AI안전성 #죄수의딜레마 #AI무기화

반응형