OpenClaw Claude 토큰 사용 금지! Anthropic ToS 위반 후 OpenAI Codex 전환 완전 가이드 2026
AI 대형 모델 활용 가이드
OpenClaw와 함께 사용할 최적의 로컬 LLM을 찾고 있나요? AI 대형 모델 가이드 →
이 글에서 다루는 내용: 2026년 초 Anthropic이 Claude Pro/Max 구독의 OAuth 토큰을 OpenClaw 같은 서드파티 도구에서 사용하는 것을 이용약관(ToS) 위반으로 규정했습니다. OpenClaw에서 Claude OAuth 토큰이 더 이상 작동하지 않을 때, 메모리·채널 설정·cron 작업을 그대로 유지하면서 OpenAI Codex 또는 API 키로 5분 안에 전환하는 완전한 방법을 단계별로 설명합니다.
Anthropic은 왜 OpenClaw에서 Claude 토큰을 금지했나?
2026년 초, Anthropic은 이용약관을 업데이트하여 Claude Pro/Max 구독에서 발급되는 OAuth 토큰이 "Claude.ai 및 Claude Code 사용 전용"임을 명확히 했습니다. OpenClaw처럼 이 토큰을 서드파티 자동화 도구에 사용하는 것은 이용약관 위반으로 간주됩니다.
# OpenClaw에서 Claude OAuth 토큰 사용 시 나타나는 오류 메시지
Error: claude_subscription_oauth_token_unauthorized
Your Claude subscription OAuth token cannot be used
with third-party applications. Please use a direct API key
from console.anthropic.com instead.
또는:
anthropic_tos_violation: OAuth tokens from Claude subscriptions
are restricted to claude.ai and Claude Code only.
이는 OpenClaw만의 문제가 아닙니다. OpenAI 역시 이 규정을 명확히 하기 전까지 유사한 상황이 있었으나, OpenAI의 ChatGPT 구독(Plus/Pro)은 OAuth 토큰을 서드파티 도구에서 사용하는 것을 명시적으로 허용하고 있어 현재 가장 인기 있는 대안이 됐습니다.
사용 불가 (ToS 위반)
- Claude Pro/Max 구독 OAuth 토큰 → OpenClaw 사용
- Claude Max API Proxy 커뮤니티 도구 (비공식)
- 토큰 쉐어링으로 여러 인스턴스 운영
사용 가능 (허용)
- OpenAI ChatGPT OAuth 토큰 (Codex) → OpenClaw
- Anthropic API 키 (console.anthropic.com)
- OpenAI API 키 (platform.openai.com)
- 로컬 LLM (Ollama, LM Studio 등)
전환 전 준비사항: 데이터 백업
전환 작업을 시작하기 전에 반드시 현재 OpenClaw 설정을 백업하세요. onboard 명령어를 잘못 실행하면 채널, 메모리, cron 작업 설정이 초기화될 수 있습니다.
# 전환 전 필수 백업 명령어
# 1. 설정 파일 전체 백업
cp -r ~/.openclaw ~/.openclaw_backup_$(date +%Y%m%d)
# 2. 백업 확인
ls -la ~/.openclaw_backup_*
# 3. 현재 모델 설정 확인
openclaw models status --plain
# 4. 연동된 채널 목록 확인
/status
💡 백업에서 보존되는 항목
전환 방법 A: OpenAI Codex OAuth (가장 빠름, 추천)
ChatGPT Plus/Pro 구독이 있다면 OpenAI Codex OAuth 방식이 가장 빠릅니다. Claude와 동일한 구독 방식이지만 OpenAI는 서드파티 사용을 허용합니다. 전체 과정 5분 이내.
onboard 명령어 실행
openclaw onboard --auth-choice openai-codex
⚠️ 반드시 --auth-choice openai-codex를 붙이세요. 없이 실행하면 기존 설정이 초기화될 수 있습니다.
"Use existing values" 선택 (중요!)
onboard 마법사가 기존 설정 유지 여부를 물으면 반드시 "Use existing values"를 선택하세요. "Reset"을 선택하면 메모리, 채널, cron 설정이 모두 초기화됩니다.
브라우저에서 ChatGPT 계정으로 인증
onboard 마법사가 브라우저를 열면 ChatGPT Plus/Pro 계정으로 로그인하고 OpenClaw 접근을 승인합니다.
# 인증 완료 후 브라우저 창을 닫고 터미널로 돌아옵니다
# "Authentication successful" 메시지 확인
모델 설정 및 게이트웨이 재시작
# 모델 설정
openclaw models set openai-codex/gpt-5.3-codex
# 설정 적용 확인
openclaw models status --plain
# 게이트웨이 재시작
openclaw gateway restart
# 전체 상태 확인
openclaw doctor
전환 완료 확인
# 텔레그램/Discord에서 테스트
"안녕, 지금 어떤 모델을 사용하고 있어?"
# 예상 응답
"저는 현재 OpenAI GPT-5.3-Codex 모델을 사용하고 있습니다."
전환 방법 B: Anthropic API 키 사용 (Claude 유지)
Claude의 응답 품질을 유지하고 싶다면 구독 OAuth 대신 직접 API 키를 사용하세요. Anthropic은 console.anthropic.com을 통한 API 키 방식은 여전히 허용합니다. 단, 비용이 사용량 기준으로 청구되며 Opus 모델 기준 월 $100 이상이 발생할 수 있습니다.
비용 비교
Claude API 직접 사용
• Opus 기준 월 $50~$200+
• 사용량 기반 종량제
⚠️ 고비용 주의
OpenAI Codex OAuth
• ChatGPT Plus $20/월 고정
• 구독 포함 사용
✅ 가장 경제적
OpenAI API 키
• GPT-4o 기준 월 $10~$50
• 사용량 기반 종량제
👍 중간 옵션
# Anthropic API 키 방식으로 전환
# 1. console.anthropic.com에서 API 키 발급 후
openclaw onboard --auth-choice anthropic-api-key
# 2. API 키 입력 시 프롬프트에 붙여넣기
# 3. 모델 설정
openclaw models set anthropic/claude-opus-4
# 4. 비용 모니터링 설정 (권장)
/usage cost # 각 응답마다 비용 표시
전환 방법 C: 로컬 LLM으로 완전 무료 운영
클라우드 API 비용과 ToS 제약에서 완전히 벗어나려면 Ollama를 통한 로컬 LLM 연결이 최선입니다. 인터넷 연결 없이도 작동하며 비용이 0원입니다. 단, 로컬 GPU/RAM 성능에 따라 응답 속도가 제한됩니다.
# Ollama 로컬 LLM 연결 방법
# 1. Ollama 설치 (이미 설치된 경우 생략)
curl -fsSL https://ollama.ai/install.sh | sh
# 2. 원하는 모델 다운로드
ollama pull qwen3:14b # 추천: 균형 잡힌 성능
ollama pull gemma3:12b # 추천: 빠른 응답
ollama pull deepseek-r1:14b # 추천: 추론 능력
# 3. OpenClaw에서 Ollama 연결
openclaw onboard --auth-choice ollama
# 4. 모델 선택
openclaw models set ollama/qwen3:14b
💡 로컬 LLM 최소 사양 (OpenClaw 운영 기준)
7B 모델 (최소)
RAM 16GB, GPU 8GB VRAM 또는 CPU 추론 가능
14B 모델 (권장)
RAM 32GB, GPU 16GB VRAM (M2 Mac 이상)
32B+ 모델 (고성능)
RAM 64GB+, RTX 4090 또는 Mac Studio 이상
주의: 에이전트별 모델 설정도 업데이트 필요
전체 기본 모델을 변경해도 개별 에이전트가 특정 모델을 직접 지정하고 있다면 계속 이전 Claude 토큰을 사용하려 해 오류가 발생합니다. 전환 후 반드시 개별 에이전트 설정을 확인하세요.
# openclaw.json에서 에이전트별 모델 확인 및 수정
# Claude 모델을 직접 참조하는 에이전트 찾기
cat ~/.openclaw/openclaw.json | grep -i "claude"
# 발견된 경우 전체 수정 (예시)
# "model": "claude-opus-4" 를
# "model": "openai-codex/gpt-5.3-codex" 로 변경
# nano로 직접 편집
nano ~/.openclaw/openclaw.json
# 수정 후 검증
openclaw config validate
openclaw doctor
⚠️ Claude와 GPT의 응답 스타일 차이
GPT-5.3-Codex는 코드 생성과 구조화된 작업에서 뛰어나지만 장문 설명과 문체가 Claude와 다릅니다. 전환 후 soul.md의 응답 스타일 지침을 업데이트하고, 기존 프롬프트를 새 모델에 맞게 조정하는 것을 권장합니다. 특히 한국어 응답 품질은 최신 GPT-5.3-Codex에서 크게 개선됐습니다.
전환 후 자주 발생하는 문제와 해결법
문제 1: 전환 후 텔레그램 봇이 응답하지 않음
openclaw gateway restart
openclaw doctor
# "RPC probe: ok" 확인 후 텔레그램에서 재테스트
게이트웨이가 새 인증 방식을 적용하려면 재시작이 필요합니다. 재시작 후에도 응답이 없으면 openclaw logs에서 오류 확인.
문제 2: onboard 후 메모리가 사라짐
onboard 시 "Reset" 옵션을 실수로 선택했다면 백업에서 복원하세요:
cp ~/.openclaw_backup_*/memory.md ~/.openclaw/memory.md
cp ~/.openclaw_backup_*/soul.md ~/.openclaw/soul.md
문제 3: "model not found" 오류
openclaw models list # 사용 가능한 모델 확인
openclaw models set [모델명] # 목록에서 정확한 이름으로 설정
모델 이름에 대소문자 오류나 슬래시 위치 오류가 많습니다. 반드시 list 명령어로 확인 후 정확한 이름을 사용하세요.
문제 4: cron 작업이 실행되지 않음
cron 작업이 특정 모델을 지정하고 있다면 새 모델로 업데이트 필요:
cat ~/.openclaw/openclaw.json | grep -A5 "cron"
# "model" 항목이 있다면 새 모델명으로 변경
세 가지 전환 옵션 한눈에 비교
| 옵션 | 비용 | 설정 난이도 | 응답 품질 | 추천 |
|---|---|---|---|---|
| OpenAI Codex OAuth | $20/월 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | 강력 추천 |
| Anthropic API 키 | $50~$200+ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | 고품질 원할 때 |
| 로컬 LLM (Ollama) | 무료 | ⭐⭐⭐ | ⭐⭐⭐ | 고사양 PC 보유 시 |
OpenAI Codex 전환 후 네트워크 최적화
OpenAI Codex로 전환하면 OpenAI 서버(미국)와의 통신이 주가 됩니다. 한국에서 OpenAI API 서버까지의 지연 시간이 높으면 응답이 느려지고 타임아웃 오류가 발생할 수 있습니다. 특히 실시간 자동화 작업에서 이 문제가 두드러집니다.
OpenClaw 커뮤니티에서는 OpenAI API 서버와 가까운 지역의 VPN 노드를 사용하면 평균 응답 시간이 40~60% 단축된다고 보고합니다. 1000Mbps 이상의 대역폭을 가진 VPN이 이 용도에 적합합니다.
OpenClaw + OpenAI Codex 최적화 VPN 추천
VPN07 — OpenAI API 최적 경로 연결
10년 이상 운영. 1000Mbps 기가급 대역폭으로 OpenAI API 서버까지 최단 경로 연결. Claude에서 Codex로 전환 후에도 안정적인 응답 속도를 보장합니다.
🥈 2위 — 일반 VPN A
6.9/10속도 불안정, OpenAI API 지역 노드 부족. 전환 후 응답 지연 개선 효과 미미.
🥉 3위 — 일반 VPN B
6.4/10월 비용 높음. AI 에이전트 전용 최적화 없이 일반 스트리밍 중심 서비스.
VPN07 — OpenClaw 토큰 전환 후 필수 도구
Claude→Codex 전환 후에도 1000Mbps로 안정적 AI 에이전트 운영
10년 이상 안정 운영. Claude에서 OpenAI Codex로 전환한 뒤 가장 먼저 체감하는 차이는 응답 속도입니다. VPN07의 1000Mbps 전용 네트워크로 OpenAI 서버까지 최단 경로를 확보해 전환 후에도 빠르고 안정적인 AI 에이전트를 유지하세요.
AI 대형 모델 활용 가이드
Claude 대신 사용할 수 있는 로컬 LLM 옵션을 알아보세요. AI 대형 모델 가이드 →