OpenClaw /think /verbose /reasoning 명령어 완전 해설 2026: 고급 AI 제어 가이드
AI 대형 모델 활용 가이드
OpenClaw와 함께 사용할 최적의 로컬 LLM을 찾고 있나요? AI 대형 모델 가이드 →
이 글에서 다루는 내용: OpenClaw의 고급 제어 명령어인 /think, /verbose, /reasoning, /usage의 각 옵션별 정확한 의미와 차이점, 상황에 따른 최적 설정 조합, 그리고 이 명령어들이 왜 AI 응답 품질과 API 비용에 직접적인 영향을 미치는지 완전히 설명합니다. 공식 문서만으로는 이해하기 어려운 내용을 실전 예시로 풀어냅니다.
빠른 참조: 4가지 고급 명령어 요약
| 명령어 | 역할 | 옵션 |
|---|---|---|
| /think | AI 추론 깊이 제어 | off / minimal / low / medium / high / xhigh |
| /verbose | 디버그 정보 출력 수준 | on / full / off |
| /reasoning | 추론 과정 메시지 출력 | on / off / stream |
| /usage | 토큰·비용 사용량 표시 | off / tokens / full / cost |
/think 명령어 완전 해설: 추론 깊이를 조절한다
/think는 OpenClaw AI가 응답을 생성하기 전에 얼마나 깊이 생각할지를 제어합니다. 이 명령어는 AI 모델의 Chain of Thought(연쇄 추론) 기능을 직접 조절하며, 응답 품질과 API 비용에 가장 큰 영향을 미치는 명령어입니다.
추론 완전 비활성화 — 가장 빠르고 저렴
AI가 즉각 응답합니다. 추론 토큰을 사용하지 않으므로 응답 속도가 가장 빠르고 비용이 최소입니다.
복잡한 판단이 필요한 작업에서 오류 발생 가능성이 높음. 단순 질의응답이나 정보 검색에 적합.
최소 추론 — 빠른 응답 + 기본 판단
짧은 내부 추론 후 응답. 간단한 멀티스텝 작업에서 off보다 정확도 향상.
일상적인 일정 관리, 이메일 분류, 단순 자동화에 적합.
중간 추론 — 균형 잡힌 기본값 (권장)
대부분의 작업에 최적. 코드 작성, 이메일 초안, 데이터 분석 등 일반적인 자동화 작업.
대부분의 OpenClaw 사용자에게 권장되는 기본 설정.
높은 추론 — 복잡한 판단 필요 시
복잡한 코드 디버깅, 장기 계획 수립, 법률/의료 문서 분석 등. 응답이 느려지지만 정확도 크게 향상.
API 비용이 medium 대비 2~3배 증가할 수 있음.
최대 추론 — 최고 난도 작업 전용
수학 증명, 고급 알고리즘 설계, 복잡한 비즈니스 전략 분석 등 최고 수준 추론이 필요한 작업.
응답 시간 수십 초~수 분 소요. 비용 매우 높음. 필요할 때만 임시 사용 권장.
# /think 사용 예시
/think medium # 중간 추론으로 설정
/think high # 높은 추론으로 설정
/think off # 추론 비활성화
# 현재 think 설정 확인
/status
/verbose 명령어 완전 해설: AI 내부 과정 들여다보기
/verbose는 OpenClaw가 작업을 실행하는 동안 내부 처리 과정을 얼마나 상세하게 출력할지 제어합니다. 문제가 발생했을 때 원인을 파악하거나 AI가 어떤 도구를 어떤 순서로 사용하는지 확인하는 데 필수입니다.
기본 출력 (기본값)
최종 응답만 출력. 중간 처리 과정 숨김. 일상 사용에 적합.
메신저에서 깔끔한 응답 원할 때
상세 출력
실행 단계, 도구 호출, 결과를 출력. 어떤 명령이 실행되는지 확인 가능.
새 자동화 설정 테스트 시 추천
전체 디버그 출력
HTTP 요청/응답, 토큰 카운트, 타이밍 등 모든 내부 정보 출력.
오류 원인 분석 시에만 임시 사용
🔧 /verbose 실전 활용 시나리오
새 스킬을 만들었는데 제대로 실행되는지 확인하고 싶다 → /verbose on으로 각 단계 확인
cron 작업이 실패하는 이유를 모른다 → /verbose full로 전체 로그 확인
텔레그램에서 AI와 일상 대화 → /verbose off로 깔끔한 응답 유지
/reasoning 명령어 완전 해설: 추론 과정을 메시지로 받기
/reasoning은 AI의 추론 과정을 별도 메시지로 출력할지 여부를 제어합니다. /think가 추론의 깊이를 조절한다면, /reasoning은 그 추론 과정을 사용자가 볼 수 있게 할지 말지를 결정합니다.
/reasoning off
추론 메시지 숨김 (기본값)
AI가 내부적으로 추론을 수행하더라도 그 과정은 출력하지 않고 최종 결론만 전달합니다. 일반 사용 시 기본 설정.
/reasoning on
추론 완료 후 한 번에 출력
AI가 추론을 모두 완료한 뒤 "추론 과정" 메시지를 먼저 보내고 이후 최종 답변을 보냅니다.
[추론 과정]
1. 사용자가 요청한 작업을 분석
2. 관련 데이터 소스 검토
3. 최적 실행 계획 수립
[최종 응답]
계획대로 실행하겠습니다: ...
/reasoning stream
추론 과정을 실시간으로 스트리밍
AI가 생각하는 과정을 실시간으로 출력합니다. 복잡한 작업에서 AI가 어떤 방향으로 생각하는지 실시간 확인 가능.
메시지가 매우 길어질 수 있음. 디버깅 목적으로만 사용 권장.
💡 /think vs /reasoning 차이점 요약
/think → 추론의 깊이 조절
AI 내부에서 얼마나 깊이 생각할지. 응답 품질과 비용에 직접 영향. high/xhigh일수록 더 많은 토큰 소비.
/reasoning → 추론 과정 출력 여부
추론 과정을 사용자에게 보여줄지 결정. on/stream으로 설정해도 추론 깊이는 /think에 따름. 출력 토큰만 추가 소비.
/usage 명령어 완전 해설: 비용과 토큰 사용량 모니터링
/usage는 각 응답 이후에 토큰 사용량과 비용 정보를 표시할지 제어합니다. API 키 방식으로 사용하는 경우 비용이 직접 청구되므로 이 명령어를 활성화해 사용량을 모니터링하는 것이 중요합니다.
/usage off
사용량 정보 미표시. 기본값.
/usage tokens
입력/출력 토큰 수만 표시.
/usage cost
토큰 비용을 달러로 표시.
/usage full
토큰 + 비용 + 모델 정보 모두 표시.
# /usage full 활성화 시 응답 예시
안녕하세요! 오늘 어떻게 도와드릴까요?
─────────────────────────────
📊 Usage: input=342 output=18 | think=1,204
💰 Cost: $0.0042 (input) + $0.0011 (output)
🤖 Model: openai-codex/gpt-5.3-codex
─────────────────────────────
💡 비용 절감 팁: /usage cost + /think 연동 활용
/usage cost를 활성화하면 각 작업에서 /think 설정별 실제 비용 차이를 직접 확인할 수 있습니다. 예를 들어 동일한 작업에서 /think medium은 $0.004였는데 /think xhigh는 $0.018이라면, 해당 작업에는 medium으로 충분하다는 것을 알 수 있습니다.
상황별 최적 명령어 조합 가이드
네 가지 명령어를 적절히 조합하면 상황에 맞는 최적의 OpenClaw 운영 환경을 만들 수 있습니다.
패턴 1: 일상 자동화 (속도 우선)
/think minimal
/verbose off
/reasoning off
/usage off
이메일 필터링, 일정 알림, SNS 모니터링 등 반복적이고 단순한 자동화 작업. 빠른 응답과 낮은 비용이 최우선.
패턴 2: 일반 업무 (균형)
/think medium
/verbose off
/reasoning off
/usage tokens # API 키 사용 시
코드 작성, 문서 요약, 데이터 분석 등 일반 업무. 대부분의 사용자에게 권장되는 기본 설정.
패턴 3: 디버깅 (정확성 우선)
/think high
/verbose on
/reasoning on
/usage full
새 스킬 개발, 오류 원인 분석, 복잡한 자동화 설정 시. AI의 사고 과정을 모두 확인하며 검증.
패턴 4: 고난도 분석 (품질 최우선)
/think xhigh
/verbose off # 응답만 보고 싶다면
/reasoning on # 추론 과정 확인 원하면
/usage cost # 비용 모니터링 필수
법률 문서 검토, 비즈니스 전략 분석, 복잡한 알고리즘 설계. 비용을 감수하더라도 최고 품질이 필요할 때.
흔한 실수: 이 설정이 비용을 폭발시킨다
많은 사용자가 디버깅하면서 /think xhigh와 /verbose full을 설정해놓고 그대로 잊어버립니다. 이 조합은 API 키 방식 사용 시 하루에 $50 이상의 비용을 유발할 수 있습니다.
비용 폭탄 설정 조합
/think xhigh # 추론 토큰 최대
/verbose full # 출력 토큰 최대
/reasoning stream # 스트리밍 추론
일반 대화 한 번에 $0.05~$0.20 소요. 하루 100번 대화 시 $5~$20 비용 발생.
작업 완료 후 복원 습관
# 디버깅 완료 후 항상 복원
/think medium
/verbose off
/reasoning off
/usage tokens
고급 설정 사용 후 반드시 기본값으로 복원. config 파일에 기본값 저장 권장.
추가: /model 명령어로 추론 능력 자체를 바꾸기
궁극적으로 응답 품질을 결정하는 것은 /think 설정뿐만 아니라 어떤 모델을 사용하는가입니다. /model 명령어로 현재 세션에서 사용하는 모델을 임시로 변경할 수 있습니다.
# /model 명령어 사용법
/model # 현재 모델 확인
/model list # 사용 가능한 모델 목록
/model openai-codex/gpt-5.3-codex # 특정 모델로 임시 전환
/model ollama/qwen3:14b # 로컬 모델로 전환
# 영구 설정은 models 명령어로
openclaw models set openai-codex/gpt-5.3-codex
모델별 추천 /think 조합
코드 작업에 최적. /think medium으로도 우수한 코딩 성능. xhigh는 아키텍처 설계에 효과적.
장문 분석에 최적. /think high에서 최고의 글쓰기 품질. 한국어 자연스러움이 뛰어남.
로컬 모델 최고 성능. /think medium이면 충분. API 비용 0원으로 무제한 사용 가능.
/think high·xhigh에서 네트워크 안정성이 더 중요한 이유
/think high 또는 xhigh로 설정하면 응답 생성 시간이 길어집니다. 이 시간 동안 네트워크 연결이 불안정하면 긴 추론 과정 중간에 연결이 끊겨 전체 작업이 실패하고 이미 소비한 추론 토큰은 환불되지 않습니다.
특히 /think xhigh 설정에서 응답 대기 시간이 30초~3분에 이를 때, 한국에서 미국 소재 OpenAI·Anthropic 서버까지 불안정한 직접 연결은 연결 끊김 확률을 높입니다. 안정적인 VPN 경로를 통해 API 서버와 지속 연결을 유지하는 것이 고급 추론 작업에서 필수입니다.
OpenClaw 고급 추론 작업을 위한 VPN 추천 순위
VPN07 — /think xhigh 장시간 추론도 끊김 없이
10년 이상 운영. 1000Mbps 기가급 대역폭과 낮은 지연으로 /think xhigh 같은 장시간 추론 작업 중 연결 끊김 없이 안정적인 AI 에이전트 운영.
🥈 2위 — 일반 VPN A
6.8/10속도 불안정, 장시간 추론 중 간헐적 연결 끊김 보고. AI 에이전트 전용 최적화 없음.
🥉 3위 — 일반 VPN B
6.3/10ping이 높아 /think xhigh 작업 중 타임아웃 발생. 스트리밍 서비스에는 적합하나 AI API에는 부적합.
VPN07 — OpenClaw 고급 추론 완벽 지원
1000Mbps로 /think xhigh 추론도 끊김 없이 완주
10년 이상 안정 운영. /think xhigh로 수 분간 진행되는 복잡한 추론 작업 중에도 VPN07의 1000Mbps 안정 연결이 API 서버와 끊기지 않는 통신을 보장해 비싼 추론 토큰이 낭비되는 것을 방지합니다.
AI 대형 모델 활용 가이드
/think xhigh 없이도 높은 추론 성능을 내는 로컬 LLM을 찾고 있나요? AI 대형 모델 가이드 →