OpenClaw 빠른 시작: Docker 를 활용한 설치 (Ollama GPU 또는 Claude + CPU)
Ollama 를 사용하여 로컬에서 OpenClaw 설치하기
OpenClaw 는 Ollama 와 같은 로컬 LLM 런타임 또는 Claude Sonnet 과 같은 클라우드 기반 모델과 함께 실행되도록 설계된 자체 호스팅 AI 어시스턴트입니다.
이 시작 가이드에서는 Docker 를 사용하여 OpenClaw 를 배포하고, GPU 를 사용하는 로컬 모델 또는 CPU 전용 클라우드 모델을 설정하며, AI 어시스턴트가 전체적으로 정상 작동하는지 확인하는 방법을 보여줍니다.
이 가이드를 통해 OpenClaw 의 최소 구성을 수행하여 사용자가 자신의 기기에서 실행되고 응답하는 것을 확인할 수 있습니다.
목표는 간단합니다:
- OpenClaw 실행
- 요청 전송
- 작동 확인
이것은 프로덕션 환경 강화 가이드가 아닙니다.
이것은 성능 튜닝 가이드가 아닙니다.
이것은 실용적인 시작점입니다.
두 가지 옵션이 있습니다:
- A 경로 — 로컬 GPU: Ollama 사용 (GPU 가 있는 경우 권장)
- B 경로 — CPU 전용: Anthropic API 를 통한 Claude Sonnet 4.6 사용
두 경로 모두 핵심 설치 과정은 동일합니다.

OpenClaw 가 처음이거나 시스템 구조에 대한 더 깊은 개요가 필요하시면 OpenClaw 시스템 개요 를 읽어보시기 바랍니다.
시스템 요구 사항 및 환경 설정
OpenClaw 는 외부 서비스에 연결할 수 있는 어시스턴트 스타일의 시스템입니다. 이 빠른 시작을 위해:
- 가능한 경우 테스트 계정을 사용하세요.
- 민감한 프로덕션 시스템 연결은 피하세요.
- Docker 내부에서 실행하세요 (권장).
에이전트 스타일 소프트웨어를 실험할 때 격리는 좋은 기본 설정입니다.
OpenClaw 사전 요구 사항 (Ollama 사용 시 GPU 또는 Claude 사용 시 CPU)
두 경로 모두에 필요한 사항
- Git
- Docker Desktop (또는 Docker + Docker Compose)
- 터미널
A 경로용 (로컬 GPU)
- 호환 가능한 GPU (NVIDIA 또는 AMD 권장) 가 장착된 머신
- 설치된 Ollama
B 경로용 (CPU + 클라우드 모델)
- Anthropic API 키
- Claude Sonnet 4.6 접근 권한
단계 1 — Docker 로 OpenClaw 설치 (복제 및 시작)
OpenClaw 는 Docker Compose 를 사용하여 시작할 수 있습니다. 이렇게 하면 설정이 격리되고 재현 가능하게 유지됩니다.
저장소 복제
git clone https://github.com/openclaw/openclaw.git
cd openclaw
환경 설정 파일 복사
cp .env.example .env
편집기에서 .env 파일을 엽니다. 선택한 모델 경로에 따라 다음 단계에서 이를 구성합니다.
컨테이너 시작
docker compose up -d
모든 것이 올바르게 시작되면 실행 중인 컨테이너를 확인해야 합니다:
docker ps
이 시점에서 OpenClaw 는 실행 중이지만 아직 모델에 연결되지 않았습니다.
단계 2 — LLM 제공자 설정 (Ollama GPU 또는 Claude CPU)
이제 추론 (Inference) 이 어떻게 작동할지 결정합니다.
A 경로 — Ollama 를 사용한 로컬 GPU
GPU 가 있는 경우 이것이 가장 단순하고 자체적으로 완결된 옵션입니다.
Ollama 설치 또는 확인
더 자세한 설치 가이드가 필요하거나 모델 저장 위치를 구성하려면 다음을 참조하세요:
Ollama 가 설치되지 않은 경우:
curl -fsSL https://ollama.com/install.sh | sh
작동 여부를 확인합니다:
ollama pull llama3
ollama run llama3
모델이 응답하면 추론이 작동 중입니다.
OpenClaw 에서 Ollama 사용 설정
.env 파일에서 다음을 설정합니다:
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
컨테이너를 재시작합니다:
docker compose restart
이제 OpenClaw 가 로컬 Ollama 인스턴스로 요청을 라우팅합니다.
16GB GPU 에서 실행할 모델을 선택하거나 벤치마크 비교가 필요하시면 다음을 참조하세요:
부하 하의 동시성 및 CPU 동작을 이해하려면:
B 경로 — Claude Sonnet 4.6 을 사용한 CPU 전용
GPU 가 없는 경우 호스팅된 모델을 사용할 수 있습니다.
API 키 추가
.env 파일에서:
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6
재시작:
docker compose restart
이제 OpenClaw 는 추론에 Claude Sonnet 4.6 을 사용하며, 오케스트레이션은 로컬에서 실행됩니다.
이 설정은 무거운 모델 계산이 클라우드에서 발생하므로 CPU 전용 머신에서 잘 작동합니다.
여기서 Anthropic 모델을 사용하는 경우, 이 Claude 구독 정책 변경 사항 이 OpenClaw 가 Claude 플랜 재사용 대신 API 기반 청구가 필요한 이유를 설명합니다.
단계 3 — 첫 번째 프롬프트로 OpenClaw 테스트
컨테이너가 실행 중이고 모델이 구성된 후 어시스턴트를 테스트할 수 있습니다.
설정 방식에 따라 다음을 통해 테스트할 수 있습니다:
- 웹 인터페이스
- 메신저 통합
- 로컬 API 엔드포인트
기본 API 테스트를 위해:
curl http://localhost:3000/health
정상 상태 응답을 확인해야 합니다.
이제 간단한 프롬프트를 전송합니다:
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Explain what OpenClaw does in simple terms."}'
구조화된 응답을 받으면 시스템이 작동 중입니다.
방금 실행한 작업
이 시점에서 다음과 같이 설정이 완료되었습니다:
- 실행 중인 OpenClaw 인스턴스
- 설정된 LLM 제공자 (로컬 또는 클라우드)
- 작동하는 요청-응답 루프
GPU 경로를 선택했다면 추론이 Ollama 를 통해 로컬에서 발생합니다.
CPU 경로를 선택했다면 추론은 Claude Sonnet 4.6 을 통해 발생하며, 오케스트레이션, 라우팅, 메모리 처리는 로컬 Docker 컨테이너 내부에서 실행됩니다.
표면적인 상호작용은 간단해 보일 수 있습니다. 그러나 그 아래에서는 여러 구성 요소가 요청을 처리하기 위해 조정합니다.
OpenClaw 설치 및 런타임 문제 해결
모델 응답 없음
.env구성을 확인하세요.- 컨테이너 로그를 확인하세요:
docker compose logs
Ollama 접근 불가
- Ollama 가 실행 중인지 확인하세요:
ollama list
- 기본 URL 이 환경과 일치하는지 확인하세요.
유효하지 않은 API 키
ANTHROPIC_API_KEY를 다시 확인하세요..env업데이트 후 컨테이너를 재시작하세요.
GPU 사용 안됨
- GPU 드라이버가 설치되었는지 확인하세요.
- Docker 가 GPU 접근 권한을 활성화했는지 확인하세요.
OpenClaw 설치 후 다음 단계
이제 작동하는 OpenClaw 인스턴스가 있습니다.
이제 다음과 같이 진행할 수 있습니다:
- 메신저 플랫폼 연결
- 문서 검색 활성화
- 라우팅 전략 실험
- 관측 가능성 및 메트릭 추가
- 성능 및 비용 동작 튜닝
시스템이 실행되면 더 깊은 아키텍처 논의가 더 의미를 가집니다.
작동하게 만드는 것이 첫 번째 단계입니다.
실행된 후 자연스러운 다음 글들은 다음과 같습니다:
- OpenClaw 플러그인 가이드 — 메모리, 도구, 채널, 관측 가능성을 위해 어떤 플러그인을 설치해야 하는지, 그리고 생명주기가 어떻게 작동하는지
- OpenClaw 스킬 가이드 — ClawHub 에서 설치할 가치가 있는 스킬은 무엇이며, 에이전트 역할별로 안전하게 제한하는 방법
- OpenClaw 프로덕션 설정 패턴 — 개발자, 자동화 팀, 연구원, 지원 운영자 등 실제 사용자 유형별로 플러그인과 스킬이 어떻게 결합되는지
더 많은 AI 시스템 사례 연구를 보려면 AI 시스템 섹션을 참조하세요.