API 없이 로컬 LLM에서 openClaw (Moltbot/ Clawdbot )를 실행하는 방법

CometAPI
AnnaFeb 1, 2026
API 없이 로컬 LLM에서 openClaw (Moltbot/ Clawdbot )를 실행하는 방법

OpenClaw(이전 명칭 Clawdbot, 잠시 Moltbot)는 내가 본 거의 어떤 에이전트 프로젝트보다 더 빠르게 폭발적으로 성장했습니다.

3주도 채 안 되어 GitHub 스타 100,000개를 넘겼습니다. 사람들은 이를 *“24/7 AI 인턴”*이라고 부르는데, 솔직히 그 묘사가 과장이 아닙니다. 메시지를 읽고, 셸 명령을 실행하고, 파일을 관리하며, 당신이 일상을 보내는 동안 조용히 백그라운드에서 살아갑니다.

하지만 초기의 열기가 가라앉은 뒤, 아주 현실적인 질문이 곳곳에서 나타나기 시작했습니다:

“멋지긴 한데… API에 돈을 쓰지 않고 어떻게 실행하나요?”

바로 그 질문 때문에 이 가이드를 작성했습니다.

OpenClaw(이전 Clawdbot)가 화제가 된 이유는?

로컬 실행으로의 기술적 전환을 이해하려면, 먼저 OpenClaw가 무엇인지 알아야 합니다. 핵심적으로 openClaw(Moltbot / Clawdbot)는 “대화 우선” 자율 에이전트입니다. 브라우저 탭에서 프롬프트를 기다리는 전통적인 챗봇과 달리, OpenClaw는 당신의 머신에서 백그라운드 데몬으로 실행됩니다. WhatsApp, Telegram, Discord, Signal 같은 메시징 플랫폼과 직접 통합되어, 사실상 당신의 채팅 앱을 삶의 커맨드 라인으로 바꿉니다.

Clawdbot에서 OpenClaw로의 진화

이 프로젝트의 역사는 격동적이면서도 매혹적입니다.

Clawdbot(2025년 말): Peter Steinberger가 제작했으며, 텍스트만 출력하는 대신 작업을 실제로 실행하도록 설계된 Anthropic의 Claude용 래퍼로 출시되었습니다. “Claude with hands(손을 가진 Claude)”로 불렸습니다.

Moltbot(2026년 1월): Anthropic의 “Clawd” 상표 관련 분쟁 이후, 프로젝트는 “Moltbot”으로 리브랜딩했고, 껍질 탈피를 연상시키는 바닷가재 마스코트 “Molty”를 도입했습니다.

OpenClaw(2026년 1월 30일): 오픈 소스 성격을 강조하고 특정 기업 정체성으로부터 더 멀어지며 “Claw” 유산을 유지하기 위해 커뮤니티가 OpenClaw로 합의했습니다.

OpenClaw를 돋보이게 하는 것은 권한 시스템입니다. 이메일을 읽고, 캘린더를 확인하고, 셸 명령을 실행하며, 로컬에 저장된 Markdown 파일로 자체 메모리를 관리할 수 있습니다. 그러나 기본 설정은 이 모든 컨텍스트를 클라우드 API(주로 Anthropic 또는 OpenAI)로 보내는 것에 의존합니다. 이로 인해 두 가지 중대한 문제가 발생합니다: 비용과 프라이버시.

왜 로컬 LLM으로 전환해야 할까요?

기본 “즉시 사용” 경험은 Claude 3.5 Sonnet 또는 Opus로 구동됩니다. 이 모델들은 매우 똑똑하지만 토큰 단위로 가격이 매겨집니다. 24/7로 동작하는 자율 에이전트—이메일 확인, 서버 로그 모니터링, 채팅 요약—는 하루에 수백만 토큰을 생성할 수 있습니다.

자율성의 비용

자율 에이전트는 채팅 세션처럼 행동하지 않습니다. 루프를 돕니다. 컨텍스트를 다시 읽습니다. 로그를 요약합니다. 받은편지함을 반복해서 확인합니다.

사용자들의 보고 중에는 다음과 같은 사례도 있었습니다:

“Obsidian 볼트를 재구성하도록 Clawdbot을 밤새 켜놨더니 아침에 $40 청구가 올라왔습니다.”

그건 오사용이 아닙니다 — 자율 에이전트의 작동 방식이 그렇습니다.

로컬 모델을 사용하면 한계 비용이 0(전기료 제외)로 떨어집니다. “이걸 계속 돌려도 될까?”가 아니라 “또 무엇을 자동화할 수 있을까?”로 사고가 바뀝니다.

프라이버시는 부가 혜택이 아니라 — 핵심입니다

openClaw(Moltbot / Clawdbot)는 다음을 읽을 수 있습니다:

  • 이메일
  • 채팅 기록
  • 소스 코드
  • 개인 문서

OpenClaw는 시스템에 깊은 접근 권한을 갖도록 설계되었습니다. 개인 메시지와 파일 시스템을 읽습니다. API를 사용할 때, 봇이 읽는 모든 파일은 처리를 위해 타사 서버로 업로드됩니다. 로컬 LLM을 사용하면 데이터가 로컬 네트워크를 절대 벗어나지 않습니다. 금융 문서, 비공개 채팅, 코드베이스가 빅테크로부터 에어갭 상태로 유지됩니다.

Ollama로 OpenClaw 실행하기(내 기본 추천)

터미널에 익숙하다면, 오늘날 로컬 LLM을 실행하는 가장 쉬운 방법은 Ollama입니다.

openClaw(Moltbot / Clawdbot)는 OpenAI 호환 API를 사용합니다. Ollama는 기본적으로 이를 노출합니다. 그게 전부입니다.

최소 시스템 및 소프트웨어 체크리스트

  • 머신: 최신 OS(Linux/macOS/Windows + WSL2). 대형 모델에는 로컬 GPU 가속 권장; 소형 모델이나 경량 작업에는 CPU만으로도 동작.
  • Node.js ≥ 22(OpenClaw의 CLI와 Gateway가 Node를 기대).
  • Ollama(또는 다른 로컬 LLM 런타임)를 로컬에 설치(로컬 모델을 실행할 계획이라면). Ollama는 기본적으로 OpenAI 호환 로컬 API를 노출합니다(일반적으로 http://localhost:11434).
  • 프록시를 사용하는 경우 Lynkr 설치(npm 또는 리포지토리 클론). Lynkr는 OpenClaw에 Anthropic/OpenAI 유사 엔드포인트를 제시하면서 로컬 모델로 라우팅할 수 있습니다.

1단계: OpenClaw 설치(빠른 명령)

OpenClaw는 npm/pnpm으로의 설치를 권장합니다. 다음을 실행하세요:

# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest

# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon

온보딩 마법사는 사용자 서비스 데몬(systemd/launchd)을 설치하여 Gateway가 백그라운드에서 계속 실행되도록 합니다. 온보딩 후 디버깅을 위해 수동으로 Gateway를 실행할 수 있습니다:

openclaw gateway --port 18789 --verbose

2단계: Ollama 설치 및 모델 가져오기

Ollama는 설치와 실행이 간단합니다. macOS/Linux에서는:

# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh

# pull a recommended assistant model (example)
ollama pull kimi-k2.5

# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models

Ollama는 많은 OpenAI 스타일 클라이언트와 호환되는 API를 노출합니다; OpenClaw의 프로바이더 통합은 Ollama를 지원하며, 설정을 재정의하지 않는 한 로컬 Ollama 인스턴스를 자동으로 감지합니다.

3단계: 최소 OpenClaw 모델 구성

호환성 레이어(Lynkr) 배포 또는 OpenClaw를 로컬 엔드포인트로 지정

openClaw(Moltbot / Clawdbot)는 역사적으로 특정 API 형태(예: Anthropic 스타일 엔드포인트)를 사용해 왔기 때문에, 가장 쉬운 경로는 OpenClaw 호출을 로컬 서버의 API로 변환하는 작은 프록시를 실행하는 것입니다.

  • Lynkr: Lynkr를 설치하고 OpenClaw가 기대하는 포트에서 리슨하도록 구성한 뒤, Ollama/text-generation-webui 인스턴스로 포워딩하도록 설정하세요. 커뮤니티 튜토리얼에는 단계별 파일과 샘플 config.json 항목이 있습니다. Lynkr가 실행 중이면 OpenClaw는 원래 프로바이더로 구성된 상태를 유지하면서 실제로는 로컬 모델과 통신합니다.

OpenClaw의 설정을 직접 변경하고 싶다면, .openclaw 설정에서 모델 백엔드 URL을 로컬 서버 엔드포인트로 지정하세요:

openClaw(Moltbot / Clawdbot)는 설정을 ~/.openclaw/openclaw.json에 저장합니다. 로컬 모델을 우선하도록 하는 최소 파일 예시는 다음과 같습니다:

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (local)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

models.providers.ollama 블록을 생략해도, 가능한 경우 openClaw(Moltbot / Clawdbot)가 로컬 Ollama 인스턴스를 자주 자동 감지합니다. 파일을 직접 편집하지 않고 openclaw models listopenclaw models set을 사용해 대화형으로 모델 설정을 관리할 수 있습니다.

4단계: OpenClaw 시작 및 메시지 테스트

Ollama가 실행 중이고 Gateway가 활성화된 상태에서:

# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose

# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low

Gateway와 모델이 올바르게 구성되었다면, 어시스턴트의 응답이 표시되고 메시지가 로컬 Ollama 모델을 통해 라우팅됩니다.

프록시로 OpenClaw 수정 없이 시도할 수 있나요?

가능합니다 — 바로 Lynkr 같은 프록시 도구가 하는 일입니다. openClaw(Moltbot / Clawdbot)에 Anthropic/OpenAI 스타일 엔드포인트를 제시하면서 OpenClaw가 기대하는 포트에서 리슨하고, 콘텐츠를 로컬 Ollama나 text-generation-webui 인스턴스로 포워딩합니다. 이는 API 키 없음, 클라우드 과금 없음, 로컬 모델 실행을 의미하며, OpenClaw 내부를 변경하지 않고도 로컬 제어를 제공합니다.

아키텍처 개요(무엇이 무엇과 통신하는가)

  • OpenClaw(에이전트/앱) — 핵심 어시스턴트로, 모델 호출을 수행하고 도구 및 메시지 통합을 오케스트레이션합니다.
  • LLM 프록시(예: Lynkr) — OpenClaw의 API 스타일 요청을 수신하고 로컬 모델 서버(또는 클라우드 폴백)로 포워딩합니다. 프록시는 비용 절감을 위해 캐싱, 토큰 트리밍, 메모리 압축을 구현할 수도 있습니다.
  • 로컬 LLM 서버(예: Ollama, 독립 ggml 런타임, Llama.cpp, 로컬 컨테이너화된 모델) — 머신에서 모델 추론을 제공합니다. Ollama는 손쉬운 로컬 서버와 모델 패키징 워크플로를 제공하기 때문에 널리 쓰이며, 다른 런타임도 가능합니다.
  • 선택적 클라우드 폴백 — 프록시는 필요 시 복잡한 요청을 클라우드 모델로 라우팅할 수 있습니다(하이브리드 모드).

왜 openClaw를 직접 패칭하지 않고 프록시를 쓰나요?

프라이버시 & TCO: 로컬 추론은 데이터를 머신 내에 유지하고 API 비용을 피합니다.

호환성: openClaw(Moltbot / Clawdbot)는 특정 API 표면(Anthropic/“Copilot” 스타일)을 기대합니다. 프록시는 그 표면을 유지하여 OpenClaw 변경을 최소화합니다.

안전 & 유연성: 프록시는 요청 라우팅 규칙(로컬 우선, 클라우드 폴백), 레이트 리미팅, 요청 절단, 기타 안전장치를 구현할 수 있습니다.

예시: Lynkr를 로컬 Ollama로 라우팅하도록 구성

  1. Lynkr 설치:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. .env 생성(예시):
cp .env.example .env

.env를 다음과 같이 편집:

# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. Lynkr 시작:
# if installed globally
lynkr

# if cloned
npm start

Lynkr는 기본적으로 로컬 프록시(예: http://localhost:8081)와 OpenAI/Anthropic 호환 /v1 엔드포인트를 공지하며, 이를 OpenClaw가 참조할 수 있습니다. 그런 다음 OpenClaw의 모델 프로바이더를 Lynkr의 base URL로 구성하세요(다음 스니펫 참조).

OpenClaw를 Lynkr 엔드포인트로 지정

~/.openclaw/openclaw.json을 편집하거나 CLI로 프로바이더 base URL을 설정하세요:

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

이제 openClaw(Moltbot / Clawdbot)는 http://localhost:8081/v1(Lynkr)를 호출하고, Lynkr가 이를 로컬 ollama://kimi-k2.5로 라우팅합니다. 머신을 벗어나지 않는 외부 프로바이더의 매끄러운 경험을 얻게 됩니다.

모델을 GUI로 관리하거나 Hugging Face의 특정 양자화 모델(GGUF 포맷)을 사용하고 싶다면, LM Studio가 선호되는 선택입니다.

자율 에이전트를 로컬로 실행하는 것이 안전한가요?

아마 가장 중요한 질문입니다. openClaw(Moltbot / Clawdbot)를 실행하는 것은 본질적으로 AI에 당신의 컴퓨터에 대한 셸 접근을 부여하는 것입니다.

“Sudo” 문제

클라우드 기반 Claude에게 “내 문서의 모든 파일을 삭제해”라고 요청하면, 안전 필터 때문에 거부할 수 있습니다. 로컬의 검열되지 않은 Llama 3 모델에는 그런 억제가 없습니다. openClaw(Moltbot / Clawdbot)가 명령을 오해하면, 이론적으로 파괴적인 명령을 실행할 수 있습니다.

보안 모범 사례

Docker에서 실행: 위험을 충분히 이해하지 못했다면 openClaw(Moltbot / Clawdbot)를 호스트 머신의 “베어 메탈”에서 직접 실행하지 마세요. 환경을 샌드박싱하는 공식 Docker 이미지를 사용하세요.

아래 예시는 세 가지 서비스를 보여주는 최소 docker-compose.yml입니다: Ollama(로컬 모델 런타임), Lynkr(프록시), OpenClaw Gateway(컨테이너에서 CLI 실행). 참고: GPU 접근을 위해 볼륨과 디바이스 패스스루를 적절히 조정하세요.

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

이는 예시적인 스택이며, 프로덕션 배포에서는 적절한 네트워크 격리, 리소스 제한, GPU 디바이스 매핑을 추가해야 합니다.

일반적인 문제 해결 단계 및 한계

openClaw(Moltbot / Clawdbot)가 Ollama를 인식하지 못할 때

  • Ollama가 실행 중이며 base URL이 도달 가능한지 확인(http://127.0.0.1:11434/v1).
  • openclaw models listopenclaw doctor로 구성 문제를 확인하세요.

Lynkr 라우팅이 실패할 때

  • Lynkr가 리슨 중인지 확인(일반적으로 http://localhost:8081).
  • .env에서 OLLAMA_ENDPOINTMODEL_PROVIDER가 올바른지 확인.
  • Lynkr가 openClaw(Moltbot / Clawdbot)가 호출하는 /v1 경로를 매핑하는지 검증 — 일부 프로바이더 구현은 약간 다른 경로를 기대하므로, 필요 시 base path를 조정하세요.

모델 역량 격차

로컬 모델은 다양합니다: 어떤 모델은 코딩에 강하고, 어떤 모델은 대화에 강합니다. 하이브리드 전략(로컬 우선, 클라우드 폴백)이 도움이 됩니다. 일상적 작업은 로컬로 라우팅하고, 복잡한 추론은 비용 절감을 위해 캐싱을 곁들여 클라우드 모델로 승격하세요. Lynkr와 유사 프록시는 바로 이러한 로직을 구현합니다.

결론

OpenClaw의 설계와 활발한 생태계 덕분에 오늘날 로컬, API 없는 배포가 실용적입니다. 로컬 호스팅을 위한 Ollama, API 변환을 위한 Lynkr, 그리고 견고한 커뮤니티 문서 덕분에 데스크톱 GPU부터 핸드헬드 장치까지, 제3자 LLM 프로바이더로 데이터를 보내지 않고도 당신이 제어하는 머신에서 강력한 에이전트를 실행할 수 있습니다.

다만, 장단을 저울질한 끝에 필요한 장비 없이도 API를 통해 openClaw(Moltbot / Clawdbot)를 사용하고 싶다면, CometAPI를 추천합니다. Anthropic과 OpenAI 엔드포인트를 제공하며, 종종 공식 가격 대비 할인을 제공합니다 — 일반적으로 20% 정도 저렴합니다.

개발자는 CometAPI를 통해 Claude Sonnet/Opus 4.5GPT-5.2에 접근할 수 있으며, 최신 모델 목록은 기사 게시 시점 기준입니다. 시작하려면 Playground에서 모델 역량을 탐색하고 자세한 안내는 API 가이드를 참고하세요. 접근하기 전에 CometAPI에 로그인하고 API 키를 발급받으세요. CometAPI는 통합을 돕기 위해 공식 가격보다 훨씬 낮은 가격을 제공합니다.

Ready to Go?→ 오늘 바로 Gemini 3 가입하기

더 많은 팁, 가이드, AI 소식을 알고 싶다면 우리의 VK, X 그리고 Discord를 팔로우하세요!

더 보기

하나의 API로 500개 이상의 모델

최대 20% 할인