Ollama Memory Setup
name: ollama-memory-setup
by brasco05 · published 2026-04-01
$ claw add gh:brasco05/brasco05-ollama-memory-setup---
name: ollama-memory-setup
description: "Sets up local semantic memory search for OpenClaw using Ollama + nomic-embed-text. Use when: (1) memory_search returns 'node-llama-cpp is missing' or 'Local embeddings unavailable' error, (2) user wants local/private embeddings without external API keys (OpenAI, Gemini, Voyage), (3) setting up memory search for the first time on macOS or Linux, (4) node-llama-cpp fails to install or build. Fixes the common node-llama-cpp installation failure by routing through Ollama's OpenAI-compatible embedding API instead of a local binary."
---
# Ollama Memory Setup
Enables semantic memory search in OpenClaw using Ollama locally — no API keys, no cloud, fully private.
Wann verwenden?
Nutze diesen Skill wenn `memory_search` folgende Fehler wirft:
Oder wenn du Embeddings lokal halten willst ohne externe APIs (OpenAI, Gemini, Voyage).
Verwendung
Automatisch (empfohlen)
# Setup-Script ausführen
bash ~/.openclaw/workspace/skills/ollama-memory-setup/scripts/setup.sh
# OpenClaw neu starten
openclaw gateway restartManuell (Schritt für Schritt)
# 1. Ollama installieren
brew install ollama # macOS
curl -fsSL https://ollama.com/install.sh | sh # Linux
# 2. Ollama starten (macOS: als Service, startet automatisch)
brew services start ollama
# 3. Embedding-Modell laden (~270MB, einmalig)
ollama pull nomic-embed-text
# 4. OpenClaw konfigurieren
openclaw config set agents.defaults.memorySearch.provider ollama
openclaw config set agents.defaults.memorySearch.model nomic-embed-text
openclaw config set agents.defaults.memorySearch.remote.baseUrl http://localhost:11434
openclaw config set agents.defaults.memorySearch.enabled true
# 5. Neu starten
openclaw gateway restartAufstellen
Keine API-Keys nötig. Voraussetzungen:
Verifizieren
Nach dem Neustart in einer frischen Session testen:
memory_search("test")Erwartete Antwort enthält `"provider": "ollama"` — nicht `disabled: true`.
Warum nomic-embed-text?
`nomic-embed-text` ist ein spezialisiertes Embedding-Modell (nicht für Chat):
Alternativer Modellname für ältere Ollama-Versionen: `nomic-embed-text:latest`
Fehlersuche
Siehe `references/troubleshooting.md` für häufige Probleme wie:
More tools from the same signal band
Order food/drinks (点餐) on an Android device paired as an OpenClaw node. Uses in-app menu and cart; add goods, view cart, submit order (demo, no real payment).
Sign plugins, rotate agent credentials without losing identity, and publicly attest to plugin behavior with verifiable claims and authenticated transfers.
The philosophical layer for AI agents. Maps behavior to Spinoza's 48 affects, calculates persistence scores, and generates geometric self-reports. Give your...