Hopp til hovedinnhold
Tilbake til blogg
AI & Teknologi

OpenClaw: AI-agenten som faktisk gjør ting

OpenClaw gikk fra helgeprosjekt til 100.000 GitHub-stjerner på to dager. Hva det er, hvorfor det betyr noe for lokal AI og systemdesign — og hva du bør se opp for.

OpenClaw gikk fra helgeprosjekt til 100.000 GitHub-stjerner på to dager. Hva det er, hvorfor det betyr noe for lokal AI og systemdesign — og hva du bør se opp for.

6 min lesetid
OpenClawAI-agenterLokal AIOpen sourceAutomasjon
Arbeidsflater som omtales i artikkelen

OpenClaw gikk fra helgeprosjekt til 100.000 GitHub-stjerner på to dager. Hva det er, hvorfor det betyr noe for lokal AI og systemdesign — og hva du bør se opp for.

I slutten av januar 2026 fikk et open-source-prosjekt over 100.000 GitHub-stjerner på rundt to dager — den raskeste repoen som har nådd den milepælen i GitHub-historien. Navnet endret seg: Clawdbot, deretter Moltbot, så OpenClaw. Men idéen var den samme: en AI-assistent som ikke bare svarer på spørsmål. Den gjør ting. Den kjører på din maskin, kobles til filer, shell, nettleser og dusinvis av tjenester, og den kan handle på egen hånd takket være en heartbeat som sjekker for oppgaver hvert 30. minutt.

Her er hvorfor OpenClaw er verdt å følge med på — og hva du bør tenke på før du kjører den i produksjon.

Fra helgeprosjekt til viral

OpenClaw ble laget i november 2025 av Peter Steinberger, gründer av PSPDFKit, som et lite eksperiment kalt Clawdbot. Han ga det ut som åpen kilde og forventet ikke mye. Så eksploderte det. Anthropic reiste varemerkespørsmål om navnet; det ble rebrandet til Moltbot, deretter stemte fellesskapet på OpenClaw. I februar 2026 hadde det 182.000+ stjerner, 29.600+ forker, og hadde fått 2 millioner besøkende på nettsiden på én uke. Alibaba og Tencent adopterte det; noen koreanske tech-selskaper forbød det. Det er kalt et "sikkerhetskaos" og et "sikkerhetsmareritt" — og samtidig ett av de viktigste åpne agent-prosjektene hittil.

Den spenningen er nettopp hvorfor det er verdt å forstå det.

Hva OpenClaw faktisk gjør

I motsetning til en chatbot som venter på prompten din, er OpenClaw en autonom agent. Du kjører den lokalt (Node.js, typisk localhost). Den kobler store språkmodeller — Claude, GPT-4, Gemini eller helt lokale modeller via Ollama — til systemet ditt. Den kan lese og skrive filer, kjøre shell-kommandoer, styre en ekte nettleser, sende e-post, administrere kalendere, snakke med GitHub og operere via WhatsApp, Telegram, Slack, Discord, Signal, iMessage, Teams og mer. Minne lagres som lokale Markdown-filer. Ingen sky-låsing. Dataene dine blir på din maskin med mindre du eksplisitt sender dem et annet sted.

Heartbeat er det som skiller den: hvert 30. minutt (eller hver time med noen auth-oppsett) sjekker den etter ventende oppgaver og kan handle uten at du taster noe. Det er skiftet fra "AI som forklarer hvordan" til "AI som gjør."

Arkitektur i et nøtteskall

En sentral Gateway (Node.js-daemon, port 18789 som standard) håndterer meldinger fra alle kanalene dine, administrerer sesjoner og kjører forespørsler én om gangen per sesjon for å unngå race conditions. Agent Runtime laster sesjonshistorikk og langtidsminne fra disk, velger kun de ferdighetene som er relevante for forespørselen, og kjører den klassiske løkken: send kontekst til LLM, få tilbake enten tekst eller et verktøykall, utfør verktøyet, send resultatet tilbake, gjenta til modellen har et endelig svar. Skills er utvidelser — innebygde for nettleser, filer, shell, pluss 100+ fellesskapsskills på ClawHub (Todoist, GitHub, Gmail, Obsidian, Home Assistant osv.). Skills er dokumentert i SKILL.md og kan følge samme AgentSkills-spesifikasjon som Cursor, VS Code og GitHub Copilot, så økosystemet er større enn bare ClawHub.

Hvorfor det betyr noe for systemdesign

Hvis du bygger produkter eller plattformer som skal bruke AI, er OpenClaw en nyttig referanse. Det viser hvordan "local-first, modellagnostisk, meldingsorientert" ser ut i praksis: én gateway, tydelig separasjon mellom kanaler og agent-løkken, og minne som vanlige filer. Sikkerhetshendelsene — ondsinnede ClawHub-skills, en kritisk RCE (CVE-2026-25253, raskt patchet), og fjerningen av auth: none — minner på at agentsystemer med bred systemtilgang trenger strenge standarder, tillatelseslister og nøye vurdering av skills. Steinberger har sagt at han "shipær kode han ikke leser," noe som forklarer både farten og sikkerhetsutfordringene. For dine egne systemer er læringen: design for minst mulig privilegium og anta at skills og plugins er upålitelige inntil det motsatte er bevist.

Hvis du kartlegger hvor agenter passer inn i arkitekturen din, kan AI System Architecture Advisor hjelpe med å skissere stack, komponenter og guardrails. For strategi og verktøyvalg gir Decision Engine en strukturert vurdering. Når du er klar til å gjøre det om til en konkret plan, book en strategisamtale.

Neste steg

Trenger du en second opinion på ditt eget system?

Bruk artikkelen som filter, og gå deretter videre til en reell gjennomgang av produktretning, arkitektur og AI-fit.