Lobster-Cartoon mit Laptop und Marienplatz

Fünf Leute, vierter Stock über dem Marienplatz, kein Pitch, keine Slides — nur echte Gespräche über KI-Agenten, Security und was wir alle gerade bauen.

Am 4. März 2026 war es soweit: Das erste OpenClaw Meetup München. Flo, Jakob, Mathias, Michael und ich haben uns im PresseClub getroffen — mit Blick über die Stadt und jeder Menge Themen, die einfach nicht enden wollten.

Fünf Teilnehmer beim ersten OpenClaw Meetup
Die erste Runde: 5 OpenClaw-Enthusiasten im PresseClub München

Top Take Aways für alle die nicht dabei sein konnten:

🔒 Security & Isolation — ProxMox als Top-Layer: wenn ein Agent sich nicht so verhält wie er soll, einfach zurückrollen. Snapshot-basierte Sicherheit für lokale Setups.

🧠 Lokale LLMs — Loco-Operator war ein heißes Thema als LLM. Eigene Modelle lokal betreiben, keine Cloud-Abhängigkeit, volle Kontrolle. Wer es mal ausprobieren will bevor es gehostet wird, der kann seinen Bot fragen. Bei mir kam folgende Antwort:

Leider gibt’s keine Online-Demo zum Ausprobieren im Browser. LocoOperator ist ein reines Lokal-Modell — das ist ja der Witz daran (kein Cloud, keine API-Kosten).

Wo du es testen kannst:

1. Am schnellsten — auf unserem Server (langsam aber geht):
→ Sag Bescheid, ich pull es in 2 Minuten per Ollama
2. Auf deinem PC (besser):
• Ollama installieren → ollama run frob/locooperator
• Oder LM Studio (hat ne schöne GUI) → Modell suchen und laden
3. Google Colab (kostenlos mit GPU):
• Das Repo hat Quick-Start Code für Colab
• Dann hast du ne GPU und kannst richtig testen

Mein Vorschlag: Soll ich’s jetzt einfach auf unseren Server pullen? Dauert ~2 Min Download, dann kannst du direkt hier im Chat Fragen stellen und ich leite sie ans lokale Modell weiter. Ist zwar langsam (~20 Sek pro Antwort), aber zum Reinschnuppern reicht’s.


Ich hab es dann über Colab von Google gemacht bzw. von meinem Bot machen lassen. Hat funktioniert und sieht gut aus! Ich installier mir das jetzt auf einem externen Rechner und steuer es über API an – Tipp von Flo – DANKE!

MacBook Air mit OpenClaw Interface
Live-Demo: OpenClaw auf dem MacBook Air

🛠️ Must-Have Tools die angepriesen wurden — OpenRouter und Docker Desktop wurden als unverzichtbar eingestuft. Wer damit noch nicht arbeitet, sollte sich das mal ansehen.

🖥️ Nerve als Alternative UI — die Web-UI von OpenClaw ist gut, aber Nerve als Interface hat auch Fans. ABER: No security advice – trade at your own risk 😉

🛡️ Prompt Injection & Secure Setups — wie schütze ich meinen Agenten vor böswilligen Inputs? Allowlists in Telegram, klare Rollendefinitionen im System-Prompt — das war extrem spannend zu hören vor was jeder so am meisten Sorge hat wenn er mit OpenClaw arbeitet.

Notizbuch mit Architektur-Skizze
Live mitgezeichnet: Vorschlag zur Setup-Architektur mit OC, MCP und Docker

💼 Enterprise Use Case — Secure Setup für Unternehmen mit eigenem LLM-Hosting: kein externes API, alles on-premise, volle DSGVO-Konformität. Genau das, was Firmen brauchen, aber noch niemand schlüssig anbietet. Da kamen schon Ideen auf.

Fazit

Tolle Energie im Raum.  Es war extrem dicht gedrängt und gefühlt hätten wir noch 5h weiterreden können. Aber wir mussten weiter…die Bots warten zuhause.  Nächsten Termine:

  • Freitag, 6. März — Hofbräukeller, Wiener Platz, ab 17:00
  • Freitag, 13. März — Hofbräukeller, Wiener Platz, ab 17:00

Alle willkommen — keine Anmeldung nötig, einfach vorbeikommen.

👉 meetup.go-institut.com