Guide holen
Setup-Guide · MiroFish Setup Guide · April 2026

KI-Agenten simulieren die Öffentlichkeit.

Du lädst ein Dokument hoch — hunderte Agenten diskutieren darüber.

MiroFish simuliert wie die Öffentlichkeit auf deine Inhalte reagiert. Pressemitteilung, Blogpost, Produktankündigung — komplett lokal, keine Cloud-APIs, keine Daten die rausgehen. Trag dich ein und ich schick dir den Guide direkt in die Inbox.

Kostenlos · Kein Spam · DSGVO

Fünf Schritte zu deiner Agenten-Simulation.

Mit Docker brauchst du nur vier Befehle und alles läuft. MiroFish generiert dann hunderte KI-Agenten mit eigenen Persönlichkeiten, die auf einer simulierten Social-Media-Plattform diskutieren.

01

Voraussetzungen

Docker + Hardware-Check

Du brauchst Docker und genügend Hardware. CPU-only geht auch, ist aber deutlich langsamer.

Software:
- Docker + Docker Compose (docker.com)
- Git

Hardware (Minimum):
- 16 GB RAM
- 10 GB VRAM (GPU) für das 14b Modell
- 20 GB Festplatte

Hardware (Empfohlen):
- 32 GB RAM
- 24 GB VRAM für das 32b Modell
- 50 GB Festplatte
02

Repository klonen und starten

Vier Befehle im Terminal

Vier Befehle im Terminal — danach läuft MiroFish auf http://localhost:3000.

git clone https://github.com/nikmcfly/MiroFish-Offline.git
cd MiroFish-Offline
cp .env.example .env
docker compose up -d
Danach erreichbar unter http://localhost:3000
03

KI-Modelle herunterladen

Text-Modell + Embedding-Modell

MiroFish braucht zwei Modelle — eins für Text, eins für Embeddings.

# Standard (32b, braucht 24 GB VRAM):
docker exec mirofish-ollama ollama pull qwen2.5:32b
docker exec mirofish-ollama ollama pull nomic-embed-text

# Leichtere Alternative (14b, ab 10 GB VRAM):
docker exec mirofish-ollama ollama pull qwen2.5:14b
docker exec mirofish-ollama ollama pull nomic-embed-text
Bei der leichteren Version in der .env Datei LLM_MODEL_NAME=qwen2.5:14b setzen
04

Öffnen und Dokument hochladen

Pressemitteilung, Blogpost, Produktankündigung

MiroFish läuft jetzt lokal in deinem Browser.

1. Öffne http://localhost:3000
2. Lade ein Dokument hoch (Pressemitteilung,
   Blogpost, Produktankündigung, etc.)
3. MiroFish extrahiert automatisch Themen
   und Zusammenhänge (Knowledge Graph)
05

Simulation starten

100+ Agenten · Diskussion · Report

MiroFish generiert jetzt hunderte Agenten mit eigenen Persönlichkeiten.

1. Klick auf "Generate Environment"
   → 100+ Agenten werden erstellt
2. Klick auf "Run Simulation"
   → Agenten posten, antworten, diskutieren
3. Beobachte wie sich Meinungen verändern
4. Am Ende: Report generieren lassen
   → Zusammenfassung + Analyse
Du kannst auch einzelne Agenten interviewen und nach ihren Beweggründen fragen
Setup-Guide · .env-Config · Use-Cases

Den ganzen MiroFish-Guide als fertige PDF, plus Zugang zu allen weiteren Guides, die ich bisher erstellt habe. .env-Konfiguration zum Reinkopieren inklusive.

Pro-Tipp · .env Konfiguration

Die komplette .env zum Reinkopieren.

Standard-Konfiguration mit Ollama lokal. Du kannst auch andere OpenAI-kompatible APIs nutzen — einfach LLM_BASE_URL und LLM_API_KEY anpassen.

# Konfiguration (.env) # KI-Modell (lokal über Ollama) LLM_API_KEY=ollama LLM_BASE_URL=http://localhost:11434/v1 LLM_MODEL_NAME=qwen2.5:32b # Neo4j (Wissensgraph) NEO4J_URI=bolt://localhost:7687 NEO4J_USER=neo4j NEO4J_PASSWORD=mirofish # Embeddings EMBEDDING_MODEL=nomic-embed-text EMBEDDING_BASE_URL=http://localhost:11434 Du kannst auch andere OpenAI-kompatible APIs nutzen — einfach LLM_BASE_URL und LLM_API_KEY anpassen.
Guide-Zugang

Hol dir den MiroFish-Guide in die Inbox.

Den ganzen Setup-Guide als PDF, plus Zugang zu allen weiteren Guides, die ich bisher erstellt habe — Master-Prompts, Setup-Anleitungen, Workflows. Trag dich ein und du bekommst alles.