Open WebUI
Open WebUI ist eine moderne, erweiterbare und benutzerfreundliche Self-Hosting-Plattform für KI-Modelle und Large Language Models (LLMs). Sie läuft komplett offline (keine Cloud-Abhängigkeit) und dient als schönes, webbasiertes Frontend für lokale KI-Modelle – vergleichbar mit einer „ChatGPT-ähnlichen Oberfläche“ für deine eigenen Modelle.
Offizielle Website: https://openwebui.com
Source Code (GitHub): https://github.com/open-webui/open-webui
Hauptmerkmale
- Elegante, responsive Chat-Oberfläche (Dark Mode, Multi-Chat, Markdown-Rendering)
- Vollständig offline-fähig – keine Internetverbindung nötig nach Setup
- Unterstützt Ollama (lokale Modelle wie Llama 3, Mistral, Phi-3 usw.)
- Kompatibel mit OpenAI-kompatiblen APIs (z. B. LM Studio, LocalAI, vLLM, Groq, OpenRouter)
- Integrierte RAG (Retrieval-Augmented Generation) Engine – Dokumente hochladen und kontextbasiert chatten
- Multi-User-Support mit Rollen (Admin, User), Authentifizierung (OAuth, LDAP, OpenID)
- Model-Management: Modelle laden, Tags, Parameter (Temperature, Top-P, Max Tokens) anpassen
- Prompt-Templates & System-Prompts speichern und wiederverwenden
- Web-Suche-Integration (DuckDuckGo, SearXNG) für aktuelle Infos
- Funktionsaufrufe (Tool-Calling) mit lokalen oder externen Tools
- Voice-Input & Text-to-Speech (via Browser oder externe TTS)
- Admin-Dashboard für Nutzer, Modelle, Logs und Einstellungen
- PWA-fähig (als App installierbar), Mobile-Optimiert
- Sehr aktiv entwickelt (2026: regelmäßige Releases, neue Features wie Pipelines, Agents)
Typische Einsatzszenarien
- Lokale ChatGPT-Alternative für Privatnutzung (Datenschutz, offline)
- KI-Frontend für Ollama-Modelle in Homelab-Setups (Raspberry Pi, Proxmox LXC, NAS)
- Dokumenten-Chat mit RAG (PDFs, Markdown, TXT hochladen und fragen)
- Team- oder Familien-KI-Plattform mit separaten Nutzerkonten
- Experimentieren mit lokalen LLMs (Llama, Gemma, Mistral, Qwen usw.)
- Integration in Homelab-Dashboards (Homepage.dev) oder als zentrale KI-Schnittstelle
Open WebUI hat sich seit 2024/2025 zu einer der beliebtesten und schönsten Oberflächen für lokale KI-Modelle entwickelt – besonders stark in der Self-Hosting- und Ollama-Community.
Links & Ressourcen
- Offizielle Website → https://openwebui.com
- GitHub Repository → https://github.com/open-webui/open-webui
- Dokumentation → https://docs.openwebui.com
- Demo-Instanz → https://openwebui.com/demo (falls verfügbar)
- Proxmox VE Helper-Scripts → https://community-scripts.github.io/ProxmoxVE/scripts?id=openwebui

No comments to display
No comments to display