Skip to main content

Open WebUI

image.png

Open WebUI ist eine moderne, erweiterbare und benutzerfreundliche Self-Hosting-Plattform für KI-Modelle und Large Language Models (LLMs). Sie läuft komplett offline (keine Cloud-Abhängigkeit) und dient als schönes, webbasiertes Frontend für lokale KI-Modelle – vergleichbar mit einer „ChatGPT-ähnlichen Oberfläche“ für deine eigenen Modelle.

Offizielle Website: https://openwebui.com
Source Code (GitHub): https://github.com/open-webui/open-webui

Hauptmerkmale

  • Elegante, responsive Chat-Oberfläche (Dark Mode, Multi-Chat, Markdown-Rendering)
  • Vollständig offline-fähig – keine Internetverbindung nötig nach Setup
  • Unterstützt Ollama (lokale Modelle wie Llama 3, Mistral, Phi-3 usw.)
  • Kompatibel mit OpenAI-kompatiblen APIs (z. B. LM Studio, LocalAI, vLLM, Groq, OpenRouter)
  • Integrierte RAG (Retrieval-Augmented Generation) Engine – Dokumente hochladen und kontextbasiert chatten
  • Multi-User-Support mit Rollen (Admin, User), Authentifizierung (OAuth, LDAP, OpenID)
  • Model-Management: Modelle laden, Tags, Parameter (Temperature, Top-P, Max Tokens) anpassen
  • Prompt-Templates & System-Prompts speichern und wiederverwenden
  • Web-Suche-Integration (DuckDuckGo, SearXNG) für aktuelle Infos
  • Funktionsaufrufe (Tool-Calling) mit lokalen oder externen Tools
  • Voice-Input & Text-to-Speech (via Browser oder externe TTS)
  • Admin-Dashboard für Nutzer, Modelle, Logs und Einstellungen
  • PWA-fähig (als App installierbar), Mobile-Optimiert
  • Sehr aktiv entwickelt (2026: regelmäßige Releases, neue Features wie Pipelines, Agents)

Typische Einsatzszenarien

  • Lokale ChatGPT-Alternative für Privatnutzung (Datenschutz, offline)
  • KI-Frontend für Ollama-Modelle in Homelab-Setups (Raspberry Pi, Proxmox LXC, NAS)
  • Dokumenten-Chat mit RAG (PDFs, Markdown, TXT hochladen und fragen)
  • Team- oder Familien-KI-Plattform mit separaten Nutzerkonten
  • Experimentieren mit lokalen LLMs (Llama, Gemma, Mistral, Qwen usw.)
  • Integration in Homelab-Dashboards (Homepage.dev) oder als zentrale KI-Schnittstelle

Open WebUI hat sich seit 2024/2025 zu einer der beliebtesten und schönsten Oberflächen für lokale KI-Modelle entwickelt – besonders stark in der Self-Hosting- und Ollama-Community.