Open WebUI Open WebUI ist eine moderne, erweiterbare und benutzerfreundliche Self-Hosting-Plattform für KI-Modelle und Large Language Models (LLMs). Sie läuft komplett offline (keine Cloud-Abhängigkeit) und dient als schönes, webbasiertes Frontend für lokale KI-Modelle – vergleichbar mit einer „ChatGPT-ähnlichen Oberfläche“ für deine eigenen Modelle. Offizielle Website: https://openwebui.com Source Code (GitHub): https://github.com/open-webui/open-webui Hauptmerkmale Elegante, responsive Chat-Oberfläche (Dark Mode, Multi-Chat, Markdown-Rendering) Vollständig offline-fähig – keine Internetverbindung nötig nach Setup Unterstützt Ollama (lokale Modelle wie Llama 3, Mistral, Phi-3 usw.) Kompatibel mit OpenAI-kompatiblen APIs (z. B. LM Studio, LocalAI, vLLM, Groq, OpenRouter) Integrierte RAG (Retrieval-Augmented Generation) Engine – Dokumente hochladen und kontextbasiert chatten Multi-User-Support mit Rollen (Admin, User), Authentifizierung (OAuth, LDAP, OpenID) Model-Management : Modelle laden, Tags, Parameter (Temperature, Top-P, Max Tokens) anpassen Prompt-Templates & System-Prompts speichern und wiederverwenden Web-Suche-Integration (DuckDuckGo, SearXNG) für aktuelle Infos Funktionsaufrufe (Tool-Calling) mit lokalen oder externen Tools Voice-Input & Text-to-Speech (via Browser oder externe TTS) Admin-Dashboard für Nutzer, Modelle, Logs und Einstellungen PWA-fähig (als App installierbar), Mobile-Optimiert Sehr aktiv entwickelt (2026: regelmäßige Releases, neue Features wie Pipelines, Agents) Typische Einsatzszenarien Lokale ChatGPT-Alternative für Privatnutzung (Datenschutz, offline) KI-Frontend für Ollama-Modelle in Homelab-Setups (Raspberry Pi, Proxmox LXC, NAS) Dokumenten-Chat mit RAG (PDFs, Markdown, TXT hochladen und fragen) Team- oder Familien-KI-Plattform mit separaten Nutzerkonten Experimentieren mit lokalen LLMs (Llama, Gemma, Mistral, Qwen usw.) Integration in Homelab-Dashboards (Homepage.dev) oder als zentrale KI-Schnittstelle Open WebUI hat sich seit 2024/2025 zu einer der beliebtesten und schönsten Oberflächen für lokale KI-Modelle entwickelt – besonders stark in der Self-Hosting- und Ollama-Community. Links & Ressourcen Offizielle Website → https://openwebui.com GitHub Repository → https://github.com/open-webui/open-webui Dokumentation → https://docs.openwebui.com Demo-Instanz → https://openwebui.com/demo (falls verfügbar) Proxmox VE Helper-Scripts → https://community-scripts.github.io/ProxmoxVE/scripts?id=openwebui