Wir betreuen und installieren bei ennoia einige Dutzend Open WebUI-Installationen bei Kunden – von kleinen Teams bis zu größeren Organisationen. Das bedeutet: Wir lernen Open WebUI sehr gut kennen.
Nicht nur die Oberfläche, sondern auch das Verhalten der darunter liegenden Modelle und APIs. Und manchmal stoßen wir dabei auf Dinge, die man nicht sofort auf dem Radar hat – zum Beispiel bei einem neuen Modell-Release.
Die Überraschung mit GPT-5
Als GPT-5 erschien, haben wir – wie wahrscheinlich viele andere auch – zunächst die Dokumentation überflogen. Was dabei leicht untergeht:
GPT-5 formatiert seine Antworten in der API standardmäßig nicht in Markdown. OpenAI hat das bewusst so entschieden, um maximale Kompatibilität mit Anwendungen sicherzustellen, die kein Markdown rendern können.
Das klingt zunächst vernünftig. Für Open WebUI-Nutzer bedeutet es aber: Die Ausgabe sieht plötzlich zerschossen aus. Statt schön formatierter Listen und Überschriften erscheinen Sternchen, Rauten und Bindestriche als Klartext. Nicht immer aber sehr oft.
OpenAI hat dafür einen Hinweis und einen fertigen System-Prompt in ihrer Dokumentation hinterlegt:
https://developers.openai.com/cookbook/examples/gpt-5/gpt-5_prompting_guide#markdown-formatting
Kurz gesagt: Man muss GPT-5 explizit per System-Prompt anweisen, Markdown zu verwenden. Das gilt für das GPT-5-Hauptmodell – nicht für die Mini- oder Nano-Variante.
Das Problem in Open WebUI
In Open WebUI legen viele Nutzer und Administratoren virtuelle Modelle an. Ein virtuelles Modell ist im Grunde eine vorkonfigurierte Version eines Basismodells – mit eigenem Namen, eigenem System-Prompt und eigenen Parametern. Das ist sehr praktisch und einer der großen Stärken von Open WebUI.
Das Problem: System-Prompts vererben sich nicht. Hinterlege ich den Markdown-Fix beim Basismodell GPT-5, bekommen alle virtuellen Modelle, die darauf aufbauen, diesen Prompt nicht automatisch mitgeliefert. Jedes virtuelle Modell müsste einzeln angepasst werden.
Bei einer Handvoll Modellen ist das noch manuell machbar. Bei einer größeren Installation mit vielen spezialisierten Assistenten – Texter, Übersetzer, Code-Helfer, Zusammenfasser – wird das schnell unübersichtlich und fehleranfällig. Und man muss es jedes mal machen und allen Mitarbeitern beibringen. Unmöglich.
Die Lösung: System Prompt Injector
Wir haben dafür eine eigene Open WebUI-Funktion entwickelt: den System Prompt Injector.
Die Funktion lässt sich über die Open WebUI-Administrationsoberfläche installieren und konfigurieren. Sie ermöglicht es, einen System-Prompt automatisch an alle Requests anzuhängen – gefiltert nach Modellen. Die Filterlogik unterstützt dabei sowohl exakte Modell-IDs als auch reguläre Ausdrücke, und sie kann gegen den virtuellen Modellnamen, die Basismodell-ID oder beides prüfen.
Für das GPT-5-Markdown-Problem sieht die Konfiguration so aus:
- System-Prompt: Den Markdown-Anweisungs-Prompt von
OpenAI eintragen - Modellliste:
gpt-5.* - match_base_model: aktiviert
Damit greift der Prompt automatisch für jedes virtuelle Modell, das auf GPT-5 basiert – egal wie es heißt, egal wie viele es sind. Neue Modelle, die künftig dazukommen, werden ebenfalls automatisch erfasst.
Die Funktion ist auch für andere Szenarien nützlich: etwa um bei allen Claude-Modellen eine bestimmte Sprach- oder Tonvorgabe zu setzen, oder um bestimmte Compliance-Hinweise für ausgewählte Modelle zu ergänzen – ohne jeden Assistenten einzeln anfassen zu müssen.
Zum Download
Den System Prompt Injector gibt es hier:
https://openwebui.com/posts/b5153cb1-ee26-4da4-bf96-a0bbe04c1b62