Mit GPT-5.5 läutet OpenAI einen Paradigmenwechsel im Prompt-Engineering ein: Statt bewährte Formulierungen zu recyceln, sollen Entwickler von Null beginnen – und dabei zunächst so wenig wie möglich vorgeben.
OpenAI rät Entwicklern: Bei GPT-5.5 alte Prompts nicht weiterverwenden
Mit dem Release von GPT-5.5 stellt OpenAI bisherige Prompt-Engineering-Strategien grundlegend in Frage. Das Unternehmen empfiehlt Entwicklern ausdrücklich, bestehende Prompts nicht einfach auf das neue Modell zu übertragen, sondern von Grund auf neu zu beginnen. Der Rat gilt insbesondere für alle, die über die Zeit komplexe Prompt-Konstruktionen aufgebaut haben.
Minimalistisch starten – nur bei Bedarf erweitern
Wie aus den offiziellen Prompting-Hinweisen von OpenAI hervorgeht, soll der Einstieg in GPT-5.5 möglichst schlank erfolgen. Das Unternehmen empfiehlt:
Mit einem leeren System-Prompt starten und diesen schrittweise erweitern – aber nur dann, wenn sich konkrete Defizite im Modellverhalten zeigen.
Dieser Ansatz steht im deutlichen Gegensatz zur gängigen Praxis, bei der Entwickler aufwendig formulierte Prompts von Modellgeneration zu Modellgeneration mitschleppen.
Persona-Anweisungen erleben ein Comeback
Ein besonders auffälliger Punkt in OpenAIs Empfehlungen betrifft die Rolle von Rollendefinitionen – sogenannten Persona-Anweisungen. Obwohl diese zuletzt von manchen Entwicklern als überflüssig abgetan wurden, stellt OpenAI sie in seinem Framework für GPT-5.5 explizit wieder an erste Stelle:
Klare Rollenvorgaben sollen dem Modell helfen, konsistenter und zielgerichteter zu antworten.
Das deutet darauf hin, dass GPT-5.5 trotz gestiegener Grundfähigkeiten weiterhin stark von strukturierter Kontextsteuerung profitiert.
Warum alte Prompts zum Problem werden können
Neue Modellgenerationen reagieren oft anders auf bestehende Prompt-Muster als ihre Vorgänger. Workarounds oder Formulierungen, die ursprünglich dazu dienten, Schwächen älterer Modelle zu umgehen, können bei GPT-5.5 zu unnötig langen, unstrukturierten oder schlicht unpassenden Antworten führen.
Wer alte Prompts unreflektiert übernimmt, läuft damit Gefahr, das Potenzial des neuen Modells systematisch zu verschlechtern, anstatt es auszuschöpfen.
Erfahrung bleibt wertvoll – nur die Richtung ändert sich
Der Rat zum Neustart bedeutet nicht, dass bisherige Erfahrungen wertlos werden. Prompt-Engineering-Kompetenz bleibt relevant – sie wird lediglich in eine neue Richtung gelenkt:
- Statt komplexe Regeln und Ausnahmen zu verwalten, sollen Entwickler zunächst das native Verhalten des Modells beobachten
- Gezielt eingegriffen wird erst dann, wenn es notwendig ist
- Dieser iterative Ansatz hilft, überflüssige Komplexität in System-Prompts zu vermeiden
Handlungsbedarf für deutsche Unternehmen
Für Unternehmen, die GPT-5.5 in Kundenservice-Anwendungen, Dokumentenverarbeitung oder automatisierten Workflows einsetzen, ergibt sich ein konkreter Handlungsbedarf: Bestehende Prompt-Bibliotheken aus GPT-4-Zeiten sollten nicht als gegeben übernommen, sondern systematisch neu evaluiert werden.
Schlanke, modellnah formulierte Prompts dürften nicht nur zuverlässigere Ergebnisse liefern, sondern auf Dauer auch einfacher zu warten sein – unabhängig davon, welche Modellversion OpenAI als nächstes veröffentlicht.
Quelle: The Decoder