ChatGPT, Claude & Gemini: Warum ein Prompt nicht überall gleich funktioniert
ChatGPT, Claude & Gemini: Warum ein Prompt nicht überall gleich funktioniert
Ich habe letzte Woche denselben Prompt in ChatGPT, Claude und Gemini eingegeben. Das Resultat? 3 komplett unterschiedliche Ergebnisse.
Die meisten Menschen nutzen KI-Tools aktuell noch wie einen großen Werkzeugkoffer, in dem sie davon ausgehen, dass alle Schraubenzieher irgendwie gleich funktionieren. Ein Griff, eine Spitze, drehen – fertig.
Aber das tun sie nicht.
Vor ein paar Jahren, im KI-Steinzeitalter von 2022, habe ich logischerweise zu 100 % ChatGPT genutzt. Heute sieht mein Tech-Stack ganz anders aus: Etwa 40 % meiner Workflows laufen über Claude, 30 % über ChatGPT und 10 % über Gemini. Der Rest verteilt sich auf hochspezialisierte Agenten-Tools für Nischenprobleme.
Die 50/50 Regel der KI-Performance
Dass kein Tool per se „besser“ ist, habe ich ja schon in anderen Artikeln erörtert. Es kommt immer auf den konkreten Use Case an.
Aber es kommt nicht nur auf den Use Case an, sondern vor allem auf Deine Prompts.
Eine vielbeachtete Studie vom MIT aus dem August 2025 hat das eindrucksvoll bestätigt: Forscher fanden heraus, dass die tatsächlichen Performance-Gewinne bei der Nutzung neuer KI-Modelle nur zur Hälfte auf die pure Leistungsfähigkeit (Parameter, Architektur) des Modells zurückzuführen sind.
Die anderen 50 % der Performance kommen allein durch User-Adaption – sprich: Durch das richtige, modellspezifische Prompting.
Das heißt im Klartext: Du verschenkst die Hälfte Deines Potenzials, wenn Du faul bist und überall einfach Copy-Paste denselben generischen Prompt reinkippst. Jedes dieser Modelle hat einen anderen elektronischen “Charakter”, wurde mit anderen Weights-Mechanismen trainiert und braucht eine andere Ansprache, um zu glänzen.
Hier sind die drei wichtigsten Kern-Unterschiede, wie Du die Modelle heutzutage prompten musst:
1. ChatGPT (GPT-5.2 / 5.4): Der Struktur-Liebhaber
ChatGPT ist der geniale Generalist und rasend schnell. Aber er neigt dazu, manchmal zu schnell in eine Richtung loszurennen und Annahmen zu treffen, die Du gar nicht wolltest.
So promptest du ChatGPT richtig: ChatGPT braucht brutale Struktur. Denke in klaren, sequenziellen Schritten.
Nutze nummerierte Listen für Arbeitsanweisungen: Falsch: “Erstell mir eine Kurs-Outline über KI.” Richtig: “1. Definiere die primäre Zielgruppe (B2B, Einsteiger). 2. Leite daraus 5 Kernmodule ab. 3. Ergänze zu jedem Modul 3 Unterpunkte. 4. Zum Schluss: Erstelle eine zeitliche Agenda.”
Je deutlicher Du den logischen Pfad per Constraint vorgibst (z.B. durch Frameworks wie das POWER-Framework: Purpose, Output, Working Context, Examples, Refinement), desto besser performt ChatGPT. Gib ihm ein Korsett, sonst liefert er Dir aus seiner unendlichen Datenmenge einen generischen Brei.
2. Claude (Sonnet 4.5 / 4.6): Der detailverliebte Analytiker
Claude von Anthropic ist aktuell der König der Nuancen. Er versteht Tonalität, Zwischentöne und komplexe Dokumente wie kein Zweiter. Er halluziniert extrem selten, ist dafür aber manchmal etwas übereifrig darin, sich an Sicherheitsrichtlinien zu klammern.
So promptest du Claude richtig: Claude verlangt nach Kontext und XML-Tags.
Claude wurde explizit darauf trainiert, Instruktionen in XML-artigen Tags zu priorisieren und zu strukturieren. Statt ihm einfach eine Wand aus Text zu geben, solltest Du Deinen Input orchestrieren:
<kontext> Hier fügst Du Hintergrundinfos ein. </kontext>
<material> Hier ist der Rohtext zur Analyse. </material>
<aufgabe> Fasse das Dokument zusammen und achte auf eine ermutigende, nicht belehrende Tonalität. </aufgabe>
Claude braucht Raum, um sich “einzugrooven”. Schreib die Prompts ruhig etwas länger und erkläre das Warum hinter einer Aufgabe. Er wird Dir diese Mühe mit Ergebnissen danken, die oft aussehen, als kämen sie von einem hochbezahlten Senior Consultant.
3. Gemini (Pro 3.x): Der multimodale Daten-Kraken
Googles Gemini ist ein Biest, wenn es um riesige Datenmengen, Google-Workspace-Integration (Drive, Docs, Sheets) und multimodalen Input (Audio, 360-Grad-Video, Fotos) geht. Sein Fenster von hunderten PDF-Seiten oder stundenlangen Videos ist unschlagbar.
So promptest du Gemini richtig: Gemini braucht starke Verankerungen in echten Daten und liebt „Such-Routinen“.
Da Gemini tiefe Integration in Echtzeit-Daten (Google Search) hat, solltest Du ihn gezielt zur Recherche und Synthese anweisen. “Durchsuche die angehängten 40 PDFs und gleiche Thesen XY mit dem aktuellen Stand der Live-Tagespresse von heute ab.”
Gemini neigt bei gigantischen Kontexten manchmal dazu, am Ende “den Faden zu verlieren” (Lost in the Middle). Daher solltest Du bei Gemini Prompts immer das gewünschte End-Format extrem hart definieren: “Ergebnis zwingend als Markdown-Tabelle mit den Spalten A, B, C ausgeben.”
Der letzte Tipp
Hört auf, Prompting als Zaubersprüche (“Magic Words”) zu betrachten, die man copy-pasten kann. Die MIT-Studie macht es klar: Prompt Engineering ist kein Coden. Es ist die erlernbare Fähigkeit der absolut glasklaren Kommunikation von Führungskräften an intelligente, aber leicht eigenwillige Mitarbeiter.
Welches Modell verstehen Sie am besten? Schreiben Sie es mir in die Kommentare.