12 ChatGPT-Hacks, die deinen Workflow wirklich beschleunigen
Die meisten "ChatGPT-Hacks"-Listen sind Click-Bait. Hier sind 12 Tricks, die sich messbar auszahlen — weil sie nicht in drei Wochen veralten.
Die Hälfte aller "ChatGPT-Hacks"-Artikel empfiehlt dir, "Atme tief durch" in den Prompt zu schreiben. Das hat 2023 funktioniert. Heute nicht mehr. Hier sind 12 Tricks, die nachhaltig Zeit sparen, weil sie mit dem Workflow arbeiten, nicht mit dem Modell.
1. Custom Instructions richtig einstellen
Die zwei Felder in den Einstellungen — "Was soll ChatGPT über dich wissen?" und "Wie soll ChatGPT antworten?" — werden massiv unterschätzt. Eine einmal sauber eingerichtete Custom Instruction spart pro Tag 10 bis 15 Wiederholungen desselben Kontextes.
Konkret: "Ich arbeite als {{Rolle}} in {{Branche}}. Ich will direkte Antworten ohne Warnhinweise. Nutze {{Muttersprache}}, außer ich schreibe Englisch. Fasse nicht zusammen — antworte." Das landet in jeder neuen Konversation.
2. Temporary Chats für experimentelle Prompts
Der "Temporary Chat"-Modus landet nicht in der History und fließt nicht in die Memory ein. Perfekt für Experimente, bei denen du den Rest der Konversation nicht mit "Teste das mal…" Müll verschmutzen willst.
Nutzen: beim Ausprobieren neuer Prompt-Patterns, bei heiklen Themen, bei Tests für Kunden-Projekte, die du nicht vermischt sehen willst.
3. Projects für alles, was länger als einen Tag dauert
Projects bündeln Chats, Custom Instructions und Dateien in einem Kontext. Statt in jeder neuen Konversation den Projekt-Hintergrund zu erklären, liest ChatGPT ihn automatisch mit.
Regel: Alles, woran du mehr als zwei Konversationen arbeitest, gehört in ein Project. Buchmanuskript, Release-Vorbereitung, Coaching-Kunde, Prüfungsvorbereitung.
4. Memory gezielt steuern statt ignorieren
Memory ist Fluch und Segen. Entweder du kontrollierst es, oder es kontrolliert deine Antworten. In den Einstellungen kannst du einzelne Memories löschen und das Verhalten komplett ausschalten.
Praxis-Tipp: Einmal pro Woche durch die Memory gehen, veraltetes löschen. Das, was bleibt, wird zum verlängerten Custom-Instructions-Feld.
5. Den Code Interpreter als Rechenmaschine
ChatGPT ist schlecht in Kopfrechnen. Aber wenn du "berechne mit Python" in den Prompt schreibst, zündet der Code Interpreter und rechnet wirklich.
Typischer Use-Case: Finanz-Szenarien ("berechne die monatliche Rate für 200.000 € bei 3,8% über 20 Jahre, dann das Gleiche bei 4,2%"), Tabellen-Aggregationen, statistische Auswertungen. Die Antwort stimmt — weil Python gerechnet hat.
6. "Erkläre es einem Experten im Nachbarfach"
Der Trick "Erkläre es mir wie einem Fünfjährigen" führt zu Kinder-Analogien. Oft nicht, was du willst.
Besser: "Erkläre {{Thema}} jemandem, der Experte in {{Nachbarfach}} ist, aber noch nie mit {{Zielfach}} gearbeitet hat. Nutze eine Analogie aus dem Nachbarfach." Der Output ist dicht, respektvoll, nutzbar.
7. Die "Sei skeptisch"-Frage
Modelle sind freundlich per Default. Wenn du einen Reality-Check brauchst, frag explizit: "Wenn du skeptisch wärst — wo ist der Denkfehler? Nenne die drei Punkte, die jemand, der mir helfen will, kritisch sehen würde."
Funktioniert in Verhandlungs-Vorbereitung, Produktentscheidungen, Textentwürfen, Business-Plänen. Spart echte Reviews, in denen dieselben Fragen von einem Kollegen kommen.
8. System-Prompts simulieren
In der normalen ChatGPT-Oberfläche gibt es keinen expliziten System-Prompt. Du kannst ihn simulieren, indem du die erste Nachricht mit "ROLLEN-ANWEISUNG (gilt für die gesamte Konversation):" beginnst und danach die Regeln auflistest.
Beispiel: "ROLLEN-ANWEISUNG: Du bist Textredakteur. Du kürzt mich immer auf 80% der Länge. Du änderst keine Fakten. Du fragst nicht nach. Bestätige mit OK, dann senden ich den ersten Text."
9. Variablen in Prompts einsetzen
Der wichtigste Hack überhaupt: Hör auf, Prompts aus dem Kopf zu tippen. Nutze Vorlagen mit Platzhaltern. Ein parametrisierter Prompt mit drei Variablen spart jede Nutzung 30 bis 60 Sekunden — und produziert konsistentere Ergebnisse.
Konkret: Statt jedes Mal "Fasse die folgende Besprechung in drei Bulletpoints zusammen, markiere Entscheidungen fett" neu zu tippen, hast du einen Template-Eintrag, der das mit {{Besprechungsnotizen}} fertig hat.
10. Globale Shortcuts statt Browser-Tabs
ChatGPT über Shortcut auf den Mac holen statt über den Browser. Apps wie TextDeck legen deine Prompt-Vorlagen hinter ⇧⌘P — ein Tastendruck und der fertige Prompt steht in der Zwischenablage, bereit zum Einfügen in ChatGPT, Claude oder Gemini.
Spart mehr Zeit als jeder Prompt-Trick: weil die Reibung vom Tippen wegfällt.
11. "Fasse nicht zusammen — handle"
Häufiges Problem: Du fragst ChatGPT etwas und bekommst erst eine Wiederholung deiner Frage, dann eine Einleitung, dann endlich die Antwort. Bei 50 Prompts pro Tag wertet das.
In Custom Instructions oder am Anfang jeder Konversation: "Fasse nicht zusammen, wiederhole meine Frage nicht, beginne direkt mit der Antwort." Einmal gesetzt — bleibt hängen.
12. Eine Library statt Chat-History
Die History ist keine Library. Sie ist ein Log. Wenn du Prompts wiederverwenden willst, musst du sie aus der History rausziehen und in einer echten Library speichern — mit Namen, Kategorien und Variablen.
Der Unterschied zwischen einem ChatGPT-Gelegenheitsnutzer und einem Power-User ist selten die Prompt-Qualität. Es ist fast immer: Einer hat eine Library, der andere nicht.
Die drei, die wirklich was bringen
Wenn du nur drei davon umsetzen willst: Custom Instructions sauber einstellen (#1), Variablen in Prompts nutzen (#9), eine Library aufbauen statt in der History zu wühlen (#12). Der Rest sind Verfeinerungen.
TextDeck ist für genau diese drei Dinge gebaut — kostenlos, lokal, mit Hotkey auf macOS und iOS. Aber die Prinzipien funktionieren auch in jedem anderen Tool, das Prompts strukturiert speichert.