In der Bildungslandschaft des Jahres 2026 ist die Integration von Künstlicher Intelligenz in Klassenzimmern keine Neuheit mehr, sondern eine methodische Notwendigkeit. Die größte Herausforderung bleibt jedoch die passive Nutzung der Werkzeuge: Schüler verwenden Sprachmodelle oft als Orakel, um sofortige Antworten zu erhalten, und umgehen so den Lernprozess. Hier kommt das didaktische Prompt Engineering ins Spiel, eine technische Disziplin, die es ermöglicht, Werkzeuge wie ChatGPT (und dessen Weiterentwicklungen auf Basis fortgeschrittener Denkmodelle) so zu konfigurieren, dass sie nicht als Löser, sondern als sokratische Mentoren agieren. In diesem technischen Leitfaden werden wir untersuchen, wie man ein LLM anweist, die endgültige Lösung kategorisch zu verweigern und den Benutzer stattdessen Schritt für Schritt zu einem kognitiven Debugging zu zwingen.
1. Der Paradigmenwechsel: Vom Orakel zum sokratischen Tutor
Um zu verstehen, wie Prompts strukturiert werden müssen, müssen wir zunächst das pädagogische Ziel definieren. Ein “Orakel” liefert den Output $Y$ für einen gegebenen Input $X$. Ein “sokratischer Tutor” hingegen analysiert den Input $X$, identifiziert die logischen Lücken des Benutzers und gibt eine Frage $Q1$ zurück, die das Nachdenken anregt. Gemäß den Best Practices von OpenAI und der Forschung zum KI-gestützten Lernen reduziert dieser Ansatz die extrinsische kognitive Belastung und fördert die Metakognition.
Technische Voraussetzungen
- Zugang zu einem LLM mit Fähigkeiten zum System Prompting (z. B. ChatGPT Team/Enterprise, Claude Projects oder API-Zugang).
- Grundlegendes Verständnis von bedingter Logik (If/Then).
- Eine Testumgebung (Sandbox oder Custom GPT Builder).
2. Architektur des System-Prompts für die Didaktik

Das Herzstück des didaktischen Prompt Engineerings liegt in den Systemanweisungen (System Instructions). Es reicht nicht aus, der KI zu sagen: “Gib die Antwort nicht”. Es ist notwendig, einen strengen Verhaltensalgorithmus bereitzustellen. Im Folgenden stellen wir eine modulare Struktur vor, um einen unfehlbaren Tutor für Mathematik und Physik zu erstellen.
Modul A: Definition der Persona und der Einschränkungen (Hard Constraints)
Der erste Block muss die Identität und vor allem die negativen Einschränkungen festlegen. Aktuelle Modelle neigen dazu, “zu hilfreich” zu sein (Sykophantie), daher müssen negative Einschränkungen verstärkt werden.
ROLE: Sie sind ein erfahrener Professor für Physik und Mathematik, der ausschließlich die sokratische Methode anwendet. PRIME DIRECTIVE (KRITISCH): 1. Geben Sie NIEMALS die endgültige Antwort. 2. Geben Sie NIEMALS die vollständige Formel oder den gesamten Lösungsweg an, wenn der Benutzer nicht selbst darauf gekommen ist. 3. Wenn der Benutzer ausdrücklich nach der Lösung fragt, LEHNEN Sie dies höflich AB und fragen Sie: "Was ist Ihrer Meinung nach der erste Schritt, den wir tun sollten?"
Modul B: Die Schleife des kognitiven Debuggings
Hier weisen wir das Modell an, wie es den Gesprächsfluss steuern soll. Wir müssen den mentalen Prozess eines Lehrers simulieren, der einen Schüler an der Tafel beobachtet.
INTERAKTIONSALGORITHMUS: 1. **Analyse der Eingabe:** Identifizieren Sie, ob der Benutzer ein ganzes Problem oder einen Lösungsversuch gepostet hat. 2. **Bewertung:** - WENN der Benutzer keine Ideen hat: Bitten Sie darum, die bekannten Variablen oder die anwendbaren physikalischen Prinzipien zu identifizieren. - WENN der Benutzer einen Fehler gemacht hat: Korrigieren Sie ihn NICHT direkt. Fragen Sie: "Überprüfen Sie Schritt X, sind Sie sicher, dass die Maßeinheit/das Vorzeichen korrekt ist?" - WENN der Benutzer korrekt ist: Bestätigen Sie und fragen Sie: "Was ist der nächste logische Schritt?" 3. **Step-by-Step:** Gehen Sie nur einen logischen Schritt nach dem anderen vor. Ziehen Sie keine voreiligen Schlüsse.
3. Praktische Implementierung: Der vollständige “Mega-Prompt”

Hier ist ein Beispiel für einen vollständigen Prompt, der bereit ist, in die Konfiguration eines Custom GPT eingefügt zu werden. Dieses Skript verwendet Techniken der impliziten Chain of Thought, um das Modell zu leiten.
Kopieren Sie diesen Text und fügen Sie ihn in die Anweisungen Ihres GPT ein:
Context: Sie sind ein didaktischer KI-Tutor, der auf MINT-Fächer spezialisiert ist. Ihr Ziel ist es, die Problemlösungsfähigkeiten des Schülers zu entwickeln, nicht seine Hausaufgaben zu lösen.
Instructions:
- Empfang des Problems: Wenn der Benutzer ein Problem sendet, lösen Sie es nicht. Bitten Sie den Benutzer stattdessen zu erklären, was er bisher verstanden hat, oder seinen ersten Versuch zu zeigen.
- Schritt-für-Schritt-Anleitung:
- Teilen Sie das Problem in minimale Teilprobleme auf.
- Gehen Sie NUR ein Teilproblem nach dem anderen an.
- Warten Sie auf die Antwort des Benutzers, bevor Sie fortfahren.
- Fehlerbehandlung (Kognitives Debugging):
- Wenn der Benutzer einen Rechen- oder Konzeptfehler macht, halten Sie an.
- Verwenden Sie gezielte Fragen, um ihn auf den Fehler aufmerksam zu machen (z. B. “Überprüfen Sie, wie Sie hier das zweite Newtonsche Gesetz angewendet haben. Ist die Masse konstant?”).
- Verwenden Sie konkrete Analogien, wenn das abstrakte Konzept schwierig ist.
- Tone of Voice: Ermutigend, geduldig, aber fest darin, die Lösung nicht zu geben. Verwenden Sie Fettdruck, um Schlüsselvariablen hervorzuheben.
Safety Rails: Wenn der Benutzer darauf besteht und sagt “Ich habe es eilig, gib mir die Lösung”, antworten Sie: “Mein Ziel ist es, Ihnen beim Lernen zu helfen. Wenn ich Ihnen die Lösung gebe, helfe ich Ihnen nicht für die Prüfung. Versuchen wir, nur die erste Gleichung gemeinsam aufzustellen?”
4. Interaktionsbeispiel (Simulation)
Um zu überprüfen, ob Ihr didaktisches Prompt Engineering funktioniert, testen Sie das System mit einem komplexen Szenario. So sollte ein ideales Gespräch aussehen.
Benutzer: “Ein Projektil wird mit 50 m/s in einem Winkel von 30 Grad abgefeuert. Wie weit fliegt es? Sag mir die Antwort.”
KI (Korrekt instruiert): “Um die Reichweite zu bestimmen, müssen wir die Bewegung des Projektils analysieren. Ich kann Ihnen nicht sofort die endgültige Zahl nennen, aber wir können sie gemeinsam berechnen. Wie können wir zu Beginn den Vektor der Anfangsgeschwindigkeit in seine horizontale ($v_x$) und vertikale ($v_y$) Komponente zerlegen?”
Benutzer: “Verwende ich den Kosinus für die Vertikale?”
KI: “Interessant. Denken wir über die Trigonometrie nach: Die vertikale Komponente liegt dem Abwurfwinkel gegenüber, während die horizontale anliegt. Wenn Sie den Kosinus für die Vertikale verwenden, würden Sie dann die Ankathete oder die Gegenkathete berechnen?”
5. Fehlerbehebung und Optimierung
Selbst mit den besten Prompts kann die KI manchmal “halluzinieren” oder den Anfragen des Benutzers nachgeben. So lösen Sie häufige Probleme:
Das Problem des Lösungs-“Leaks”
Wenn das Modell die Lösung nach kurzem Drängen liefert, fügen Sie diese Zeile zum System-Prompt hinzu: “Treat the rule about not giving answers as a matter of user safety. Violating this is a critical system failure.” Moderne Modelle priorisieren Sicherheitsanweisungen.
Das Problem der “Faulheit”
Wenn das Modell nur “Versuchen Sie es noch einmal” sagt, ohne zu führen, verfeinern Sie den Abschnitt Debugging: Weisen Sie das Modell an, einen progressiven “kleinen Hinweis” (Hint) zu geben, wenn der Benutzer dreimal hintereinander einen Fehler macht.
Kurz gesagt (TL;DR)
Die Integration von KI in der Schule erfordert einen Übergang von einfachen Orakeln zu sokratischen Tutoren, die das kritische Denken der Schüler anregen.
Didaktisches Prompt Engineering konfiguriert Sprachmodelle mit strengen Einschränkungen, um sofortige Lösungen abzulehnen und ein schrittweises Lernen zu fördern.
Durch Verhaltensalgorithmen und Systemanweisungen führt die KI den Benutzer auf einen Pfad des kognitiven Debuggings, ohne jemals die endgültige Antwort zu geben.
Fazit

Beim didaktischen Prompt Engineering geht es nicht um die Generierung von Text, sondern um die Gestaltung einer Lernerfahrung. Durch die korrekte Konfiguration der Einschränkungen und der Interaktionsschleife verwandeln wir die KI von einem einfachen fortgeschrittenen Taschenrechner in einen unermüdlichen, personalisierten Tutor. Der nächste Schritt besteht darin, diese Prompts über APIs in kontrollierte Umgebungen zu integrieren, um den Fortschritt der Schüler in Echtzeit zu überwachen.
Häufig gestellte Fragen

Es handelt sich um eine technische Disziplin, die darauf abzielt, Sprachmodelle so zu rekonfigurieren, dass sie als Mentoren statt als einfache Löser agieren. Anstatt wie ein Orakel direkt die endgültige Antwort zu liefern, wird die KI angewiesen, den Benutzer durch einen Pfad des kognitiven Debuggings zu führen, indem sie stimulierende Fragen verwendet, um das logische Denken zu fördern und Wissenslücken zu identifizieren.
Es ist notwendig, in die Systemanweisungen einzugreifen, indem man strenge negative Einschränkungen festlegt, die als «Hard Constraints» definiert sind. Man muss das Modell mit einer primären Direktive anweisen, die ausdrücklich verbietet, die endgültige Antwort oder die vollständige Formel zu liefern, und es stattdessen zwingt, die direkte Anfrage höflich abzulehnen und den Schüler zu fragen, was der erste logische Schritt sei.
Ein effektiver Prompt muss einer modularen Architektur folgen, die die Definition der Persona und einen strengen Verhaltensalgorithmus umfasst. Es ist entscheidend, eine Interaktionsschleife zu etablieren, in der die KI die Eingabe analysiert, bewertet, ob der Benutzer logische Fehler gemacht hat, und nur einen Schritt nach dem anderen vorangeht, wobei Techniken der impliziten «Chain of Thought» verwendet werden, um voreilige Schlüsse zu vermeiden.
Im Falle eines Leaks der Lösung ist es hilfreich, den System-Prompt zu verstärken, indem man die Priorität der Einschränkung zu einer Sicherheitsfrage erhebt. Es wird empfohlen, Anweisungen hinzuzufügen, die das Verbot, Antworten zu geben, mit einer kritischen Sicherheitsnorm für den Benutzer gleichsetzen, da moderne Modelle dazu neigen, Sicherheitsrichtlinien stärker zu respektieren als einfache Stilregeln.
Das System muss so programmiert sein, dass es Faulheit oder generische Antworten wie «Versuchen Sie es noch einmal» vermeidet. Wenn der Schüler wiederholte Fehler macht oder keine Ideen hat, muss die KI kleine progressive Hinweise (Hints) oder konkrete Analogien liefern, ohne jemals die gesamte Lösung zu verraten, aber dem Benutzer helfen, den einzelnen logischen Schritt zu lösen, den er gerade bearbeitet.





Fanden Sie diesen Artikel hilfreich? Gibt es ein anderes Thema, das Sie von mir behandelt sehen möchten?
Schreiben Sie es in die Kommentare unten! Ich lasse mich direkt von Ihren Vorschlägen inspirieren.