Versione PDF di: Prompt Engineering im Kreditwesen: Fortgeschrittener Leitfaden zur Risikoanalyse (2026)

Questa è una versione PDF del contenuto. Per la versione completa e aggiornata, visita:

https://blog.tuttosemplice.com/de/prompt-engineering-im-kreditwesen-fortgeschrittener-leitfaden-zur-risikoanalyse-2026/

Verrai reindirizzato automaticamente...

Prompt Engineering im Kreditwesen: Fortgeschrittener Leitfaden zur Risikoanalyse (2026)

Autore: Francesco Zinghinì | Data: 11 Gennaio 2026

In der Fintech-Landschaft des Jahres 2026 ist die Integration von Large Language Models (LLM) in Finanzworkflows ein etablierter Standard. Der Unterschied zwischen einer mittelmäßigen Automatisierung und einem zuverlässigen Instrument zur Entscheidungsunterstützung liegt jedoch vollständig in der Qualität der Anweisungen. Beim Prompt Engineering im Kreditwesen geht es nicht mehr um die einfache Abfrage eines Modells, sondern um den Entwurf kognitiver Architekturen, die in der Lage sind, die den Finanzdaten innewohnende Ambiguität zu bewältigen.

Dieser technische Leitfaden richtet sich an Data Scientists, Credit Risk Analysts und Fintech-Entwickler, die über einfache Prompts hinausgehen müssen, um komplexe Logiken (Reasoning Models) bei der Bewertung der Kreditwürdigkeit zu implementieren.

1. Die Evolution: Von Zero-Shot zum strukturierten Reasoning

Bis vor wenigen Jahren war der Standardansatz, das Modell zu fragen: “Analysiere diesen Kontoauszug und sage mir, ob der Kunde solvent ist”. Dieser Zero-Shot-Ansatz gilt heute im Bankwesen aufgrund der hohen Rate an Halluzinationen und der mangelnden Nachvollziehbarkeit der Argumentation als fahrlässig.

Für eine robuste Risikoanalyse müssen wir fortgeschrittene Techniken wie Chain-of-Thought (CoT) und Tree of Thoughts (ToT) anwenden, gekapselt in strukturierten Outputs (JSON), um die Interoperabilität mit bestehenden Banksystemen zu gewährleisten.

2. Constitutional AI: Der ethische und normative System-Prompt

Bevor wir die Zahlen analysieren, ist es zwingend erforderlich, den ethischen Rahmen festzulegen. Im Einklang mit den Prinzipien der Constitutional AI (populär gemacht durch Labore wie Anthropic und heute Industriestandard) muss der System Prompt als regulatorische Leitplanke fungieren. Es reicht nicht aus zu sagen “sei nicht rassistisch”; man muss die Vorschriften kodifizieren (z. B. Fair Lending, DSGVO).

Template für Compliance System Prompt

You are a Senior Credit Risk Analyst AI, acting as an impartial assistant to a human underwriter.

CORE CONSTITUTION:
1.  **Non-Discrimination:** You must NEVER use demographic data (name, gender, ethnicity, zip code) as a factor in risk assessment, even if present in the input text.
2.  **Factuality:** You must only calculate metrics based on the provided transaction data. Do not infer income sources not explicitly listed.
3.  **Explainability:** Every conclusion regarding debt-to-income (DTI) ratio must be accompanied by a step-by-step calculation reference.

OUTPUT FORMAT:
All responses must be valid JSON adhering to the schema provided in the user prompt.

3. Data Extraction: Normalisierung von nicht standardisierten Kontoauszügen

Die größte Herausforderung beim Prompt Engineering im Kreditwesen ist die Variabilität der Eingangsdaten (gescannte PDFs, ungeordnete CSVs). Das Ziel ist es, unstrukturierten Text in präzise Finanzentitäten umzuwandeln.

Wir verwenden einen Few-Shot Prompting-Ansatz, um dem Modell beizubringen, zwischen echten Einnahmen und internen Überweisungen (Umbuchungen) zu unterscheiden, die oft das wahrgenommene Einkommen künstlich aufblähen.

Technik zur JSON-Extraktion

Hier ist ein Beispiel für einen Prompt zum Extrahieren und Kategorisieren von Transaktionen:

**TASK:** Extract financial entities from the following OCR text of a bank statement.

**RULES:**
- Ignore internal transfers (labeled "UMBUCHUNG", "ÜBERTRAG").
- Categorize "Gehalt" or "Lohn" as 'SALARY'.
- Categorize recurring negative transactions matching loan providers as 'DEBT_REPAYMENT'.

**INPUT TEXT:**
[Hier den rohen OCR-Text einfügen]

**REQUIRED OUTPUT (JSON):**
{
  "income_sources": [
    {"date": "YYYY-MM-DD", "amount": float, "description": "string", "category": "SALARY|DIVIDEND|OTHER"}
  ],
  "fixed_expenses": [
    {"date": "YYYY-MM-DD", "amount": float, "description": "string", "category": "MORTGAGE|LOAN|RENT"}
  ]
}

4. Advanced Reasoning: Umgang mit gemischtem Einkommen (CoT & ToT)

Die wahre Bewährungsprobe ist die Berechnung des verfügbaren Einkommens für hybride Profile (z. B. Angestellter mit pauschal besteuerter Nebentätigkeit). Hier versagt ein linearer Prompt. Wir müssen den Tree of Thoughts verwenden, um verschiedene Interpretationen der finanziellen Stabilität zu untersuchen.

Anwendung des Tree of Thoughts (ToT)

Anstatt nach einer einzelnen Zahl zu fragen, bitten wir das Modell, drei Bewertungsszenarien zu generieren und dann auf das konservativste zu konvergieren.

Strukturierter ToT-Prompt:

**SCENARIO:** The applicant has a mixed income: fixed salary + variable freelance invoices.

**INSTRUCTION:** Use a Tree of Thoughts approach to evaluate the monthly disposable income.

**BRANCH 1 (Optimistic):** Calculate average income over the last 12 months, assuming freelance work continues at current pace.
**BRANCH 2 (Pessimistic/Prudential):** Consider only the fixed salary and the lowest 20% percentile of freelance months. Discount freelance income by 30% for tax estimation.
**BRANCH 3 (Trend-Based):** Analyze the slope of income over the last 6 months. Is it declining or growing?

**SYNTHESIS:** Compare the three branches. Recommend the 'Prudential' figure for the Debt-to-Income (DTI) calculation but note the 'Trend' if positive.

**OUTPUT:**
{
  "analysis_branches": {
    "optimistic_monthly": float,
    "prudential_monthly": float,
    "trend_direction": "positive|negative|neutral"
  },
  "final_recommendation": {
    "accepted_monthly_income": float,
    "reasoning_summary": "string"
  }
}

Dieser Ansatz zwingt das Modell, die Überlegungen eines erfahrenen menschlichen Analysten zu simulieren, der Risiken abwägt, bevor er die endgültige Zahl festlegt.

5. Berechnung von Kennzahlen und Validierung (Self-Correction)

Sobald das Einkommen (Nenner) und die bestehenden Schulden (Zähler) ermittelt sind, ist die Berechnung der Schuldendienstquote (DTI) rein mathematisch. LLMs können jedoch bei arithmetischen Berechnungen Fehler machen. Im Jahr 2026 ist es üblich, externe Tools (Code Interpreter oder Python Sandbox) über den Prompt aufzurufen, aber wenn man ein reines Modell verwendet, ist ein Schritt der Self-Correction (Selbstkorrektur) erforderlich.

Fügen Sie diese Klausel am Ende des Prompts hinzu:

“After generating the JSON, perform a self-check: Recalculate (Total_Debt / Accepted_Income) * 100. If the result differs from your JSON output, regenerate the JSON with the corrected value.”

6. Troubleshooting und Best Practices

  • Umgang mit Daten: LLMs verwechseln oft Datumsformate (US vs. EU). Geben Sie im System-Prompt immer ISO 8601 (YYYY-MM-DD) an.
  • Halluzinationen bei Namen: Wenn die OCR unsauber ist, könnte das Modell Banknamen erfinden. Setzen Sie die temperature für Extraktionsaufgaben auf 0 oder 0.1.
  • Datenschutz: Stellen Sie sicher, dass die über API gesendeten Daten anonymisiert (Tokenization) sind, bevor sie in den Prompt eingegeben werden, es sei denn, Sie verwenden eine On-Premise- oder Enterprise-LLM-Instanz mit Non-Training-Vereinbarungen.

Fazit

Fortgeschrittenes Prompt Engineering im Kreditwesen verwandelt die KI von einem einfachen Dokumentenleser in einen analytischen Partner. Durch die Verwendung von Strukturen wie dem Tree of Thoughts und strengen konstitutionellen Einschränkungen ist es möglich, die Voranalyse komplexer finanzieller Situationen mit einer Zuverlässigkeit von über 95% zu automatisieren, wobei dem menschlichen Analysten nur die endgültige Entscheidung bei Grenzfällen überlassen bleibt.

Häufig gestellte Fragen

Was ist Prompt Engineering im Kreditwesen und wie unterscheidet es sich vom Standardansatz?

Prompt Engineering im Kreditsektor ist die fortschrittliche Gestaltung kognitiver Architekturen für Large Language Models, die darauf abzielt, die Kreditwürdigkeit präzise zu bewerten. Im Gegensatz zum Standard- oder «Zero-Shot»-Ansatz, der sich darauf beschränkt, das Modell direkt abzufragen und dabei Halluzinationen riskiert, nutzt diese Methodik Techniken wie «Chain-of-Thought» und strukturierte JSON-Outputs. Ziel ist es, die KI von einem einfachen Leser in ein Instrument zur Entscheidungsunterstützung zu verwandeln, das in der Lage ist, die Ambiguität von Finanzdaten zu bewältigen und die Nachvollziehbarkeit der Argumentation zu gewährleisten.

Wie funktioniert die Tree of Thoughts (ToT) Methode bei der Analyse finanzieller Risiken?

Die «Tree of Thoughts»-Methode ist entscheidend für die Verwaltung komplexer Finanzprofile, wie z. B. solche mit gemischten Einkommen aus Angestelltenverhältnis und Selbstständigkeit. Anstatt eine einzelne sofortige Zahl zu verlangen, weist diese Technik das Modell an, mehrere Argumentationszweige zu generieren und optimistische, pessimistische sowie auf historischen Trends basierende Szenarien zu simulieren. Das System vergleicht dann diese Varianten, um auf eine endgültige, vorsichtige Empfehlung zu konvergieren, und repliziert so den mentalen Prozess eines erfahrenen menschlichen Analysten, der verschiedene Hypothesen bewertet, bevor er entscheidet.

Wie garantiert Constitutional AI die regulatorische Compliance in Bankmodellen?

Constitutional AI fungiert als ethische und normative Leitplanke, die direkt in den System-Prompt des Modells eingefügt wird. Diese Technik legt unverletzliche Regeln fest, noch bevor die Datenanalyse beginnt, wie etwa das absolute Verbot der Verwendung demografischer Informationen zur Vermeidung von Diskriminierung und die Verpflichtung, sich ausschließlich auf faktische Daten in den Transaktionen zu stützen. Auf diese Weise werden Richtlinien wie «Fair Lending» und die DSGVO direkt in der Logik der künstlichen Intelligenz kodifiziert, um sicherzustellen, dass jeder Output den rechtlichen Standards der Branche entspricht.

Welche Techniken reduzieren Halluzinationen bei der Datenextraktion aus Kontoauszügen?

Um Halluzinationen bei der Verarbeitung unstrukturierter Dokumente wie PDFs oder OCR-Scans zu minimieren, werden spezifische Einstellungen und Prompting-Techniken verwendet. Es ist wichtig, die Temperatur des Modells auf Werte nahe Null zu setzen, um die Kreativität zu reduzieren, und «Few-Shot Prompting» anzuwenden, indem konkrete Beispiele gegeben werden, wie echte Einnahmen von internen Überweisungen zu unterscheiden sind. Darüber hinaus hilft die Verwendung von erzwungenen Outputs im JSON-Format, die Antworten in starre Schemata zu lenken und die Erfindung von Daten oder nicht existierenden Banknamen zu verhindern.

Warum ist Self-Correction bei der Berechnung von Finanzkennzahlen mit KI notwendig?

Trotz fortschrittlicher sprachlicher Fähigkeiten können LLM-Modelle Fehler bei reinen arithmetischen Berechnungen machen, wie etwa bei der Bestimmung der Schuldendienstquote (DTI). Die «Self-Correction» ist eine Klausel am Ende des Prompts, die das Modell zwingt, eine autonome Überprüfung des gerade generierten mathematischen Ergebnisses durchzuführen. Wenn die Neuberechnung vom ursprünglichen Output abweicht, wird das System angewiesen, die korrekte Antwort neu zu generieren, wodurch sichergestellt wird, dass die für die Risikobewertung verwendeten numerischen Daten mathematisch konsistent und zuverlässig sind.