Questa è una versione PDF del contenuto. Per la versione completa e aggiornata, visita:
Verrai reindirizzato automaticamente...
In der Fintech-Landschaft des Jahres 2026 ist die Integration von Large Language Models (LLM) in Finanzworkflows ein etablierter Standard. Der Unterschied zwischen einer mittelmäßigen Automatisierung und einem zuverlässigen Instrument zur Entscheidungsunterstützung liegt jedoch vollständig in der Qualität der Anweisungen. Beim Prompt Engineering im Kreditwesen geht es nicht mehr um die einfache Abfrage eines Modells, sondern um den Entwurf kognitiver Architekturen, die in der Lage sind, die den Finanzdaten innewohnende Ambiguität zu bewältigen.
Dieser technische Leitfaden richtet sich an Data Scientists, Credit Risk Analysts und Fintech-Entwickler, die über einfache Prompts hinausgehen müssen, um komplexe Logiken (Reasoning Models) bei der Bewertung der Kreditwürdigkeit zu implementieren.
Bis vor wenigen Jahren war der Standardansatz, das Modell zu fragen: “Analysiere diesen Kontoauszug und sage mir, ob der Kunde solvent ist”. Dieser Zero-Shot-Ansatz gilt heute im Bankwesen aufgrund der hohen Rate an Halluzinationen und der mangelnden Nachvollziehbarkeit der Argumentation als fahrlässig.
Für eine robuste Risikoanalyse müssen wir fortgeschrittene Techniken wie Chain-of-Thought (CoT) und Tree of Thoughts (ToT) anwenden, gekapselt in strukturierten Outputs (JSON), um die Interoperabilität mit bestehenden Banksystemen zu gewährleisten.
Bevor wir die Zahlen analysieren, ist es zwingend erforderlich, den ethischen Rahmen festzulegen. Im Einklang mit den Prinzipien der Constitutional AI (populär gemacht durch Labore wie Anthropic und heute Industriestandard) muss der System Prompt als regulatorische Leitplanke fungieren. Es reicht nicht aus zu sagen “sei nicht rassistisch”; man muss die Vorschriften kodifizieren (z. B. Fair Lending, DSGVO).
You are a Senior Credit Risk Analyst AI, acting as an impartial assistant to a human underwriter.
CORE CONSTITUTION:
1. **Non-Discrimination:** You must NEVER use demographic data (name, gender, ethnicity, zip code) as a factor in risk assessment, even if present in the input text.
2. **Factuality:** You must only calculate metrics based on the provided transaction data. Do not infer income sources not explicitly listed.
3. **Explainability:** Every conclusion regarding debt-to-income (DTI) ratio must be accompanied by a step-by-step calculation reference.
OUTPUT FORMAT:
All responses must be valid JSON adhering to the schema provided in the user prompt.Die größte Herausforderung beim Prompt Engineering im Kreditwesen ist die Variabilität der Eingangsdaten (gescannte PDFs, ungeordnete CSVs). Das Ziel ist es, unstrukturierten Text in präzise Finanzentitäten umzuwandeln.
Wir verwenden einen Few-Shot Prompting-Ansatz, um dem Modell beizubringen, zwischen echten Einnahmen und internen Überweisungen (Umbuchungen) zu unterscheiden, die oft das wahrgenommene Einkommen künstlich aufblähen.
Hier ist ein Beispiel für einen Prompt zum Extrahieren und Kategorisieren von Transaktionen:
**TASK:** Extract financial entities from the following OCR text of a bank statement.
**RULES:**
- Ignore internal transfers (labeled "UMBUCHUNG", "ÜBERTRAG").
- Categorize "Gehalt" or "Lohn" as 'SALARY'.
- Categorize recurring negative transactions matching loan providers as 'DEBT_REPAYMENT'.
**INPUT TEXT:**
[Hier den rohen OCR-Text einfügen]
**REQUIRED OUTPUT (JSON):**
{
"income_sources": [
{"date": "YYYY-MM-DD", "amount": float, "description": "string", "category": "SALARY|DIVIDEND|OTHER"}
],
"fixed_expenses": [
{"date": "YYYY-MM-DD", "amount": float, "description": "string", "category": "MORTGAGE|LOAN|RENT"}
]
}Die wahre Bewährungsprobe ist die Berechnung des verfügbaren Einkommens für hybride Profile (z. B. Angestellter mit pauschal besteuerter Nebentätigkeit). Hier versagt ein linearer Prompt. Wir müssen den Tree of Thoughts verwenden, um verschiedene Interpretationen der finanziellen Stabilität zu untersuchen.
Anstatt nach einer einzelnen Zahl zu fragen, bitten wir das Modell, drei Bewertungsszenarien zu generieren und dann auf das konservativste zu konvergieren.
Strukturierter ToT-Prompt:
**SCENARIO:** The applicant has a mixed income: fixed salary + variable freelance invoices.
**INSTRUCTION:** Use a Tree of Thoughts approach to evaluate the monthly disposable income.
**BRANCH 1 (Optimistic):** Calculate average income over the last 12 months, assuming freelance work continues at current pace.
**BRANCH 2 (Pessimistic/Prudential):** Consider only the fixed salary and the lowest 20% percentile of freelance months. Discount freelance income by 30% for tax estimation.
**BRANCH 3 (Trend-Based):** Analyze the slope of income over the last 6 months. Is it declining or growing?
**SYNTHESIS:** Compare the three branches. Recommend the 'Prudential' figure for the Debt-to-Income (DTI) calculation but note the 'Trend' if positive.
**OUTPUT:**
{
"analysis_branches": {
"optimistic_monthly": float,
"prudential_monthly": float,
"trend_direction": "positive|negative|neutral"
},
"final_recommendation": {
"accepted_monthly_income": float,
"reasoning_summary": "string"
}
}Dieser Ansatz zwingt das Modell, die Überlegungen eines erfahrenen menschlichen Analysten zu simulieren, der Risiken abwägt, bevor er die endgültige Zahl festlegt.
Sobald das Einkommen (Nenner) und die bestehenden Schulden (Zähler) ermittelt sind, ist die Berechnung der Schuldendienstquote (DTI) rein mathematisch. LLMs können jedoch bei arithmetischen Berechnungen Fehler machen. Im Jahr 2026 ist es üblich, externe Tools (Code Interpreter oder Python Sandbox) über den Prompt aufzurufen, aber wenn man ein reines Modell verwendet, ist ein Schritt der Self-Correction (Selbstkorrektur) erforderlich.
Fügen Sie diese Klausel am Ende des Prompts hinzu:
“After generating the JSON, perform a self-check: Recalculate (Total_Debt / Accepted_Income) * 100. If the result differs from your JSON output, regenerate the JSON with the corrected value.”
ISO 8601 (YYYY-MM-DD) an.temperature für Extraktionsaufgaben auf 0 oder 0.1.Fortgeschrittenes Prompt Engineering im Kreditwesen verwandelt die KI von einem einfachen Dokumentenleser in einen analytischen Partner. Durch die Verwendung von Strukturen wie dem Tree of Thoughts und strengen konstitutionellen Einschränkungen ist es möglich, die Voranalyse komplexer finanzieller Situationen mit einer Zuverlässigkeit von über 95% zu automatisieren, wobei dem menschlichen Analysten nur die endgültige Entscheidung bei Grenzfällen überlassen bleibt.
Prompt Engineering im Kreditsektor ist die fortschrittliche Gestaltung kognitiver Architekturen für Large Language Models, die darauf abzielt, die Kreditwürdigkeit präzise zu bewerten. Im Gegensatz zum Standard- oder «Zero-Shot»-Ansatz, der sich darauf beschränkt, das Modell direkt abzufragen und dabei Halluzinationen riskiert, nutzt diese Methodik Techniken wie «Chain-of-Thought» und strukturierte JSON-Outputs. Ziel ist es, die KI von einem einfachen Leser in ein Instrument zur Entscheidungsunterstützung zu verwandeln, das in der Lage ist, die Ambiguität von Finanzdaten zu bewältigen und die Nachvollziehbarkeit der Argumentation zu gewährleisten.
Die «Tree of Thoughts»-Methode ist entscheidend für die Verwaltung komplexer Finanzprofile, wie z. B. solche mit gemischten Einkommen aus Angestelltenverhältnis und Selbstständigkeit. Anstatt eine einzelne sofortige Zahl zu verlangen, weist diese Technik das Modell an, mehrere Argumentationszweige zu generieren und optimistische, pessimistische sowie auf historischen Trends basierende Szenarien zu simulieren. Das System vergleicht dann diese Varianten, um auf eine endgültige, vorsichtige Empfehlung zu konvergieren, und repliziert so den mentalen Prozess eines erfahrenen menschlichen Analysten, der verschiedene Hypothesen bewertet, bevor er entscheidet.
Constitutional AI fungiert als ethische und normative Leitplanke, die direkt in den System-Prompt des Modells eingefügt wird. Diese Technik legt unverletzliche Regeln fest, noch bevor die Datenanalyse beginnt, wie etwa das absolute Verbot der Verwendung demografischer Informationen zur Vermeidung von Diskriminierung und die Verpflichtung, sich ausschließlich auf faktische Daten in den Transaktionen zu stützen. Auf diese Weise werden Richtlinien wie «Fair Lending» und die DSGVO direkt in der Logik der künstlichen Intelligenz kodifiziert, um sicherzustellen, dass jeder Output den rechtlichen Standards der Branche entspricht.
Um Halluzinationen bei der Verarbeitung unstrukturierter Dokumente wie PDFs oder OCR-Scans zu minimieren, werden spezifische Einstellungen und Prompting-Techniken verwendet. Es ist wichtig, die Temperatur des Modells auf Werte nahe Null zu setzen, um die Kreativität zu reduzieren, und «Few-Shot Prompting» anzuwenden, indem konkrete Beispiele gegeben werden, wie echte Einnahmen von internen Überweisungen zu unterscheiden sind. Darüber hinaus hilft die Verwendung von erzwungenen Outputs im JSON-Format, die Antworten in starre Schemata zu lenken und die Erfindung von Daten oder nicht existierenden Banknamen zu verhindern.
Trotz fortschrittlicher sprachlicher Fähigkeiten können LLM-Modelle Fehler bei reinen arithmetischen Berechnungen machen, wie etwa bei der Bestimmung der Schuldendienstquote (DTI). Die «Self-Correction» ist eine Klausel am Ende des Prompts, die das Modell zwingt, eine autonome Überprüfung des gerade generierten mathematischen Ergebnisses durchzuführen. Wenn die Neuberechnung vom ursprünglichen Output abweicht, wird das System angewiesen, die korrekte Antwort neu zu generieren, wodurch sichergestellt wird, dass die für die Risikobewertung verwendeten numerischen Daten mathematisch konsistent und zuverlässig sind.