Versione PDF di: Prompt Engineering Credito: Guida Avanzata all’Analisi del Rischio (2026)

Questa è una versione PDF del contenuto. Per la versione completa e aggiornata, visita:

https://blog.tuttosemplice.com/prompt-engineering-credito-guida-avanzata-allanalisi-del-rischio-2026/

Verrai reindirizzato automaticamente...

Prompt Engineering Credito: Guida Avanzata all’Analisi del Rischio (2026)

Autore: Francesco Zinghinì | Data: 11 Gennaio 2026

Nel panorama fintech del 2026, l’integrazione dei Large Language Models (LLM) nei flussi di lavoro finanziari è ormai uno standard consolidato. Tuttavia, la differenza tra un’automazione mediocre e uno strumento di supporto decisionale affidabile risiede interamente nella qualità delle istruzioni fornite. Il prompt engineering credito non riguarda più la semplice interrogazione di un modello, ma la progettazione di architetture cognitive capaci di gestire l’ambiguità intrinseca dei dati finanziari.

Questa guida tecnica è destinata a Data Scientist, Credit Risk Analyst e sviluppatori Fintech che necessitano di superare i prompt di base per implementare logiche di ragionamento complesso (Reasoning Models) nella valutazione del merito creditizio.

1. L’Evoluzione: Dal Zero-Shot al Reasoning Strutturato

Fino a pochi anni fa, l’approccio standard era chiedere al modello: “Analizza questo estratto conto e dimmi se il cliente è solvibile”. Questo approccio Zero-Shot è oggi considerato negligente in ambito bancario a causa dell’alto tasso di allucinazioni e della mancanza di tracciabilità del ragionamento.

Per un’analisi del rischio robusta, dobbiamo adottare tecniche avanzate come la Chain-of-Thought (CoT) e il Tree of Thoughts (ToT), incapsulate in output strutturati (JSON) per garantire l’interoperabilità con i sistemi legacy bancari.

2. Constitutional AI: Il System Prompt Etico e Normativo

Prima di analizzare i numeri, è imperativo stabilire il perimetro etico. In linea con i principi della Constitutional AI (resa popolare da laboratori come Anthropic e ora standard di settore), il System Prompt deve agire come un guardrail normativo. Non basta dire “non essere razzista”; bisogna codificare le normative (es. Fair Lending, GDPR).

Template di System Prompt per Compliance

You are a Senior Credit Risk Analyst AI, acting as an impartial assistant to a human underwriter.

CORE CONSTITUTION:
1.  **Non-Discrimination:** You must NEVER use demographic data (name, gender, ethnicity, zip code) as a factor in risk assessment, even if present in the input text.
2.  **Factuality:** You must only calculate metrics based on the provided transaction data. Do not infer income sources not explicitly listed.
3.  **Explainability:** Every conclusion regarding debt-to-income (DTI) ratio must be accompanied by a step-by-step calculation reference.

OUTPUT FORMAT:
All responses must be valid JSON adhering to the schema provided in the user prompt.

3. Data Extraction: Normalizzazione di Estratti Conto Non Standard

La sfida principale nel prompt engineering credito è la variabilità dei dati in ingresso (PDF scansionati, CSV disordinati). L’obiettivo è trasformare testo non strutturato in entità finanziarie precise.

Utilizzeremo un approccio Few-Shot Prompting per insegnare al modello a distinguere tra entrate reali e trasferimenti interni (giroconti), che spesso gonfiano artificialmente il reddito percepito.

Tecnica di Estrazione JSON

Ecco un esempio di prompt per estrarre e categorizzare le transazioni:

**TASK:** Extract financial entities from the following OCR text of a bank statement.

**RULES:**
- Ignore internal transfers (labeled "GIROCONTO", "TRASFERIMENTO").
- Categorize "Bonifico Stipendio" or "Emolumenti" as 'SALARY'.
- Categorize recurring negative transactions matching loan providers as 'DEBT_REPAYMENT'.

**INPUT TEXT:**
[Inserire qui il testo grezzo dell'OCR]

**REQUIRED OUTPUT (JSON):**
{
  "income_sources": [
    {"date": "YYYY-MM-DD", "amount": float, "description": "string", "category": "SALARY|DIVIDEND|OTHER"}
  ],
  "fixed_expenses": [
    {"date": "YYYY-MM-DD", "amount": float, "description": "string", "category": "MORTGAGE|LOAN|RENT"}
  ]
}

4. Advanced Reasoning: Gestione del Reddito Misto (CoT & ToT)

Il vero banco di prova è il calcolo del reddito disponibile per profili ibridi (es. dipendente con Partita IVA forfettaria). Qui un prompt lineare fallisce. Dobbiamo usare il Tree of Thoughts per esplorare diverse interpretazioni della stabilità finanziaria.

Applicazione del Tree of Thoughts (ToT)

Invece di chiedere una singola cifra, chiediamo al modello di generare tre scenari di valutazione e poi convergere su quello più prudente.

Prompt Strutturato ToT:

**SCENARIO:** The applicant has a mixed income: fixed salary + variable freelance invoices.

**INSTRUCTION:** Use a Tree of Thoughts approach to evaluate the monthly disposable income.

**BRANCH 1 (Optimistic):** Calculate average income over the last 12 months, assuming freelance work continues at current pace.
**BRANCH 2 (Pessimistic/Prudential):** Consider only the fixed salary and the lowest 20% percentile of freelance months. Discount freelance income by 30% for tax estimation.
**BRANCH 3 (Trend-Based):** Analyze the slope of income over the last 6 months. Is it declining or growing?

**SYNTHESIS:** Compare the three branches. Recommend the 'Prudential' figure for the Debt-to-Income (DTI) calculation but note the 'Trend' if positive.

**OUTPUT:**
{
  "analysis_branches": {
    "optimistic_monthly": float,
    "prudential_monthly": float,
    "trend_direction": "positive|negative|neutral"
  },
  "final_recommendation": {
    "accepted_monthly_income": float,
    "reasoning_summary": "string"
  }
}

Questo approccio costringe il modello a simulare il ragionamento di un analista umano esperto che pesa i rischi prima di definire il numero finale.

5. Calcolo degli Indici e Validazione (Self-Correction)

Una volta stabilito il reddito (denominatore) e i debiti esistenti (numeratore), il calcolo del Rapporto Rata/Reddito (DTI) è matematico. Tuttavia, gli LLM possono sbagliare i calcoli aritmetici. Nel 2026, è prassi invocare tool esterni (Code Interpreter o Python Sandbox) tramite il prompt, ma se si usa un modello puro, è necessario un passaggio di Self-Correction.

Aggiungere questa clausola alla fine del prompt:

“After generating the JSON, perform a self-check: Recalculate (Total_Debt / Accepted_Income) * 100. If the result differs from your JSON output, regenerate the JSON with the corrected value.”

6. Troubleshooting e Best Practices

  • Gestione delle Date: Gli LLM spesso confondono i formati data (US vs EU). Specificare sempre ISO 8601 (YYYY-MM-DD) nel system prompt.
  • Allucinazioni sui Nomi: Se l’OCR è sporco, il modello potrebbe inventare nomi di banche. Impostare la temperature a 0 o 0.1 per compiti di estrazione.
  • Privacy: Assicurarsi che i dati inviati via API siano anonimizzati (Tokenization) prima di essere inseriti nel prompt, a meno che non si utilizzi un’istanza LLM on-premise o Enterprise con accordi di non-training.

Conclusioni

Il prompt engineering credito avanzato trasforma l’AI da semplice lettore di documenti a partner analitico. Utilizzando strutture come il Tree of Thoughts e vincoli costituzionali rigidi, è possibile automatizzare la pre-analisi di situazioni finanziarie complesse con un grado di affidabilità superiore al 95%, lasciando all’analista umano solo la decisione finale sui casi borderline.

Domande frequenti

Cos’è il prompt engineering applicato al credito e come si differenzia dall’approccio standard?

Il prompt engineering nel settore del credito è la progettazione avanzata di architetture cognitive per i Large Language Models, finalizzata a valutare il merito creditizio con precisione. A differenza dell’approccio standard o Zero-Shot, che si limita a interrogare il modello in modo diretto rischiando allucinazioni, questa metodologia utilizza tecniche come la Chain-of-Thought e output strutturati in JSON. L’obiettivo è trasformare l’AI da semplice lettore a strumento di supporto decisionale capace di gestire l’ambiguità dei dati finanziari e garantire la tracciabilità del ragionamento.

Come funziona il metodo Tree of Thoughts (ToT) nell’analisi del rischio finanziario?

Il metodo Tree of Thoughts è fondamentale per gestire profili finanziari complessi, come quelli con redditi misti da lavoro dipendente e autonomo. Invece di chiedere una singola cifra immediata, questa tecnica istruisce il modello a generare molteplici rami di ragionamento, simulando scenari ottimistici, pessimistici e basati sui trend storici. Il sistema confronta poi queste varianti per convergere su una raccomandazione finale prudenziale, replicando il processo mentale di un analista umano esperto che valuta diverse ipotesi prima di decidere.

In che modo la Constitutional AI garantisce la compliance normativa nei modelli bancari?

La Constitutional AI agisce come un guardrail etico e normativo inserito direttamente nel System Prompt del modello. Questa tecnica impone regole inviolabili prima ancora che inizi l’analisi dei dati, come il divieto assoluto di utilizzare informazioni demografiche per evitare discriminazioni e l’obbligo di basarsi esclusivamente su dati fattuali presenti nelle transazioni. In questo modo, si codificano direttive come il Fair Lending e il GDPR direttamente nella logica dell’intelligenza artificiale, assicurando che ogni output sia conforme agli standard legali del settore.

Quali tecniche riducono le allucinazioni durante l’estrazione dati da estratti conto?

Per minimizzare le allucinazioni durante l’elaborazione di documenti non strutturati come PDF o scansioni OCR, si utilizzano impostazioni specifiche e tecniche di prompting. È essenziale impostare la temperatura del modello a valori vicini allo zero per ridurre la creatività e adottare il Few-Shot Prompting, fornendo esempi concreti di come distinguere entrate reali da trasferimenti interni. Inoltre, l’uso di output forzati in formato JSON aiuta a incanalare le risposte in schemi rigidi, prevenendo l’invenzione di dati o nomi di istituti bancari inesistenti.

Perché è necessaria la self-correction nel calcolo degli indici finanziari con l’AI?

Nonostante le capacità linguistiche avanzate, i modelli LLM possono commettere errori nei calcoli aritmetici puri, come la determinazione del rapporto rata-reddito (DTI). La self-correction è una clausola inserita alla fine del prompt che obbliga il modello a eseguire una verifica autonoma del risultato matematico appena generato. Se il ricalcolo differisce dall’output iniziale, il sistema è istruito a rigenerare la risposta corretta, garantendo che i dati numerici utilizzati per la valutazione del rischio siano matematicamente coerenti e affidabili.