Questa è una versione PDF del contenuto. Per la versione completa e aggiornata, visita:
Verrai reindirizzato automaticamente...
Nel panorama fintech del 2026, l’integrazione dei Large Language Models (LLM) nei flussi di lavoro finanziari è ormai uno standard consolidato. Tuttavia, la differenza tra un’automazione mediocre e uno strumento di supporto decisionale affidabile risiede interamente nella qualità delle istruzioni fornite. Il prompt engineering credito non riguarda più la semplice interrogazione di un modello, ma la progettazione di architetture cognitive capaci di gestire l’ambiguità intrinseca dei dati finanziari.
Questa guida tecnica è destinata a Data Scientist, Credit Risk Analyst e sviluppatori Fintech che necessitano di superare i prompt di base per implementare logiche di ragionamento complesso (Reasoning Models) nella valutazione del merito creditizio.
Fino a pochi anni fa, l’approccio standard era chiedere al modello: “Analizza questo estratto conto e dimmi se il cliente è solvibile”. Questo approccio Zero-Shot è oggi considerato negligente in ambito bancario a causa dell’alto tasso di allucinazioni e della mancanza di tracciabilità del ragionamento.
Per un’analisi del rischio robusta, dobbiamo adottare tecniche avanzate come la Chain-of-Thought (CoT) e il Tree of Thoughts (ToT), incapsulate in output strutturati (JSON) per garantire l’interoperabilità con i sistemi legacy bancari.
Prima di analizzare i numeri, è imperativo stabilire il perimetro etico. In linea con i principi della Constitutional AI (resa popolare da laboratori come Anthropic e ora standard di settore), il System Prompt deve agire come un guardrail normativo. Non basta dire “non essere razzista”; bisogna codificare le normative (es. Fair Lending, GDPR).
You are a Senior Credit Risk Analyst AI, acting as an impartial assistant to a human underwriter.
CORE CONSTITUTION:
1. **Non-Discrimination:** You must NEVER use demographic data (name, gender, ethnicity, zip code) as a factor in risk assessment, even if present in the input text.
2. **Factuality:** You must only calculate metrics based on the provided transaction data. Do not infer income sources not explicitly listed.
3. **Explainability:** Every conclusion regarding debt-to-income (DTI) ratio must be accompanied by a step-by-step calculation reference.
OUTPUT FORMAT:
All responses must be valid JSON adhering to the schema provided in the user prompt.La sfida principale nel prompt engineering credito è la variabilità dei dati in ingresso (PDF scansionati, CSV disordinati). L’obiettivo è trasformare testo non strutturato in entità finanziarie precise.
Utilizzeremo un approccio Few-Shot Prompting per insegnare al modello a distinguere tra entrate reali e trasferimenti interni (giroconti), che spesso gonfiano artificialmente il reddito percepito.
Ecco un esempio di prompt per estrarre e categorizzare le transazioni:
**TASK:** Extract financial entities from the following OCR text of a bank statement.
**RULES:**
- Ignore internal transfers (labeled "GIROCONTO", "TRASFERIMENTO").
- Categorize "Bonifico Stipendio" or "Emolumenti" as 'SALARY'.
- Categorize recurring negative transactions matching loan providers as 'DEBT_REPAYMENT'.
**INPUT TEXT:**
[Inserire qui il testo grezzo dell'OCR]
**REQUIRED OUTPUT (JSON):**
{
"income_sources": [
{"date": "YYYY-MM-DD", "amount": float, "description": "string", "category": "SALARY|DIVIDEND|OTHER"}
],
"fixed_expenses": [
{"date": "YYYY-MM-DD", "amount": float, "description": "string", "category": "MORTGAGE|LOAN|RENT"}
]
}Il vero banco di prova è il calcolo del reddito disponibile per profili ibridi (es. dipendente con Partita IVA forfettaria). Qui un prompt lineare fallisce. Dobbiamo usare il Tree of Thoughts per esplorare diverse interpretazioni della stabilità finanziaria.
Invece di chiedere una singola cifra, chiediamo al modello di generare tre scenari di valutazione e poi convergere su quello più prudente.
Prompt Strutturato ToT:
**SCENARIO:** The applicant has a mixed income: fixed salary + variable freelance invoices.
**INSTRUCTION:** Use a Tree of Thoughts approach to evaluate the monthly disposable income.
**BRANCH 1 (Optimistic):** Calculate average income over the last 12 months, assuming freelance work continues at current pace.
**BRANCH 2 (Pessimistic/Prudential):** Consider only the fixed salary and the lowest 20% percentile of freelance months. Discount freelance income by 30% for tax estimation.
**BRANCH 3 (Trend-Based):** Analyze the slope of income over the last 6 months. Is it declining or growing?
**SYNTHESIS:** Compare the three branches. Recommend the 'Prudential' figure for the Debt-to-Income (DTI) calculation but note the 'Trend' if positive.
**OUTPUT:**
{
"analysis_branches": {
"optimistic_monthly": float,
"prudential_monthly": float,
"trend_direction": "positive|negative|neutral"
},
"final_recommendation": {
"accepted_monthly_income": float,
"reasoning_summary": "string"
}
}Questo approccio costringe il modello a simulare il ragionamento di un analista umano esperto che pesa i rischi prima di definire il numero finale.
Una volta stabilito il reddito (denominatore) e i debiti esistenti (numeratore), il calcolo del Rapporto Rata/Reddito (DTI) è matematico. Tuttavia, gli LLM possono sbagliare i calcoli aritmetici. Nel 2026, è prassi invocare tool esterni (Code Interpreter o Python Sandbox) tramite il prompt, ma se si usa un modello puro, è necessario un passaggio di Self-Correction.
Aggiungere questa clausola alla fine del prompt:
“After generating the JSON, perform a self-check: Recalculate (Total_Debt / Accepted_Income) * 100. If the result differs from your JSON output, regenerate the JSON with the corrected value.”
ISO 8601 (YYYY-MM-DD) nel system prompt.temperature a 0 o 0.1 per compiti di estrazione.Il prompt engineering credito avanzato trasforma l’AI da semplice lettore di documenti a partner analitico. Utilizzando strutture come il Tree of Thoughts e vincoli costituzionali rigidi, è possibile automatizzare la pre-analisi di situazioni finanziarie complesse con un grado di affidabilità superiore al 95%, lasciando all’analista umano solo la decisione finale sui casi borderline.
Il prompt engineering nel settore del credito è la progettazione avanzata di architetture cognitive per i Large Language Models, finalizzata a valutare il merito creditizio con precisione. A differenza dell’approccio standard o Zero-Shot, che si limita a interrogare il modello in modo diretto rischiando allucinazioni, questa metodologia utilizza tecniche come la Chain-of-Thought e output strutturati in JSON. L’obiettivo è trasformare l’AI da semplice lettore a strumento di supporto decisionale capace di gestire l’ambiguità dei dati finanziari e garantire la tracciabilità del ragionamento.
Il metodo Tree of Thoughts è fondamentale per gestire profili finanziari complessi, come quelli con redditi misti da lavoro dipendente e autonomo. Invece di chiedere una singola cifra immediata, questa tecnica istruisce il modello a generare molteplici rami di ragionamento, simulando scenari ottimistici, pessimistici e basati sui trend storici. Il sistema confronta poi queste varianti per convergere su una raccomandazione finale prudenziale, replicando il processo mentale di un analista umano esperto che valuta diverse ipotesi prima di decidere.
La Constitutional AI agisce come un guardrail etico e normativo inserito direttamente nel System Prompt del modello. Questa tecnica impone regole inviolabili prima ancora che inizi l’analisi dei dati, come il divieto assoluto di utilizzare informazioni demografiche per evitare discriminazioni e l’obbligo di basarsi esclusivamente su dati fattuali presenti nelle transazioni. In questo modo, si codificano direttive come il Fair Lending e il GDPR direttamente nella logica dell’intelligenza artificiale, assicurando che ogni output sia conforme agli standard legali del settore.
Per minimizzare le allucinazioni durante l’elaborazione di documenti non strutturati come PDF o scansioni OCR, si utilizzano impostazioni specifiche e tecniche di prompting. È essenziale impostare la temperatura del modello a valori vicini allo zero per ridurre la creatività e adottare il Few-Shot Prompting, fornendo esempi concreti di come distinguere entrate reali da trasferimenti interni. Inoltre, l’uso di output forzati in formato JSON aiuta a incanalare le risposte in schemi rigidi, prevenendo l’invenzione di dati o nomi di istituti bancari inesistenti.
Nonostante le capacità linguistiche avanzate, i modelli LLM possono commettere errori nei calcoli aritmetici puri, come la determinazione del rapporto rata-reddito (DTI). La self-correction è una clausola inserita alla fine del prompt che obbliga il modello a eseguire una verifica autonoma del risultato matematico appena generato. Se il ricalcolo differisce dall’output iniziale, il sistema è istruito a rigenerare la risposta corretta, garantendo che i dati numerici utilizzati per la valutazione del rischio siano matematicamente coerenti e affidabili.