L’IA ti ha appena detto qualcosa di completamente falso. Con totale sicurezza.
Magari ha citato uno studio che non esiste. Inventato una statistica. Tirato fuori una citazione dal nulla. Spiegato con sicurezza una funzione che il tuo prodotto neanche ha.
Si chiama allucinazione, ed è una delle cose più frustranti quando lavori con l’IA.
La cattiva notizia: non puoi eliminarla completamente. I modelli di IA generano testo predicendo quello che suona giusto, non verificando i fatti.
La buona notizia: puoi ridurla drasticamente. Certe tecniche di prompting hanno provato di ridurre i tassi di allucinazione del 35% o più—e combinando più tecniche, i risultati sono ancora meglio.
Ecco quello che funziona davvero.
Perché l’IA Allucina
Capire il problema aiuta a risolverlo.
L’IA non “sa” le cose come gli umani. Predice la parola più probabile basata sui pattern nei suoi dati di training. Quando fai una domanda, genera una risposta che suona plausibile—vera o no.
Per questo l’IA allucina più quando:
- L’argomento è oscuro o recente (meno dati di training)
- Chiedi dettagli specifici (date, numeri, nomi)
- La domanda è ambigua (molteplici risposte plausibili)
- La spingi a rispondere quando è incerta
Il modello preferisce indovinare con sicurezza che ammettere di non sapere. Il tuo compito è creare condizioni dove indovinare è meno probabile.
Tecnica 1: Permetti di Dire “Non So”
L’IA per default fornisce una risposta, anche quando non dovrebbe. Dille esplicitamente che l’incertezza va bene.
Aggiungi al tuo prompt:
Se non sei sicura di qualcosa, dillo. È meglio dire "non sono
sicura" che indovinare. Preferisco niente risposta a una risposta
sbagliata.
Questo semplice cambiamento trasforma l’incentivo. Invece di ottimizzare per “dai una risposta”, l’IA ora ottimizza per “dai una risposta accurata o riconosci l’incertezza.”
La ricerca dalla documentazione di Claude mostra che questo da solo riduce significativamente le allucinazioni su domande fattuali.
Tecnica 2: Chiedi Fonti e Citazioni
Quando l’IA deve citare le sue fonti, è più attenta con le affermazioni.
Per documenti:
Rispondi a questa domanda basandoti solo sul documento che ti ho
fornito. Cita i passaggi specifici che supportano la tua risposta.
Se il documento non contiene l'informazione, dillo.
Per la conoscenza generale:
Spiega X. Per qualsiasi affermazione specifica, nota se sei
sicuro dell'informazione o se dovrebbe essere verificata.
Citare costringe l’IA ad ancorare le risposte a qualcosa di concreto invece di generare finzione che suona plausibile.
Tecnica 3: Scomponi le Domande Complesse
L’IA allucina più su domande complesse e multi-parte. Il modello prova a gestire tutto insieme e riempie le lacune con supposizioni.
Invece di:
Raccontami della storia, caratteristiche chiave, prezzi e
recensioni clienti di ProductX, e confrontalo con ProductY e ProductZ.
Prova:
Scomponiamo questo passo dopo passo.
Primo: Quali sono le caratteristiche chiave di ProductX?
Poi continua con domande separate per ogni parte. Avrai risposte più accurate e potrai cogliere gli errori prima.
Tecnica 4: Usa Chain-of-Thought Prompting
Chiedere all’IA di mostrare il suo ragionamento migliora drasticamente l’accuratezza su compiti che richiedono logica.
Aggiungi:
Pensa a questo passo dopo passo prima di dare la tua risposta
finale. Mostra il tuo ragionamento.
Quando l’IA deve articolare ogni passo, è più probabile che colga i suoi stessi errori. Uno studio del 2024 ha trovato che il chain-of-thought prompting ha ridotto gli errori matematici in GPT-4 del 28%.
Funziona perché le allucinazioni spesso accadono quando l’IA salta step e salta alle conclusioni. Forzare il ragionamento esplicito chiude queste lacune.
Tecnica 5: Limita l’Ambito
Più ampia è la domanda, più spazio per le allucinazioni. Rendila più ristretta.
Ampio (rischioso):
Raccontami del machine learning.
Stretto (più sicuro):
Spiega la differenza tra apprendimento supervisionato e non supervisionato.
Mantienilo a 3-4 frasi. Concentrati sulla distinzione chiave, non tutti i dettagli.
Le risposte più corte e focalizzate danno meno opportunità all’IA di avventurarsi in territorio incerto e inventare cose.
Tecnica 6: Fornisci Materiale di Riferimento
Se hai bisogno che l’IA lavori con informazioni specifiche, dagliele. Non fare affidamento su quello che “sa.”
Per compiti fattua:
Ecco la documentazione del prodotto:
[incolla documentazione]
Basandoti solo su questa documentazione, rispondi alla domanda del cliente:
[domanda]
Non aggiungere informazioni che non sono nella documentazione.
Per l’analisi:
Ecco i dati:
[incolla dati]
Analizza solo quello che è in questi dati. Non fare supposizioni su
informazioni che non sono incluse.
Quando l’IA ha materiale di riferimento con cui lavorare, è molto meno probabile che inventi cose.
Tecnica 7: Chiedi di Verificare la Sua Stessa Risposta
È sorprendentemente efficace. Dopo che l’IA dà una risposta, chiedile di verificare l’accuratezza.
Prompt di follow-up:
Ora rivedi la tua risposta. Ci sono affermazioni che hai fatto
che potrebbero essere imprecise o di cui non sei sicura? Indicale.
L’IA spesso coglie le sue stesse allucinazioni quando glielo chiedi esplicitamente. Questo step di auto-verifica aggiunge uno strato di controllo di qualità.
Per compiti critici, puoi persino strutturare questo nel tuo prompt originale:
Rispondi alla domanda, poi rivedi la tua risposta per accuratezza.
Segnala qualsiasi cosa di cui non sei totalmente sicuro.
Combinare le Tecniche
Nessuna singola tecnica elimina le allucinazioni. Ma combinarle moltiplica l’effetto.
Ecco un template di prompt che incorpora molteplici tecniche:
Ti farò domande su [argomento].
Linee guida:
1. Usa solo informazioni di cui sei sicuro
2. Se sei incerto, di' "non sono sicuro" invece di indovinare
3. Per affermazioni specifiche, nota il tuo livello di fiducia
4. Pensa la tua risposta passo dopo passo
5. Dopo aver risposto, nota brevemente qualsiasi parte che dovrebbe essere verificata
La mia domanda: [tua domanda]
Questo prompt:
- Dà il permesso di esprimere incertezza (Tecnica 1)
- Chiede livelli di fiducia (Tecnica 2)
- Incoraggia il ragionamento passo dopo passo (Tecnica 4)
- Include l’auto-verifica (Tecnica 7)
Quello Che Non Puoi Prevenire
Siamo realisti sui limiti.
L’IA allucinerà comunque a volte, specialmente su:
- Eventi recenti (dopo il cutoff di training)
- Dettagli oscuri (date specifiche, statistiche di nicchia, figure minori)
- Specifiche tecniche (parametri API esatti, dettagli di sintassi del codice)
- Citazioni e riferimenti (spesso li fabrica)
Per qualsiasi cosa dove l’accuratezza è critica:
- Verifica in modo indipendente
- Non fare affidamento sull’IA per le citazioni senza verificarle
- Usa l’IA per bozze e idee, non per fatti finali
La Mentalità della Verifica
La soluzione finale non è una tecnica di prompt—è un cambiamento di mentalità.
Tratta l’output dell’IA come una bozza iniziale che ha bisogno di verifica, non come una risposta finale. Usa l’IA per:
- Generare idee velocemente
- Redigere contenuti che esaminerai
- Esplorare possibilità
- Riassumere materiale che hai fornito
Non usare l’IA come un oracolo che sa cose che tu non sai. Non è così. Predice quello che suona giusto. A volte sbaglia.
Con le tecniche sopra, otterrai risposte sbagliate molto meno spesso. Ma “meno spesso” non significa “mai.”
Fidati, ma verifica.
Riferimento Veloce: Le 7 Tecniche
- Permetti “Non So” — Istruzione esplicita che l’incertezza va bene
- Chiedi Fonti e Citazioni — Ancora le risposte in prove specifiche
- Scomponi le Domande Complesse — Gestisci una parte alla volta
- Usa Chain-of-Thought — “Pensa passo dopo passo” prima di rispondere
- Limita l’Ambito — Domande più ristrette, risposte più brevi
- Fornisci Materiale di Riferimento — Dagli i fatti con cui lavorare
- Chiedi l’Auto-Verifica — Fai che l’IA verifichi la sua stessa risposta
Usale individualmente per miglioramenti rapidi. Combinale per massima affidabilità.
La tua IA è ora molto più affidabile.