Verbalized sampling: i suggerimenti di Stanford che sbloccano la creatività nascosta dell’AI
L’AI non era diventata pigra: era solo nascosta
Prima di addentrarmi in questo post, ci tengo a precisare che per me l’AI è un potenziatore del cervello umano, non un sostituto. Sperimentiamo questo nuovo strumento ogni giorno e l’unico suggerimento che mi sento di dare, (soprattutto alle giovani menti) è quello di studiare l’AI e le sue implicazioni ma di mantenere ben attivo il proprio cervello e di stimolarlo ogni giorno, soprattutto se lavorate con la creatività.
Dopo questa piccola premessa ora posso raccontarvi cosa ho letto di interessante.
Se hai mai chiesto a ChatGPT o Claude di raccontarti una barzelletta e, ripetendo la domanda, hai ricevuto sempre la stessa risposta, probabilmente hai pensato: “Il modello è diventato ripetitivo, ha perso creatività”.
Non è così.
Un team di ricercatori delle università di Stanford, Northeastern e West Virginia University ha appena pubblicato uno studio che ribalta completamente questa convinzione: l’AI non ha mai perso la sua creatività – semplicemente noi non sapevamo come tirarla fuori.
Il problema: l’allineamento ha “compresso” i modelli
Per capire cosa sta succedendo, dobbiamo fare un passo indietro e parlare di RLHF (Reinforcement Learning from Human Feedback).
Quando un modello linguistico viene addestrato per diventare un assistente utile, gli sviluppatori usano feedback umani per “allinearlo”. In pratica, valutatori umani confrontano diverse risposte e scelgono quelle migliori.
Il bias di tipicità
Qui emerge il problema: gli umani tendono sistematicamente a preferire risposte “tipiche”, familiari e mediamente ben scritte. Non perché siano cattive, ma perché sembrano più “sicure” e professionali.
Questo introduce quello che i ricercatori chiamano bias di tipicità: il modello impara a privilegiare ciò che sembra “normale” piuttosto che ciò che è creativo o vario.
Il risultato? Un fenomeno tecnico chiamato mode collapse: il modello si “comprime” su un sottoinsieme ristretto di risposte, anche se internamente conosce centinaia di alternative valide.
È come avere una biblioteca con migliaia di libri, ma mostrare sempre gli stessi tre scaffali ai visitatori.
La soluzione: verbalized sampling
I ricercatori hanno sviluppato un metodo chiamato verbalized sampling (VS) che risolve questo problema in modo sorprendentemente semplice.
Come funziona
Invece di chiedere:
“Dammi una risposta”
Chiedi:
“Genera 5 risposte diverse con le relative probabilità, campionate dalla distribuzione completa”
Questo semplice cambio di formulazione induce il modello a “ragionare” sulla sua distribuzione interna, non solo sul massimo locale. In pratica, stai chiedendo al modello di tirare fuori le varianti che normalmente resterebbero sepolte.
I Numeri che fanno girare la testa
I risultati dello studio sono impressionanti:
- Da 1,6x a 2,1x più diversità nelle generazioni creative (storie, poesie, barzellette)
- Recupero del 66,8% della diversità “persa” a causa dell’allineamento
- Nessun degrado di accuratezza o sicurezza
- Maggiori benefici sui modelli avanzati: GPT-4, Claude e altri grandi modelli ottengono guadagni relativi più elevati
Come applicare il Verbalized Sampling: guida pratica
1. Brainstorming Creativo
Prima (metodo tradizionale):
Dammi un titolo per un articolo sul cambiamento climatico
Dopo (Verbalized Sampling):
Genera 5 titoli diversi per un articolo sul cambiamento climatico,
ordinali per probabilità e spiega brevemente l'angolazione di ciascuno
2. Problem Solving Strategico
Prima:
Come posso migliorare l'engagement sui social media?
Dopo:
Proponimi 4 strategie diverse per migliorare l'engagement sui social media,
ordinate per probabilità di successo, dalla più conservativa alla più innovativa
3. Copywriting e Contenuti
Prima:
Scrivi una bio professionale per LinkedIn
Dopo:
Crea 3 versioni diverse di bio professionale per LinkedIn con probabilità:
1) Formale e corporate
2) Bilanciata professionale-personale
3) Creativa e distintiva
4. Sviluppo Prodotto
Prima:
Quali feature dovrei aggiungere alla mia app?
Dopo:
Genera 5 proposte di feature per la mia app [descrizione],
ordinate per probabilità di impatto, con pro e contro di ciascuna
Perché funziona meglio con i Modelli avanzati
Uno degli aspetti più interessanti della ricerca è che i modelli più capaci beneficiano maggiormente del Verbalized Sampling.
GPT-4, Opus, e altri modelli di frontiera mostrano guadagni relativi più elevati rispetto ai modelli base. Questo significa che la “creatività nascosta” è più profonda e ricca nei modelli grandi.
È come se i modelli più intelligenti avessero una biblioteca interna più vasta, e il Verbalized Sampling fosse la chiave per accedervi completamente.
Il Futuro del Prompt Engineering
Se questo metodo si conferma stabile su larga scala, potrebbe cambiare radicalmente il modo in cui pensiamo al prompt engineering.
Dal Trick Creativo alla progettazione distribuzionale
Invece di ingegnarsi con mille variazioni di formulazione, esempi few-shot e chain-of-thought elaborati, il nuovo vero skill sarà saper progettare meta-prompt che espongano la naturale varietà del modello.
Questo include:
- Gestione di trade-off di probabilità
- Definizione di soglie (thresholds)
- Bilanciamento tra diversità e coerenza
- Robustezza nelle richieste
L’Impatto business
Traduciamo questo in termini business: le aziende hanno investito miliardi in:
- Modelli sempre più grandi
- Infrastructure scalabile
- Pipeline di dati raffinate
- Fine-tuning specializzato
E ora scopriamo che una parte significativa del valore potrebbe essere sbloccata semplicemente migliorando il layer di interfaccia umana – il prompt.
Questo significa che nei prossimi anni, la differenziazione competitiva potrebbe emergere più dalla maestria nel design dei prompt distribuzionali che dalla dimensione del modello stesso.
Casi d’Uso Pratici
Marketing e Comunicazione
- Generazione di varianti di copy per A/B testing
- Esplorazione di angolazioni diverse per campagne
- Ideazione di tagline e slogan alternativi
Sviluppo Software
- Esplorazione di approcci architetturali diversi
- Generazione di test case non ovvi
- Brainstorming di edge case
Ricerca e Analisi
- Formulazione di ipotesi alternative
- Esplorazione di interpretazioni diverse dei dati
- Generazione di domande di ricerca
Educazione
- Creazione di spiegazioni multiple per concetti complessi
- Generazione di esercizi con difficoltà graduata
- Esplorazione di analogie e metafore diverse
Conclusione: la creatività era sempre lì
La vera rivoluzione del Verbalized Sampling non è tecnica – è concettuale.
Ci costringe a ripensare la nostra relazione con i modelli AI: non sono diventati meno creativi, noi abbiamo solo imparato a chiedergli sempre le stesse cose nello stesso modo.
La creatività era sempre lì, nascosta sotto strati di allineamento e bias di tipicità. Bastava sapere come chiedere.
E ora lo sappiamo.
Risorse per Approfondire
Prova Subito
La prossima volta che usi ChatGPT o qualsiasi altro LLM, prova questo:
Invece di chiedere una risposta, chiedi 3-5 alternative con probabilità diverse.
Osserva come la qualità e varietà delle risposte cambia radicalmente.
La creatività dell’AI non è perduta – è solo nascosta dietro il modo in cui facciamo le domande.


