Blog,  Risorse,  Stories

Verbalized sampling: i suggerimenti di Stanford che sbloccano la creatività nascosta dell’AI

L’AI non era diventata pigra: era solo nascosta

Prima di addentrarmi in questo post, ci tengo a precisare che per me l’AI è un potenziatore del cervello umano, non un sostituto. Sperimentiamo questo nuovo strumento ogni giorno e l’unico suggerimento che mi sento di dare, (soprattutto alle giovani menti) è quello di studiare l’AI e le sue implicazioni ma di mantenere ben attivo il proprio cervello e di stimolarlo ogni giorno, soprattutto se lavorate con la creatività.

Dopo questa piccola premessa ora posso raccontarvi cosa ho letto di interessante.

Se hai mai chiesto a ChatGPT o Claude di raccontarti una barzelletta e, ripetendo la domanda, hai ricevuto sempre la stessa risposta, probabilmente hai pensato: “Il modello è diventato ripetitivo, ha perso creatività”.

Non è così.

Un team di ricercatori delle università di Stanford, Northeastern e West Virginia University ha appena pubblicato uno studio che ribalta completamente questa convinzione: l’AI non ha mai perso la sua creatività – semplicemente noi non sapevamo come tirarla fuori.

Il problema: l’allineamento ha “compresso” i modelli

Per capire cosa sta succedendo, dobbiamo fare un passo indietro e parlare di RLHF (Reinforcement Learning from Human Feedback).

Quando un modello linguistico viene addestrato per diventare un assistente utile, gli sviluppatori usano feedback umani per “allinearlo”. In pratica, valutatori umani confrontano diverse risposte e scelgono quelle migliori.

Il bias di tipicità

Qui emerge il problema: gli umani tendono sistematicamente a preferire risposte “tipiche”, familiari e mediamente ben scritte. Non perché siano cattive, ma perché sembrano più “sicure” e professionali.

Questo introduce quello che i ricercatori chiamano bias di tipicità: il modello impara a privilegiare ciò che sembra “normale” piuttosto che ciò che è creativo o vario.

Il risultato? Un fenomeno tecnico chiamato mode collapse: il modello si “comprime” su un sottoinsieme ristretto di risposte, anche se internamente conosce centinaia di alternative valide.

È come avere una biblioteca con migliaia di libri, ma mostrare sempre gli stessi tre scaffali ai visitatori.

La soluzione: verbalized sampling

I ricercatori hanno sviluppato un metodo chiamato verbalized sampling (VS) che risolve questo problema in modo sorprendentemente semplice.

Come funziona

Invece di chiedere:

“Dammi una risposta”

Chiedi:

“Genera 5 risposte diverse con le relative probabilità, campionate dalla distribuzione completa”

Questo semplice cambio di formulazione induce il modello a “ragionare” sulla sua distribuzione interna, non solo sul massimo locale. In pratica, stai chiedendo al modello di tirare fuori le varianti che normalmente resterebbero sepolte.

I Numeri che fanno girare la testa

I risultati dello studio sono impressionanti:

  • Da 1,6x a 2,1x più diversità nelle generazioni creative (storie, poesie, barzellette)
  • Recupero del 66,8% della diversità “persa” a causa dell’allineamento
  • Nessun degrado di accuratezza o sicurezza
  • Maggiori benefici sui modelli avanzati: GPT-4, Claude e altri grandi modelli ottengono guadagni relativi più elevati

Come applicare il Verbalized Sampling: guida pratica

1. Brainstorming Creativo

Prima (metodo tradizionale):

Dammi un titolo per un articolo sul cambiamento climatico

Dopo (Verbalized Sampling):

Genera 5 titoli diversi per un articolo sul cambiamento climatico, 
ordinali per probabilità e spiega brevemente l'angolazione di ciascuno

2. Problem Solving Strategico

Prima:

Come posso migliorare l'engagement sui social media?

Dopo:

Proponimi 4 strategie diverse per migliorare l'engagement sui social media,
ordinate per probabilità di successo, dalla più conservativa alla più innovativa

3. Copywriting e Contenuti

Prima:

Scrivi una bio professionale per LinkedIn

Dopo:

Crea 3 versioni diverse di bio professionale per LinkedIn con probabilità:
1) Formale e corporate
2) Bilanciata professionale-personale  
3) Creativa e distintiva

4. Sviluppo Prodotto

Prima:

Quali feature dovrei aggiungere alla mia app?

Dopo:

Genera 5 proposte di feature per la mia app [descrizione],
ordinate per probabilità di impatto, con pro e contro di ciascuna

Perché funziona meglio con i Modelli avanzati

Uno degli aspetti più interessanti della ricerca è che i modelli più capaci beneficiano maggiormente del Verbalized Sampling.

GPT-4, Opus, e altri modelli di frontiera mostrano guadagni relativi più elevati rispetto ai modelli base. Questo significa che la “creatività nascosta” è più profonda e ricca nei modelli grandi.

È come se i modelli più intelligenti avessero una biblioteca interna più vasta, e il Verbalized Sampling fosse la chiave per accedervi completamente.

Il Futuro del Prompt Engineering

Se questo metodo si conferma stabile su larga scala, potrebbe cambiare radicalmente il modo in cui pensiamo al prompt engineering.

Dal Trick Creativo alla progettazione distribuzionale

Invece di ingegnarsi con mille variazioni di formulazione, esempi few-shot e chain-of-thought elaborati, il nuovo vero skill sarà saper progettare meta-prompt che espongano la naturale varietà del modello.

Questo include:

  • Gestione di trade-off di probabilità
  • Definizione di soglie (thresholds)
  • Bilanciamento tra diversità e coerenza
  • Robustezza nelle richieste

L’Impatto business

Traduciamo questo in termini business: le aziende hanno investito miliardi in:

  • Modelli sempre più grandi
  • Infrastructure scalabile
  • Pipeline di dati raffinate
  • Fine-tuning specializzato

E ora scopriamo che una parte significativa del valore potrebbe essere sbloccata semplicemente migliorando il layer di interfaccia umana – il prompt.

Questo significa che nei prossimi anni, la differenziazione competitiva potrebbe emergere più dalla maestria nel design dei prompt distribuzionali che dalla dimensione del modello stesso.

Casi d’Uso Pratici

Marketing e Comunicazione

  • Generazione di varianti di copy per A/B testing
  • Esplorazione di angolazioni diverse per campagne
  • Ideazione di tagline e slogan alternativi

Sviluppo Software

  • Esplorazione di approcci architetturali diversi
  • Generazione di test case non ovvi
  • Brainstorming di edge case

Ricerca e Analisi

  • Formulazione di ipotesi alternative
  • Esplorazione di interpretazioni diverse dei dati
  • Generazione di domande di ricerca

Educazione

  • Creazione di spiegazioni multiple per concetti complessi
  • Generazione di esercizi con difficoltà graduata
  • Esplorazione di analogie e metafore diverse

Conclusione: la creatività era sempre lì

La vera rivoluzione del Verbalized Sampling non è tecnica – è concettuale.

Ci costringe a ripensare la nostra relazione con i modelli AI: non sono diventati meno creativi, noi abbiamo solo imparato a chiedergli sempre le stesse cose nello stesso modo.

La creatività era sempre lì, nascosta sotto strati di allineamento e bias di tipicità. Bastava sapere come chiedere.

E ora lo sappiamo.


Risorse per Approfondire

Prova Subito

La prossima volta che usi ChatGPT o qualsiasi altro LLM, prova questo:

Invece di chiedere una risposta, chiedi 3-5 alternative con probabilità diverse.

Osserva come la qualità e varietà delle risposte cambia radicalmente.

La creatività dell’AI non è perduta – è solo nascosta dietro il modo in cui facciamo le domande.

error: Content is protected !!