La Saggezza della Folla in Machine Learning: Perché i Metodi Ensemble Funzionano

Avete mai sentito parlare della "saggezza della folla"? È quel fenomeno per cui l'opinione media di un gruppo di persone è spesso più accurata del parere di un singolo esperto.

Nel 1907, Francis Galton osservò che in una fiera di bestiame, la media delle stime di 800 persone sul peso di un bue si avvicinava sorprendentemente al peso reale - più di qualsiasi stima individuale.

Come sto scoprendo leggendo "The Book of Why" di Judea Pearl (citato in un mio post precedente), Galton fu anche uno dei primi studiosi, insieme a Karl Pearson, a sviluppare il concetto di correlazione statistica. Curiosamente, entrambi avevano difficoltà ad accettare o formalizzare adeguatamente il concetto di causalità, preferendo concentrarsi sulle relazioni statistiche osservabili piuttosto che sui meccanismi causali sottostanti. Una limitazione che la scienza dei dati moderna sta cercando di superare.

Cosa c'entra questo con il machine learning?

I metodi ensemble applicano esattamente questo principio agli algoritmi. Invece di affidarsi a un singolo modello predittivo, combinano più modelli per ottenere risultati superiori:

  1. Random Forest: aggrega decine o centinaia di alberi decisionali, ciascuno "addestrato" su sottoinsiemi diversi di dati e feature
  2. Gradient Boosting: costruisce modelli in sequenza, dove ogni nuovo modello corregge gli errori dei precedenti
  3. Stacking: combina modelli di diversa natura (SVM, reti neurali, kNN) facendo "votare" le loro previsioni

Perché funzionano così bene?

  1. Riducono la varianza: le fluttuazioni casuali dei singoli modelli si compensano a vicenda
  2. Limitano l'overfitting: diversi modelli "generalizzano" in modi diversi
  3. Aumentano la robustezza: il fallimento di un modello viene mitigato dagli altri

Proprio come nella folla di Galton, dove alcuni sovrastimavano e altri sottostimavano, gli errori tendono a cancellarsi reciprocamente.

La lezione per tutti noi

Che tu sia data scientist, manager o semplicemente interessato all'AI, c'è un insegnamento potente: nelle decisioni complesse, la diversità di prospettive è spesso la via migliore.

A meno che tu non sia Yoda con 900 anni di saggezza galattica alle spalle, probabilmente otterrai risultati migliori combinando diverse opinioni (o modelli) piuttosto che affidandoti a un singolo "esperto"… anche se quest'ultimo parla al contrario e ha le orecchie verdi a punta! 🧠👽

Yoda: Do. Or do Not. There is no Try

Related Post

Marzo 28, 2025
Lezioni sul futuro dell'IA: la visione di Yann LeCun

L'Apprendimento va Oltre il Linguaggio Nella recente conversazione nel podcast di Lex Fridman (episodio 416), Yann LeCun, Chief AI Scientist di Meta, ha proposto una visione dell'intelligenza artificiale che sfida molti dei paradigmi attuali. Una delle sue osservazioni più significative riguarda l'origine dell'intelligenza umana. Secondo LeCun, l'intelligenza non deriva principalmente dal linguaggio, ma dall'esperienza sensoriale […]

Marzo 28, 2025
Correlazione o causalità? L'AI può davvero aiutarci a capire il perché?

Poco fa, mentre guardavo un episodio di Grey's Anatomy, una frase mi ha colpita: "La nostra meta-analisi conferma la correlazione tra il microbioma intestinale e l'Alzheimer." "Bene, allora guardiamo i dati." Ma i dati, da soli, non raccontano tutta la storia. La correlazione ci dice che due fenomeni si muovono insieme, ma non ci dice […]

veronicaschembri
Copyright © Veronica Schembri

Privacy Policy
Cookie Policy