La famiglia degli algoritmi Gradient Boosting rientra in una serie di potenti algoritmi che possono essere utilizzati sia per le attività di classificazione che di regressione. Chiamati anche Gradient Boosting Machine (GBM), sono stati utilizzati in applicazioni come la classificazione del testo, in sperimentazioni per classificare azioni fisiche tramite Elettromiografia (o EMG, una tecnica di […]
Adaptive Boosting (AdaBoost) in Python
Nel precedente articolo abbiamo visto cos’è e come funziona l’algoritmo Adaptive Boosting (o brevemente AdaBoost), una tecnica di ensemble learning che permette di avvalersi di classificatori deboli sequenziali per problemi di classificazione binaria. Questi ultimi vengono utilizzati per formare un classificatore forte. Infatti, un algoritmo preso singolarmente può classificare male gli oggetti. Ma se combiniamo […]
Cos’è l’algoritmo Adaptive Boosting (AdaBoost)?
La maggior parte dei problemi di machine learning si focalizzano sull’eseguire una predizione con un singolo modello. In altri casi è possibile avvalersi dei risultati di più predizioni di modelli diversi per ottenere il risultato finale. Questo è ciò che fanno gli algoritmi Boosting. In particolare in questa sede ci concentriamo su un tipo di […]
Regressore di foresta casuale: esempio di previsione del valore di una azione
La random forest viene generalmente considerata una tecnica di classificazione, ma è in grado di gestire anche problemi di regressione. Abbiamo già visto cos’è la foresta casuale e come essa può essere utilizzata per risolvere problemi di classificazione. In questo articolo vediamo come utilizzare un regressore di foresta casuale per risolvere un problema di regressione: […]
Classificatore di Foresta Casuale in Python
La foresta casuale (o Random Forest) è un tipo di algoritmo di apprendimento automatico supervisionato basato sull’apprendimento di più modelli previsionali per formare un unico modello di previsione più potente. Ogni modello utilizzato dalla previsione del Random Forest di solito è un albero decisionale. Ciò significa che una foresta casuale combina molti alberi decisionali in un […]
Come l’algoritmo Random Forest migliora le previsioni degli alberi decisionali
Nella scorsa edizione del torneo mondiale di calcio, svoltosi in Russia, alcuni studiosi* hanno tentato di prevedere il vincitore del torneo della coppa del mondo. Dopo una simulazione di centomila competizioni, è emerso che la maggiore probabilità di vittoria l’avevano la Spagna (88%) e la Germania (86%). Il vero vincitore, la Francia risaliva invece al […]