Bootstrap aggregating

Illustration des Baggingkonzeptes

Bootstrap aggregating (Bagging) ist eine Methode, um Vorhersagen aus verschiedenen Regressions- oder Klassifikationsmodellen (mit hoher Varianz in der Vorhersage) zu kombinieren und dadurch die Varianz zu verringern. Die Methode wurde ursprünglich von Leo Breiman entwickelt.[1] Die Ergebnisse der Modelle werden dann im einfachsten Fall gemittelt, d. h. das Ergebnis jeder Modellvorhersage geht mit gleichem Gewicht in die Vorhersage ein.

Im Idealfall werden mithilfe des Bootstrapping-Verfahrens Stichprobenwiederholungen des Umfanges aus dem Originaldatensatz erzeugt und auf diesen werden dann Vorhersagemodelle () trainiert. Für einen Wert ergeben sich dann Vorhersagewerte . Ist der Vorhersagewert eine Klassenzugehörigkeit, dann könnte die am häufigsten vorhergesagte Klasse als Vorhersagewert genommen werden. Im Regressionsfall ergibt sich der Vorhersagewert als

oder allgemein mit Gewichten

.

Die Gewichte, sowohl im Klassifikations- als auch im Regressionsfall, könnten z. B. von der Qualität der Modellvorhersage abhängen, d. h. „gute“ Modelle gehen mit einem größeren Gewicht ein als „schlechte“ Modelle.

Das Bagging führt im Fall von instabilen Modellen, d. h. Modellen, in denen sich die Struktur stark in Abhängigkeit von den Stichprobendaten ändert (siehe z. B. Classification and Regression Trees), meist zu deutlich verbesserten Vorhersagen.

Siehe auch

Einzelnachweise

  1. Leo Breiman: Bagging predictors. In: Machine Learning. 24, Nr. 2, 1996, S. 123–140. doi:10.1007/BF00058655.

Literatur

  • Ian H. Witten, Eibe Frank, Mark A. Hall (2011), Data Mining: Practical Machine Learning Tools and Techniques (Third Edition), Morgan Kaufmann

Auf dieser Seite verwendete Medien

Ensemble Bagging.svg
Autor/Urheber: Sirakorn, Lizenz: CC BY-SA 4.0
Illustration of a bootstrap aggregating (bagging) method for ensemble learning.