ich war hier: GradientBoosting

Version [91608]

Dies ist eine alte Version von GradientBoosting erstellt von Tobias Dietz am 2018-10-01 14:27:35.

 

Gradient Boosting

Idee

Gradient Boosting versucht sich durch mehrer Iterationen an den minimalen Fehler anzunähern. Das geschieht durch Anwendung der stepest descent Methode. Hierfür wird zu jedem Merkmalvektor ein Gradient gebildet, welchen der Algorithmus für das Training berücksichtigt. So nähert er sich durch viele Iterationen mehr und mehr einem minimalen Fehler an. Meist wird Boosting mit einem Entscheidungsbaum als Grundlage verwendet.[1]

Algorithmus

Gradient Boosting
Quelle:[2] vgl. [1]

Erklärung

  1. Initialisierung der Funktionswerte gemäß der Verteilung der Parameter. Im binären Fall, wenn eine Gleichverteilung vorliegt, wird mit 0,5 initialisiert.
  1. Wiederholen von folgenden für T Iterationen:
  1. Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt
  1. Trainieren des Entscheidungsbaums mit den Gradienten als Zielwert
  1. Bilden der Schrittweite für jede Endregion des Entscheidungsbaums
  1. Aktualisieren der Entscheidungsfunktion


Implementationen

Gradient Boosting Phyton
XGBoost

Literatur

[1] Hastie T., Tibshirani R. and Friedman J. (2009): Elements of Statistical Learning - Data Mining, Inference, and Prediction; Springer
[2] Dietz T. (2018): Bachelorarbeit “Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden
Diese Seite wurde noch nicht kommentiert.
Valid XHTML :: Valid CSS: :: Powered by WikkaWiki