ich war hier: GradientBoosting

Revision history for GradientBoosting


Revision [91616]

Last edited on 2018-10-01 15:36:00 by Tobias Dietz
Additions:
1) Die Tiefe des Entscheidungsbaums. Diese hat auch einen direkten Einfluss auf die Anzahl an Endregionen. Die Anzahl an Endregionen verdoppelt sich, mit zunehmender Tiefe. Dies erhöht die Rechenzeit zusätzlich.
Deletions:
1) Die Tiefe des Entscheidungsbaums


Revision [91612]

Edited on 2018-10-01 14:36:35 by Tobias Dietz
Additions:
=====Erklärung=====
1) Die Größe des Trainingsraums. Dies verringert die Trainingszeit und kann die Varianz verringern. Der Wert kann zwischen 0 und 1 liegen, wobei 1 bedeutet, dass alle Daten der Trainingsmenge verwendet werden. [1]
Deletions:
=====Erklärung===== [1]
1) Die Größe des Trainingsraums. Dies verringert die Trainingszeit und kann die Varianz verringern. Der Wert kann zwischen 0 und 1 liegen, wobei 1 bedeutet, dass alle Daten der Trainingsmenge verwendet werden.


Revision [91611]

Edited on 2018-10-01 14:36:01 by Tobias Dietz
Additions:
=====Erklärung===== [1]
Deletions:
=====Erklärung=====


Revision [91610]

Edited on 2018-10-01 14:34:54 by Tobias Dietz
Additions:
=====Parameter=====
Um die optimale Leistung des Algorithmus zu erreichen, ist es Wichtig, dass verschiedene Parameter berücksichtigt werden. Die wichtigsten werden hier kurz vorgestellt:
1) Die Tiefe des Entscheidungsbaums
1) Eine Schrumpf bzw. Lernrate, welche eine Überanpassung an die neue Hypothese verhindert. Diese hat einen Wert zwischen 0 und 1. Ein Standardwert hierfür ist 0,1.
1) Die Größe des Trainingsraums. Dies verringert die Trainingszeit und kann die Varianz verringern. Der Wert kann zwischen 0 und 1 liegen, wobei 1 bedeutet, dass alle Daten der Trainingsmenge verwendet werden.


Revision [91609]

Edited on 2018-10-01 14:27:51 by Tobias Dietz
Additions:
1) Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt
3) Trainieren des Entscheidungsbaums mit den Gradienten als Zielwert
3) Bilden der Schrittweite für jede Endregion des Entscheidungsbaums
3) Aktualisieren der Entscheidungsfunktion
Deletions:
1) Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt
3) Trainieren des Entscheidungsbaums mit den Gradienten als Zielwert
3) Bilden der Schrittweite für jede Endregion des Entscheidungsbaums
3) Aktualisieren der Entscheidungsfunktion


Revision [91608]

Edited on 2018-10-01 14:27:35 by Tobias Dietz
Additions:
2) Wiederholen von folgenden für T Iterationen:
1) Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt
3) Trainieren des Entscheidungsbaums mit den Gradienten als Zielwert
3) Bilden der Schrittweite für jede Endregion des Entscheidungsbaums
3) Aktualisieren der Entscheidungsfunktion
Deletions:
2)
1) 2) Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt
3)


Revision [91607]

Edited on 2018-10-01 14:23:20 by Tobias Dietz
Additions:
1) 2) Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt
Deletions:
2) 1) Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt


Revision [91606]

Edited on 2018-10-01 14:23:11 by Tobias Dietz
Additions:
2) 1) Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt
Deletions:
2) 1)Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt


Revision [91605]

Edited on 2018-10-01 14:23:05 by Tobias Dietz
Additions:
2) 1)Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt
Deletions:
2) 1)Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt


Revision [91604]

Edited on 2018-10-01 14:22:52 by Tobias Dietz
Additions:
Gradient Boosting versucht sich durch mehrer Iterationen an den minimalen Fehler anzunähern. Das geschieht durch Anwendung der stepest descent Methode. Hierfür wird zu jedem Merkmalvektor ein Gradient gebildet, welchen der Algorithmus für das Training berücksichtigt. So nähert er sich durch viele Iterationen mehr und mehr einem minimalen Fehler an. Meist wird Boosting mit einem Entscheidungsbaum als Grundlage verwendet.[1]
2)
2) 1)Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt
3)
Deletions:
Gradient Boosting versucht sich durch mehrer Iterationen an den minimalen Fehler anzunähern. Das geschieht durch Anwendung der stepest descent Methode. Hierfür wird zu jedem Merkmalvektor ein Gradient gebildet, welchen der Algorithmus für das Training berücksichtigt. So nähert er sich durch viele Iterationen mehr und mehr einem minimalen Fehler an. [1]


Revision [91603]

Edited on 2018-10-01 14:14:46 by Tobias Dietz
Additions:
Quelle:[2] vgl. [1]
1) Initialisierung der Funktionswerte gemäß der Verteilung der Parameter. Im binären Fall, wenn eine Gleichverteilung vorliegt, wird mit 0,5 initialisiert.
Deletions:
Quelle:[2] [1]


Revision [91594]

Edited on 2018-10-01 01:59:32 by Tobias Dietz
Additions:
[[https://xgboost.readthedocs.io/en/latest/# XGBoost]]


Revision [91593]

Edited on 2018-10-01 01:58:23 by Tobias Dietz
Additions:
=====Implementationen=====
[[http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.GradientBoostingClassifier.html Gradient Boosting Phyton]]


Revision [91592]

Edited on 2018-10-01 01:56:29 by Tobias Dietz
Additions:
[2] Dietz T. (2018): Bachelorarbeit “Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden
Deletions:
{{files}}


Revision [91591]

Edited on 2018-10-01 01:55:53 by Tobias Dietz
Additions:
Quelle:[2] [1]
Deletions:
Quelle:[2], vgl [1]


Revision [91590]

Edited on 2018-10-01 01:55:23 by Tobias Dietz
Additions:
Quelle:[2], vgl [1]


Revision [91589]

Edited on 2018-10-01 01:54:52 by Tobias Dietz
Additions:
{{image url="gradient_boosting.PNG" title="Gradient Boosting" alt="Gradient Boosting"}}
Deletions:
{{image url="url" title="text" alt="text"}}


Revision [91588]

Edited on 2018-10-01 01:53:32 by Tobias Dietz
Additions:
{{files}}


Revision [91587]

Edited on 2018-10-01 01:50:53 by Tobias Dietz
Additions:
Gradient Boosting versucht sich durch mehrer Iterationen an den minimalen Fehler anzunähern. Das geschieht durch Anwendung der stepest descent Methode. Hierfür wird zu jedem Merkmalvektor ein Gradient gebildet, welchen der Algorithmus für das Training berücksichtigt. So nähert er sich durch viele Iterationen mehr und mehr einem minimalen Fehler an. [1]
{{image url="url" title="text" alt="text"}}
Deletions:
Gradient Boosting versucht sich durch mehrer Iterationen an den minimalen Fehler anzunähern. Das geschieht durch Anwendung der stepest descent Methode. Hierfür wird zu jedem Merkmalvektor ein Gradient gebildet, welchen der Algorithmus für das Training berücksichtigt. So nähert er sich durch viele Iterationen mehr und mehr dem Minimum. [1]
=====Praktische Umsetzungen=====


Revision [91479]

Edited on 2018-09-28 16:50:59 by Tobias Dietz
Additions:
Gradient Boosting versucht sich durch mehrer Iterationen an den minimalen Fehler anzunähern. Das geschieht durch Anwendung der stepest descent Methode. Hierfür wird zu jedem Merkmalvektor ein Gradient gebildet, welchen der Algorithmus für das Training berücksichtigt. So nähert er sich durch viele Iterationen mehr und mehr dem Minimum. [1]

[1] Hastie T., Tibshirani R. and Friedman J. (2009): Elements of Statistical Learning - Data Mining, Inference, and Prediction; Springer


Revision [91445]

The oldest known version of this page was created on 2018-09-28 02:31:21 by Tobias Dietz
Valid XHTML :: Valid CSS: :: Powered by WikkaWiki