2016-12-22 2 views
1

Kann mir jemand einen hohen Überblick darüber geben, wie gradient decent in der linearen Regression verwendet wird? Ich verstehe, dass gradient decent grundsätzlich ein lokales Minimum effizient findet, aber wie hilft das eigentlich, eine Regression zu Daten zu bilden? Kann mir jemand eine Reihenfolge von Ereignissen geben, in der die Linie tatsächlich zu den Datenpunkten gebildet wird? Ich verstehe, wie man die Steigung eines Punktes berechnet, nur nicht, wie das tatsächlich hilft, die Linie effizienter zu bilden.Welche Rolle spielt der Gradient in der linearen Regression?

Antwort

2

fand ich eine solide Antwort hier: https://spin.atomicobject.com/2014/06/24/gradient-descent-linear-regression/

Der Trick, um dies zu verstehen ist, zu wissen, dass Sie den m und b-Wert von y = mx + b berechnen muss eine Kostenfunktion zu entwickeln, aber das gibt Ihnen ein neuen Datensatz der besten und schlechtesten Anpassungslinien. Sie verwenden dann gradient decent, um im Grunde die niedrigste Fehlerzeile zu finden, die Ihre tatsächlichen m- und b-Werte für die Zeile enthält. Dieser Link hat eine wirklich gute Grafik (in meiner nicht-professionellen Machine-Learning-Meinung), wie das Fehler-Diagramm aussieht und wenn Sie Gradienten-Decent verstehen, können Sie sehen, wie es den Graphen durchlaufen kann, um den niedrigsten Fehler zu finden. Es tut mir leid, dass ich bei dieser Frage auf die Waffe gesprungen bin, aber hoffentlich kann es anderen helfen, die neu im maschinellen Lernen sind!

Verwandte Themen