Was ist die Methode der kleinsten Quadrate?
Die Methode der kleinsten Quadrate ist eine Form der mathematischen Regressionsanalyse, mit der die bestmögliche Anpassung für einen Datensatz ermittelt und die Beziehung zwischen den Datenpunkten visuell demonstriert wird. Jeder Datenpunkt repräsentiert die Beziehung zwischen einer bekannten unabhängigen Variablen und einer unbekannten abhängigen Variablen.
Was sagt Ihnen die Methode der kleinsten Quadrate?
Die Methode der kleinsten Quadrate liefert die allgemeine Begründung für die Platzierung der Best-Fit-Linie unter den untersuchten Datenpunkten. Die gebräuchlichste Anwendung dieses Verfahrens, das manchmal als "linear" oder "gewöhnlich" bezeichnet wird, zielt darauf ab, eine gerade Linie zu erzeugen, die die Summe der Quadrate der Fehler minimiert, die durch die Ergebnisse der zugehörigen Gleichungen erzeugt werden, wie z als die quadrierten Residuen, die sich aus Unterschieden im beobachteten Wert ergeben, und den erwarteten Wert, der auf diesem Modell basiert.
Diese Methode der Regressionsanalyse beginnt mit einer Reihe von Datenpunkten, die in einem Diagramm auf der x- und y-Achse dargestellt werden sollen. Ein Analytiker, der die Methode der kleinsten Fehlerquadrate verwendet, generiert eine Best-Fit-Linie, die die potenzielle Beziehung zwischen unabhängigen und abhängigen Variablen erklärt.
In der Regressionsanalyse werden abhängige Variablen auf der vertikalen y-Achse dargestellt, während unabhängige Variablen auf der horizontalen x-Achse dargestellt werden. Diese Bezeichnungen bilden die Gleichung für die Best-Fit-Linie, die nach der Methode der kleinsten Quadrate bestimmt wird.
Im Gegensatz zu einem linearen Problem hat ein nichtlineares Problem der kleinsten Quadrate keine geschlossene Lösung und wird im Allgemeinen durch Iteration gelöst. Die Entdeckung der Methode der kleinsten Quadrate wird Carl Friedrich Gauss zugeschrieben, der die Methode 1795 entdeckte.
Die zentralen Thesen
- Die Methode der kleinsten Quadrate ist ein statistisches Verfahren zum Ermitteln der besten Anpassung für einen Satz von Datenpunkten durch Minimieren der Summe der Offsets oder Residuen von Punkten aus der gezeichneten Kurve. Die Regression der kleinsten Quadrate wird verwendet, um das Verhalten abhängiger Variablen vorherzusagen.
Beispiel für die Methode der kleinsten Quadrate
Ein Beispiel für die Methode der kleinsten Quadrate ist ein Analyst, der die Beziehung zwischen den Aktienrenditen eines Unternehmens und den Renditen des Index, für den die Aktie eine Komponente ist, testen möchte. In diesem Beispiel versucht der Analyst, die Abhängigkeit der Aktienrenditen von den Indexrenditen zu testen. Um dies zu erreichen, werden alle Renditen in einem Diagramm dargestellt. Die Indexrenditen werden dann als unabhängige Variable bezeichnet, und die Aktienrenditen sind die abhängige Variable. Die Best-Fit-Linie liefert dem Analytiker Koeffizienten, die den Grad der Abhängigkeit erklären.
Die Linie der Best-Fit-Gleichung
Die aus der Methode der kleinsten Quadrate ermittelte Best-Fit-Linie hat eine Gleichung, die die Beziehung zwischen den Datenpunkten beschreibt. Die Linie der Best-Fit-Gleichungen kann durch Computersoftwaremodelle bestimmt werden, die eine Zusammenfassung der zu analysierenden Ausgaben enthalten, wobei die Koeffizienten und die zusammenfassenden Ausgaben die Abhängigkeit der zu testenden Variablen erklären.
Regressionsgerade der kleinsten Quadrate
Wenn die Daten eine schlankere Beziehung zwischen zwei Variablen aufweisen, wird die Linie, die am besten zu dieser linearen Beziehung passt, als Regressionslinie der kleinsten Quadrate bezeichnet, wodurch der vertikale Abstand zwischen den Datenpunkten und der Regressionslinie minimiert wird. Der Begriff "kleinste Fehlerquadrate" wird verwendet, da es sich um die kleinste Summe von Fehlerquadraten handelt, die auch als "Varianz" bezeichnet wird.