Ausgleichsprobleme
Das lineare Ausgleichsproblem
Gegeben sei eine reelle Funktion die neben der
Variablen noch von einem unbekannten Vektor
abhängt. Dabei habe
die Gestalt
hängt also linear von den Komponenten
von ab.
Man kann nun z.B. durch ein Experiment versuchen die unbekannten
zu bestimmen. Dafür macht man
Beobachtungen, d.h. man notiert sich zu
jedem getesteten den Ausgang
des Experiments. Man erhält dann ein lineares
Gleichungssystem in den Unbekannten:
für
beziehungsweise
Schreibt man
mit
, so kann man das Problem auch
als darstellen. Dieses lineare
Gleichungssystem kann genau dann eindeutig gelöst werden, wenn
der Rang von voll ist, d.h. wenn er
beträgt.
Hat man dagegen mehr Beobachtungen gemacht als man Parameter
hat, so wird das entstandene lineare Gleichungssystem wegen
Messfehlern im Allgemeinen keine Lösung mehr besitzen. Liegen
also Messungen vor, wobei sei, erhält man wieder ein Gleichungssystem der
Form , aber mit
und
. In diesem Falle kann man
aber nach einer Lösung fragen, die die Messdaten in einem
gewissen Sinne noch ganz gut trifft (salopp also
erfüllt). Als geeignetes
Maß hat sich erwiesen, die Differenz von
und im Sinne der euklidischen Norm auf dem
möglichst klein zu
bekommen. Der Differenzvektor heißt
Residuum. Das Ziel ist also eine Lösung zu folgendem
Problem zu bestimmen:
minimiere
über alle
Da Quadrieren das Problem nicht verändert, betrachtet man:
minimiere
über alle
Dieses Problem nennt man das lineare Ausgleichsproblem. Die
Lösung kann man mittels der QR-Zerlegung von
finden. Man stellt dabei
als Produkt einer orthogonalen Matrix
und einer -Matrix
dar, deren oberer Teil aus einer oberen Dreiecksmatrix
besteht:
Weil orthogonale Matrizen die euklidische Norm invariant lassen,
gilt
wenn man den Vektor
mit
und
wie folgt
partitioniert:
Daran sieht man, dass genau das den Term
minimiert,
welches löst. Das Ergebnis schreibt man
auch als , wobei
die sog.
Pseudoinverse von ist. Die minimale
Residuumsnorm beträgt in diesem Fall
.
Das nichtlineare Ausgleichsproblem
Hierbei geht es allgemein um die Minimierung einer Funktion
. Allerdings
ist bekannt dass die Form
hat.
Die Komponenten der Abbildung
heißen
Residuen. Wieder sollen also die unbekannten
so bestimmt werden, dass
dieser Term möglichst klein ist. Dies ist im Allgemeinen nicht
mehr direkt zu lösen, sondern man muss mit iterativen
Methoden arbeiten, die ausgehend von einer
Näherungslösung eine Folge
erzeugen, die hoffentlich
gegen eine Lösung des Problems konvergiert.
Das Gauß-Newton-Verfahren
Anpassung von Funktionen
Möchte man eine nichtlineare Funktion
durch gegebene Messpunkte
laufen lassen,
so ist dies sicherlich nicht immer möglich. Aber man kann
fordern, dass an jedem Punkt die Differenz von
und
möglichst klein sein soll.
Genauer: Es ist das
gesucht, für das der
Term
minimal wird. Mit
ist dies also ein
nichtlineares Ausgleichsproblem wie im vorherigen Abschnitt.
Das folgende Programm ermöglicht eine solche Anpassung von
einer beliebigen Funktion an beliebige Daten. Als Methoden stehen
sowohl das ungedämpfte als auch das gedämpfte
Gauß-Newton-Verfahren zur Verfügung. Schafft das Programm
keine Anpassung, steckt die Folge
also z.B. in einem lokalen
Minimum fest, so hilft es meist nur die Anfangsvorgabe zu
verbessern.
|