Gauß-Helmert Modell der Ausgleichungsrechnung

Vorwort

Dieser Artikel behandelt das Gauß-Helmert-Modell (GHM) in seiner allgemeinsten Form. Hierzu sollte der Leser bereits grundlegende Kenntnisse über die Methode der kleinsten Quadrate besitzen. Eine kurze Einführung gibt es (hier).

Basierend auf den Grundlagen dieses Artikels und der darin zitierten Publikationen werden in folgenden Artikeln Beispiele zur Ausgleichung von:

vorgestellt.

Kleinste Quadrate mittels Matrizengleichungen

Das Gauß-Helmert-Modell lässt sich besonders elegant mittels Matrizen und Vektoren (nachfolgend in Fettschrift) darstellen. Für die Zielfunktion (,,Gauss’sche Minimumsbedingung“)

(1)   \begin{equation*} \sum\limits_{i=1}^{n} v_iv_i \rightarrow min. \end{equation*}

lautet die Vektornoation

(2)   \begin{equation*} \mathbf{v}^T\mathbf{v} \rightarrow min. \end{equation*}

Um Beobachtungen mit unterschiedlichen Genauigkeiten oder Korrelationen zu berücksichtigen wird die Kofaktormatrix der Beobachtungen \mathbf{Q}_{ll} eingeführt. Deren Elemente haben folgendes Muster

(3)   \begin{equation*} \mathbf{Q}_{ll} =  \frac{1}{\sigma _0^2}\begin{bmatrix} \sigma _{l_1}^2 & \sigma _{l_1} \sigma _{l_2} \rho _{l_{1,2}} & \hdots & \sigma _{l_1} \sigma _{l_{n-1}} \rho _{l_{1,n-1}} & \sigma _{l_1} \sigma _{l_n} \rho _{l_{1,n}} \\ \sigma _{l_2} \sigma _{l_1} \rho _{l_{2,1}} & \sigma _{l_2}^2 & \text{} & \text{} & \sigma _{l_2} \sigma _{l_n} \rho _{l_{2,n}} \\ \vdots & \text{} & \text{} & \ddots & \vdots \\ \sigma _{l_{n-1}} \sigma _{l_1} \rho _{l_{n-1,1}} & \text{} & \text{} & \text{} & \sigma _{l_{n-1}} \sigma _{l_n} \rho _{l_{n-1,n}} \\ \sigma _{l_n} \sigma _{l_1} \rho _{l_{n,1}} & \sigma _{l_n} \sigma _{l_2} \rho _{l_{n,2}} & \hdots & \sigma _{l_n} \sigma _{l_{n-1}} \rho _{l_{n,n-1}} & \sigma _{l_n}^2 \end{bmatrix}. \end{equation*}

Darin enthalten ist der a priori Varianzfaktor \sigma _0, Standardabweichungen der Beobachtungen \sigma _{l_i} sowie die Korrelationen zwischen den Beobachtungen \rho _{l_{i,j}}. Sind die Beobachtungen unkorreliert, so reduziert sich \mathbf{Q}_{ll} auf ihre Hauptdiagonale. Für gleichgenaue und unkorrelierte Beobachtungen kann sie wegen \mathbf{Q}_{ll} = \mathbf{E} auch vernachlässigt werden. Die Inverse \mathbf{Q}_{ll}^{-1}=\mathbf{P}_{ll} wird als Gewichtsmatrix der Beobachtungen bezeichnet. Mit Berücksichgung der unterschiedlichen Genauigkeitsrelationen ändert sich die Zielfunktion (2) in

(4)   \begin{equation*} \mathbf{v}^T\mathbf{P}_{ll}\mathbf{v} \rightarrow min. \end{equation*}

Für die Ausgleichung können lineare sowie nichtlineare Funktionen verwendet werden. Diese werden im nachfolgenden Abschnitten als Bedingungsgleichungen \mathbf{\psi} bezeichnet, weil sie die Nebenbedingungen für die Minimumsuche bilden. Diese hängen von zwei Unbekannten-Vektoren, Verbesserungen \mathbf{\hat v} und Parameter \mathbf{\hat x} ab. Das Minimum von (4) wird üblicherweise mit der Methode von Lagrange bestimmt. In KRABS (1979)1 wird gezeigt, dass das Minimum einer Funktion f(x,v) mit der Nebenbedingung g(x,v) durch eine geschickte Umformulierung in f(x,v) - k\cdot g(x,v) gefunden werden kann, wobei k die Lagrange-Multiplikatoren (Korrelaten) repräsentieren. Somit lautet die zu lösende Lagrange-Funktion

(5)   \begin{equation*} f_1 = \underbrace{\underset{(1\times b)}{\mathbf{v}^T}\underset{(b\times b)} {\mathbf{P}_{ll}}\underset{(b\times 1)}{\mathbf{v}}}_{1\times 1}  - \underbrace{\underset{(1\times n)}{\mathbf{k}_m^T}\underset{ ( n \times 1 )}{ \mathbf{\psi(\hat x, \mathbf{l} + \hat v )}}}_{1\times 1}. \end{equation*}

Bei Verwendung von nichtlinearen Bedingungsgleichungen wird diese Form nur selten geschlossen lösbar sein. Eine lineare Form entsteht durch Anwendung der Taylor-Linearisierung gemäß BÖCK (1961)2 an der Stelle der Näherungswerte für die Unbekannten \mathbf{x}_0, \mathbf{l} + \mathbf{v}_0.

(6)   \begin{equation*}  \mathbf{A} = \begin{bmatrix} \frac{\partial \mathbf{\psi}_{1} \mathbf{(l+v,x)}}{\partial \mathbf{x}_{1}} & \frac{\partial \mathbf{\psi}_{1} \mathbf{(l+v,x)}}{\partial \mathbf{x}_{2}} & \hdots & \frac{\partial \mathbf{\psi}_{1} \mathbf{(l+v,x)}}{\partial \mathbf{x}_{u}} \\ \frac{\partial \mathbf{\psi}_{2} \mathbf{(l+v,x)}}{\partial \mathbf{x}_{1}} & \frac{\partial \mathbf{\psi}_{2} \mathbf{(l+v,x)}}{\partial \mathbf{x}_{2}} & \hdots & \frac{\partial \mathbf{\psi} _{2}\mathbf{(l+v,x)}}{\partial \mathbf{x}_{u}} \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial \mathbf{\psi} _{n}\mathbf{(l+v,x)}}{\partial \mathbf{x}_{1}} & \frac{\partial \mathbf{\psi} _{n}\mathbf{(l+v,x)}}{\partial \mathbf{x}_{2}} & \hdots & \frac{\partial \mathbf{\psi} _{n}\mathbf{(l+v,x)}}{\partial \mathbf{x}_{u}} \\ \end{bmatrix} \end{equation*}

(7)   \begin{equation*}  \mathbf{B} = \left[ \begin{matrix} \frac{\partial \mathbf{\psi}_{1} \mathbf{(l+v,x)}}{\partial \mathbf{v}_{1,dim_{1}}} & 0 & \hdots & 0 \\ 0 & \frac{\partial \mathbf{\psi}_{2} \mathbf{(l+v,x)}}{\partial \mathbf{v}_{2,dim_{1}}} & 0 & \vdots \\ \vdots & 0 & \ddots & 0 \\ 0 & \hdots & 0 & \frac{\partial \mathbf{\psi}_{n}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{n,dim_{1}}} \\ \end{matrix} \right. \end{equation*}

    \begin{equation*} \left. \begin{matrix} \frac{\partial \mathbf{\psi}_{1}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{1,dim_{2}}} & 0 & \hdots & 0 \\ 0 & \frac{\partial \mathbf{\psi}_{2}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{2,dim_{2}}} & 0 & \vdots \\ \vdots & 0 & \ddots & 0 \\ 0 & \hdots & 0 & \frac{\partial \mathbf{\psi}_{n}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{n,dim_{2}}} \\ \end{matrix} \right. \left. \begin{matrix} \frac{\partial \mathbf{\psi}_{1}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{1,dim_{d}}} & 0 & \hdots & 0 \\ 0 & \frac{\partial \mathbf{\psi} _{2}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{2,dim_{d}}} & 0 & \vdots \\ \vdots & 0 & \ddots & 0 \\ 0 & \hdots & 0 & \frac{\partial \mathbf{\psi}_{n}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{n,dim_{d}}} \\ \end{matrix} \right] \end{equation*}

In diesem Lösungsschema werden die Parameter als Zuschlag zu den Näherungswerten \mathbf{ \hat x } - \mathbf{x}_0 berechnet, während die Verbesserungen vollständig aus der Lösung hervorgehen. Auf die Einführung einer approximierten Lösung, in der eine Linearisierung an der Stelle \psi(\mathbf{x}_0,\mathbf{0}) durchführt wird, wird in diesem Beitrag verzichtet. Nachteile einer solcher Approximation werden ausführlich in BOPP et. al. (1978)3, LENZMANN et. al. (2004)4 sowie NEITZEL (2008)5 diskutiert. Die Autoren der letztgenannten Artikel werden sich einig, dass die approximierte Lösung, welche von differenziell kleinen Verbesserungen ausgeht, unter bestimmten Bedingungen zu qualitativ schlechteren Ergebnissen führt.

Mit dieser linearen Nebenbedingung entsteht eine lineare Form zur Gleichung (5)

(8)   \begin{equation*} f_2 = \underbrace{\underset{(1\times b)}{\mathbf{v}^T}\underset{(b\times b)} {\mathbf{P}_{ll}}\underset{(b\times 1)}{\mathbf{v}}}_{1\times 1} + \underbrace{\underset{(1\times u)}{\mathbf{x}^T}\underset{(u\times u)} {\mathbf{P}_{xx}}\underset{(u\times 1)}{\mathbf{x}}}_{1\times 1}  -\underbrace{\underset{(1\times n)}{2\mathbf{k}^T_m}(\underset{(n\times u)}{\mathbf{A}}\underset{(u\times 1)}{\mathbf{x}}+\underset{(n\times b)}{\mathbf{B}}\underset{(b\times 1)}{\mathbf{v}}+\underset{(n\times 1)}{  \mathbf{w}_m })}_{1\times 1}. \end{equation*}

Damit die Ableitungen einfache Formen erhalten, werden Korrelaten in der geodätischen Ausgleichungsrechnung als 2\mathbf{k} formuliert. Zusätzlich können, wie in CASPARY (2007)6 gezeigt, auch stochastische Parameter in die Ausgleichung einfließen, ohne auf Pseudobeobachtungen zurückgreifen zu müssen. Hierfür wird die Lagrange-Funktion um den Term \mathbf{x}^T\mathbf{P}_{xx}\mathbf{x} erweitert. Die Form der Parameter-Gewichtsmatrix \mathbf{P}_{xx} = \mathbf{Q}_{xx,a priori}^{-1} entspricht dabei der Gleichung (3)

    \begin{equation*} \mathbf{Q}_{xx,a priori} =  \end{equation*}

(9)   \begin{equation*} = \frac{1}{\sigma _0^2}\begin{bmatrix} \sigma _{u_1}^2 & \sigma _{u_1} \sigma _{u_2} \rho _{u_{1,2}} & \hdots & \sigma _{u_1} \sigma _{u_{n-1}} \rho _{u_{1,n-1}} & \sigma _{u_1} \sigma _{u_n} \rho _{u_{1,n}} \\ % \sigma _{u_2} \sigma _{u_1} \rho _{u_{2,1}} & \sigma _{u_2}^2 & \text{} & \text{} & \sigma _{u_2} \sigma _{u_n} \rho _{u_{2,n}} \\ % \vdots & \text{} & \text{} & \ddots & \vdots \\ % \sigma _{u_{n-1}} \sigma _{u_1} \rho _{u_{n-1,1}} & \text{} & \text{} & \text{} & \sigma _{u_{n-1}} \sigma _{u_n} \rho _{u_{n-1,n}} \\ % \sigma _{u_n} \sigma _{u_1} \rho _{u_{n,1}} & \sigma _{u_n} \sigma _{u_2} \rho _{u_{n,2}} & \hdots & \sigma _{u_n} \sigma _{u_{n-1}} \rho _{u_{n,n-1}} & \sigma _{u_n}^2 \end{bmatrix}. \end{equation*}

Auch diese Gewichtsmatrix reduziert sich auf ihre Hauptdiagonale sobald die Parameter unkorreliert sind. Sind die Parameter deterministisch, so kann der ganze Term \mathbf{x}^T\mathbf{P}_{xx}\mathbf{x} wegen \mathbf{P}_{xx} = \mathbf{0} auch vernachlässigt werden.

Bestimmung des Minimums

Um das Minimum der Lagrange-Funktion zu finden wird angenommen, dass f_2 kein Maximum und keine Sattelpunkte besitzt. Dadurch ist es möglich, wie in MIKHAIL (1982 S. 215ff.)7 gezeigt, das Minimum durch die Nullsetzung der ersten Ableitungen zu finden.

(10)   \begin{align*} \frac{ \partial f_2}{\partial \mathbf{x}} = 2 \mathbf{x}^T\mathbf{P}_{xx} - 2 \mathbf{k}^T_m\mathbf{A} &= \mathbf{0} \\ % 2 \mathbf{P}_{xx}\mathbf{x} - 2 \mathbf{A}^{T}\mathbf{k}_m &= \mathbf{0} \qquad{} | : -2 \\ % \mathbf{A}^{T}\mathbf{k}_m - \mathbf{P}_{xx}\mathbf{x} &= \mathbf{0}  \end{align*}

(11)   \begin{align*} \frac{ \partial f_2}{\partial \mathbf{v}} = 2\mathbf{v}^T\mathbf{P}_{ll} - 2\mathbf{k}^T_m\mathbf{B} &= \mathbf{0}\\ % 2\mathbf{P}_{ll}\mathbf{v} - 2\mathbf{B}^T\mathbf{k}_m &= \mathbf{0} \qquad{} | : -2 \\   % \mathbf{B}^T\mathbf{k}_m -\mathbf{P}_{ll}\mathbf{v} &= \mathbf{0}  \end{align*}

(12)   \begin{align*} \frac{ \partial f_2}{\partial \mathbf{k}_m} = - 2(\mathbf{Ax}+\mathbf{Bv} +  \mathbf{w}_m ) &= \mathbf{0} \qquad{} | : -2 \\ % \mathbf{Ax}+\mathbf{Bv} + \mathbf{w}_m &= \mathbf{0}    \end{align*}

Aufstellung des Gleichungssystems für (8)

Die Verbesserungen werden aus (11) berechnet.

(13)   \begin{align*} \mathbf{B}^T\mathbf{k}_m - \mathbf{P}_{ll}\mathbf{v} &= \mathbf{0} \qquad{} | \cdot \mathbf{P}_{ll}^{-1} =  \mathbf{Q}_{ll} \\ % \mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m - \mathbf{Q}_{ll}\mathbf{P}_{ll}\mathbf{v} &= \mathbf{0} \qquad{} |\hspace{4pt} \mathbf{Q}_{ll}\mathbf{P}_{ll} = \mathbf{E} \\ % \mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m - \mathbf{v} &= \mathbf{0} \qquad{} |+\mathbf{v} \\ % \mathbf{v} = \mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m   \end{align*}

Korrelaten des Modells \mathbf{k}_m werden berechnet indem (13) in (12) einsetzt wird.

(14)   \begin{align*} &\mathbf{Ax}+\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m + \mathbf{w}_m = \mathbf{0}\qquad{} | -\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m \\ % &\mathbf{Ax} + \mathbf{w}_m = -\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m \qquad{} | \cdot (\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T)^{-1} \\ % &(\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T)^{-1}(\mathbf{Ax} +  \mathbf{w}_m ) = -(\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T)^{-1}\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m \qquad{} \\ &| \hspace{5pt} (\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T)^{-1}\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T = \mathbf{E} \\ % &\mathbf{k}_m = -(\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T)^{-1}(\mathbf{Ax} + \mathbf{w}_m ) \end{align*}

Das Gleichungssystem, angelehnt an NIEMEIER (2008)8, welches als Lösung \mathbf{k}_m und \mathbf{x} führt, entsteht aus den Gleichungen (10) und (13) eingesetzt in (12).

(15)   \begin{align*} \mathbf{Ax}+\mathbf{BQ}_{ll}\mathbf{B}^T\mathbf{k}_m &= -\mathbf{w}_m \\ \mathbf{A}^T\mathbf{k}_m - \mathbf{P}_{xx}\mathbf{x}&= \hspace{10pt}\mathbf{0} \label{eqn:bedingungsgleichungen_blockmatrix_klein_2} \end{align*}

Als Blockmatrix zusammengefasst:

(16)   \begin{equation*}  \begin{bmatrix} \underset{n \times n}{\mathbf{BQ}_{ll}\mathbf{B}^T} & \underset{n \times u}{\mathbf{A}} \\ % \underset{u \times n}{\mathbf{A}^T} & \underset{u \times u}{-\mathbf{P}_{xx}} \end{bmatrix} \begin{bmatrix} \underset{n \times 1}{\mathbf{k}_m} \\ % \underset{u \times 1}{\mathbf{x}} \end{bmatrix} = \begin{bmatrix} \underset{n \times 1}{-\mathbf{w}_m}\hspace{4pt} \\ % \underset{u \times 1}{\mathbf{0}} \end{bmatrix}. \end{equation*}

 

Gauß-Helmert-Modell mit Bedingungen

Nicht selten müssen die Unbekannten gewisse Bedingungen erfüllen. Diese können in der Ausgleichung, wie in MIKHAIL (1982 S. 215ff.)7 gezeigt, mit einer Null-Funktion \mathbf{f(x)}=\mathbf{0} sichergestellt werden. In folgenden Abschnitten werden alle Funktionen, die Bedingungen zwischen den Unbekannten beschreiben als \mathbf{c(x,v)} bezeichnet. Analog dazu sollen Restriktionen für Verbesserungen als \mathbf{r(x,v)} geführt werden. Deren Linearisierung erfolgt an der Stelle der jeweiligen Näherungswerte.

(17)   \begin{align*} \mathbf{C} &= \left. \frac{ \partial \mathbf{c} }{ \partial \mathbf{x} } \right|_{\mathbf{x}_0} \\ \mathbf{R} &= \left. \frac{ \partial \mathbf{r} }{ \partial \mathbf{v} } \right|_{\mathbf{v}_0} \end{align*}

Mit diesen Matrizen, den dazu gehörenden Korrelaten \mathbf{k}_c, \mathbf{k}_r und den Widerspruchsvektoren \mathbf{w}_c und \mathbf{w}_r erweitert sich die Lagrange-Funktion zu

(18)   \begin{equation*} f_3 = \underbrace{\underset{(1\times b)}{\mathbf{v}^T}\underset{(b\times b)} {\mathbf{P}_{ll}}\underset{(b\times 1)}{\mathbf{v}}}_{1\times 1} + \underbrace{\underset{(1\times u)}{\mathbf{x}^T}\underset{(u\times u)} {\mathbf{P}_{xx}}\underset{(u\times 1)}{\mathbf{x}}}_{1\times 1} -  \underbrace{\underset{(1\times n)}{2\mathbf{k}^T_m}(\underset{(n\times u)}{\mathbf{A}}\underset{(u\times 1)}{\mathbf{x}}+\underset{(n\times b)}{\mathbf{B}}\underset{(b\times 1)}{\mathbf{v}}+\underset{(n\times 1)}{\mathbf{w}_m})}_{1\times 1} \end{equation*}

    \begin{equation*}  - \underbrace{\underset{(1\times c)}{ 2\mathbf{k}_c^T}(\underset{(c\times u)}{\mathbf{C}}\underset{(u\times 1)}{\mathbf{x}} + \underset{(c\times 1)}{\mathbf{w}_c})}_{1\times 1}  - \underbrace{\underset{(1\times r)}{ 2\mathbf{k}_r^T}(\underset{(r\times b)}{\mathbf{R}}\underset{(b\times 1)}{\mathbf{v}} + \underset{(r\times 1)}{\mathbf{w}_r})}_{1\times 1}. \end{equation*}

Für die Berechnung des Minimums werden wie schon zuvor alle Ableitungen der ersten Ordnung zu Null gesetzt. Die Ableitung der Gleichung (12) bleibt erhalten.

(19)   \begin{align*} \frac{ \partial f_3}{\partial \mathbf{x}} = 2 \mathbf{x}^T\mathbf{P}_{xx} - 2 \mathbf{k}^T_m\mathbf{A} - 2 \mathbf{k}^T_c\mathbf{C} &= \mathbf{0}  \\ % 2 \mathbf{P}_{xx}\mathbf{x} - 2 \mathbf{A}^{T}\mathbf{k}_m  - 2 \mathbf{C}^{T}\mathbf{k}_c &= \mathbf{0} \qquad{} | : -2 \\ % \mathbf{A}^{T}\mathbf{k}_m + \mathbf{C}^{T}\mathbf{k}_c - \mathbf{P}_{xx}\mathbf{x} &= \mathbf{0}  \end{align*}

(20)   \begin{align*} \frac{ \partial f_3}{\partial \mathbf{v}} = 2 \mathbf{v}^T\mathbf{P}_{ll} - 2 \mathbf{k}^T_m\mathbf{B} - 2 \mathbf{k}^T_r\mathbf{R} &= \mathbf{0}  \\ % 2 \mathbf{P}_{ll}\mathbf{v} - 2 \mathbf{B}^{T}\mathbf{k}_m  - 2 \mathbf{R}^{T}\mathbf{k}_r &= \mathbf{0} \qquad{} | : -2 \\ % \mathbf{B}^{T}\mathbf{k}_m + \mathbf{R}^{T}\mathbf{k}_r - \mathbf{P}_{ll}\mathbf{v} &= \mathbf{0}  \end{align*}

(21)   \begin{align*} \frac{ \partial f_3}{\partial \mathbf{k}^T_c} = - 2(\mathbf{Cx}+\mathbf{w}_c) &= \mathbf{0} \qquad{} | : -2 \\ \mathbf{Cx}+\mathbf{w}_c &= \mathbf{0}  \end{align*}

(22)   \begin{align*} \frac{ \partial f_3}{\partial \mathbf{k}^T_r} = - 2(\mathbf{Rv}+\mathbf{w}_r) &= \mathbf{0} \qquad{} | : -2 \\ \mathbf{Rv}+\mathbf{w}_r &= \mathbf{0}  \end{align*}

Der Verbesserungsvektor ergibt sich aus der Gleichung (20).

(23)   \begin{align*} \mathbf{B}^{T}\mathbf{k}_m + \mathbf{R}^{T}\mathbf{k}_r - \mathbf{P}_{ll}\mathbf{v} &= \mathbf{0}  \qquad{} | \cdot \mathbf{Q}_{ll} \\ % 2 \mathbf{Q}_{ll}\mathbf{B}^{T}\mathbf{k}_m + \mathbf{Q}_{ll}\mathbf{R}^{T}\mathbf{k}_r - \mathbf{Q}_{ll}\mathbf{P}_{ll}\mathbf{v} &= \mathbf{0} \qquad{} | \hspace{6pt} \mathbf{Q}_{ll}\mathbf{P}_{ll} = \mathbf{E} \\ % 3 \mathbf{Q}_{ll}\mathbf{B}^{T}\mathbf{k}_m + \mathbf{Q}_{ll}\mathbf{R}^{T}\mathbf{k}_r - \mathbf{v} &= \mathbf{0} \\ % 4 \mathbf{Q}_{ll}(\mathbf{B}^{T}\mathbf{k}_m + \mathbf{R}^{T}\mathbf{k}_r) - \mathbf{v} &= \mathbf{0} \qquad{} | + \mathbf{v} \\ % 5 \mathbf{v} = \mathbf{Q}_{ll}(\mathbf{B}^{T}\mathbf{k}_m &+ \mathbf{R}^{T}\mathbf{k}_r)  \end{align*}

Analog dazu kann \mathbf{k}_m aus der Gleichung (20) berechnet werden.

(24)   \begin{align*} &\mathbf{Ax} + \mathbf{BQ}_{ll}(\mathbf{B}^{T}\mathbf{k}_m + \mathbf{R}^{T}\mathbf{k}_r) + \mathbf{w}_m  = \mathbf{0} \\ % 2  &\mathbf{Ax} + \mathbf{BQ}_{ll}\mathbf{B}^{T}\mathbf{k}_m + \mathbf{BQ}_{ll}\mathbf{R}^{T}\mathbf{k}_r + \mathbf{w}_m  = \mathbf{0}  \qquad{} | -(\mathbf{Ax} + \mathbf{BQ}_{ll}\mathbf{R}^{T}\mathbf{k}_r + \mathbf{w}_m) \\ % 3 &\mathbf{BQ}_{ll}\mathbf{B}^{T}\mathbf{k}_m = -(\mathbf{Ax} + \mathbf{BQ}_{ll}\mathbf{R}^{T}\mathbf{k}_r + \mathbf{w}_m) \qquad{} | \cdot \left(\mathbf{BQ}_{ll}\mathbf{B}^T\right)^{-1} \\ % 4 &\left(\mathbf{BQ}_{ll}\mathbf{B}^T\right)^{-1}\mathbf{BQ}_{ll}\mathbf{B}^{T}\mathbf{k}_m = -\left(\mathbf{BQ}_{ll}\mathbf{B}^T\right)^{-1}(\mathbf{Ax} + \mathbf{BQ}_{ll}\mathbf{R}^{T}\mathbf{k}_r + \mathbf{w}_m)  \\ % 5 &\mathbf{k}_m = -\left(\mathbf{BQ}_{ll}\mathbf{B}^T\right)^{-1}(\mathbf{Ax} + \mathbf{BQ}_{ll}\mathbf{R}^{T}\mathbf{k}_r + \mathbf{w}_m)  \end{align*}

Aus den Gleichungen (12), (19), (20), (21) und (22) entsteht eine an MIKHAIL (1982 S. 215ff.)7 angelehnte, symmetrische Blockmatrix.

(25)   \begin{equation*} \begin{bmatrix} \underset{b \times b}{-\mathbf{P}_{ll}} & \underset{b \times n}{\mathbf{B}^T} & \underset{b \times u}{\mathbf{0}} & \underset{b \times c}{\mathbf{0}}  & \underset{b \times r}{\mathbf{R}^T}  \\ % \underset{n \times b}{\mathbf{B}} & \underset{n \times n}{\mathbf{0}}   & \underset{ n \times u}{\mathbf{A}} & \underset{n \times c}{\mathbf{0}} & \underset{n \times r}{\mathbf{0}} \\ % \underset{ u \times b}{\mathbf{0}} & \underset{u \times n }{\hspace{6pt}\mathbf{A}^T} & \underset{ u \times u}{-\mathbf{P}_{xx}} & \underset{u \times c}{\hspace{6pt}\mathbf{C}^T}  & \underset{ u \times r}{\mathbf{0}} \\ % \underset{c \times b}{\mathbf{0}} & \underset{c \times n}{\mathbf{0}} & \underset{c \times u}{\mathbf{C}} & \underset{c \times c}{\mathbf{0}} & \underset{ u \times r}{\mathbf{0}} \\ % \underset{r \times b}{ \mathbf{R} } & \underset{r \times n}{ \mathbf{0} } & \underset{r \times u}{ \mathbf{0} } & \underset{r \times c}{ \mathbf{0} } & \underset{ r \times r }{ \mathbf{0} } \end{bmatrix} \begin{bmatrix} \underset{b \times 1}{\mathbf{v}} \\  \underset{n \times 1}{\mathbf{k}_m} \\  \underset{ u \times 1}{\mathbf{x}} \\  \hspace{4pt}\underset{ c \times 1}{ \mathbf{k}_c } \\ \hspace{4pt}\underset{ c \times 1}{ \mathbf{k}_r } \end{bmatrix} = \begin{bmatrix} \hspace{10pt}\underset{b \times 1}{\mathbf{0}} \\  \hspace{6pt}\underset{n \times 1}{\mathbf{-w}_m} \\  \hspace{10pt}\underset{ u \times 1}{\mathbf{0}} \\  \hspace{4pt}\underset{ c \times 1}{-\mathbf{w}_c} \\ \hspace{4pt}\underset{ c \times 1}{-\mathbf{w}_r} \end{bmatrix} \end{equation*}

Werden keine Restriktionen für Verbesserungen formuliert, so kann die fünfte Block-Zeile und Spalte wegen \mathbf{R=0} auch vernachlässigt werden. Analog dazu kann die vierte Block-Zeile und Spalte entfernt werden, wenn keine Bedingungen für die Parameter vorliegen. Trotz aller Reduktionen ist dieses Gleichungssystem wegen seiner Dimension (b+n+u+c+r)\times(b+n+u+c+r) für die Praxis eher ungeeignet, da es \mathbf{k}_c und \mathbf{v}-Elemente im Lösungsvektor führt, die auch über geschlossene und unabhängige Formeln (23), (24) berechnet werden können.

Der Berechnungsaufwand für die Lösung ist \approx O(n^3). Bei Verwendung von dünn besetzten (SPARSE) Matrizen kann eine deutlich günstigere Aufwandsklasse \approx O(NNE) erreicht werden, da diese i. d. R. von der Nicht-Null-Elemente-Anzahl (NNE) abhängt.

Zusätzlich ist es möglich einige Komponenten des Lösungsvektors zu entfernen. Diese werden bei Bedarf über geschlossene und unabhängige Formeln wie (23) und (24) berechnet. Da \mathbf{v} üblicherweise der größte der Teil der Lösung ist, wird er durch das Einsetzen der Gleichung (23) in (12) und (22) aus der Lösung entfernt

(26)   \begin{align*} \mathbf{BQ}_{ll}\mathbf{B}^T\mathbf{k}_m + \mathbf{Ax} + \mathbf{BQ}_{ll}\mathbf{R}^T\mathbf{k}_r &= -\mathbf{w}_m \\ % 2 \label{eqn:f3_no_v_bedingung_2} \mathbf{RQ}_{ll}\mathbf{B}^T\mathbf{k}_m\hspace{25pt}+ \mathbf{RQ}_{ll}\mathbf{R}^T\mathbf{k}_r &= -\mathbf{w}_r. \end{align*}

Diese Substitution ermöglicht es die Dimension auf (n+u+c+r)\times(n+u+c+r) zu reduzieren, ohne die Symmetrie aufgeben zu müssen. Das neu gebildete Blockmatrizensystem verwendet die Gleichungen (19), (21) und (26)

(27)   \begin{equation*} \begin{bmatrix} \underset{n \times n}{\mathbf{BQ}_{ll}\mathbf{B}^T} & \underset{n \times u}{\mathbf{A}} & \underset{n \times c}{\mathbf{0}}  & \underset{n \times r}{\mathbf{BQ}_{ll}\mathbf{R}^T} \\ \underset{u \times n}{\hspace{6pt}\mathbf{A}^T} & \underset{u \times u}{-\mathbf{P}_{xx}} & \underset{u \times c}{\hspace{6pt}\mathbf{C}^T} & \underset{u \times r}{\mathbf{0}} \\ \underset{c \times n}{\mathbf{0}} & \underset{c \times u}{\mathbf{C}} & \underset{c \times c}{\mathbf{0}} & \underset{c \times r}{\mathbf{0}} \\ \underset{r \times n}{\mathbf{RQ}_{ll}\mathbf{B}^T} & \underset{r \times u}{\mathbf{0}} & \underset{r \times c}{\mathbf{0}} & \underset{r \times r}{\mathbf{RQ}_{ll}\mathbf{R}^T} \end{bmatrix} \begin{bmatrix} \underset{n \times 1}{\mathbf{k}_m} \\ \underset{ u \times 1}{\mathbf{x}} \\ % \hspace{4pt}\underset{c \times 1}{ \mathbf{k}_c } \\ % \hspace{4pt}\underset{r \times 1}{ \mathbf{k}_r } \end{bmatrix} = \begin{bmatrix} \hspace{4pt}\underset{n \times 1}{\mathbf{-w}_m} \\ % \hspace{10pt}\underset{u \times 1}{\mathbf{0}} \\ %  \hspace{4pt}\underset{c \times 1}{-\mathbf{w}_c} \\ % \hspace{4pt}\underset{r \times 1}{-\mathbf{w}_r} \end{bmatrix}. \end{equation*}

Wie zuvor können auch in dieser Blockmatrix die letzten beiden Spalten und Zeilen entfernt werden, wenn keine Restriktionen für die Unbekannten eingeführt werden.

Neben \mathbf{v} ist \mathbf{k}_m normalerweise der zweitgrößte Vektor der Lösung. Dieser lässt sich durch das Einsetzen der Gleichung (24) in (19) und (26) heraustrennen. Nach einer etwas längeren und unübersichtlichen Umformung und Zusammenfassung entstehen nochmals reduzierte Bedingungsgleichungen.

(28)   \begin{align*} &-(\mathbf{A}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{A} + \mathbf{P}_{xx})\mathbf{x} - \mathbf{A}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{BQ}_{ll}\mathbf{R}^T\mathbf{k}_r + \mathbf{C}^T\mathbf{k}_c \\ \nonumber &= \mathbf{A}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{w}_m \end{align*}

(29)   \begin{align*} &-\mathbf{RQ}_{ll}\mathbf{B}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{Ax} -\mathbf{RQ}_{ll}\mathbf{B}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{BQ}_{ll}\mathbf{R}^T\mathbf{k}_r  \\ \nonumber &+ \mathbf{RQ}_{ll}\mathbf{R}^T\mathbf{k}_r = \mathbf{RQ}_{ll}\mathbf{B}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{w}_m -\mathbf{w}_r  % \end{align*}

Aus (21), (28) und (29) folgt das nochmals reduzierte Blockmatrizensystem

(30)   \begin{align*} &\begin{bmatrix} \underset{u \times u}{-\mathbf{A}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{A} - \mathbf{P}_{xx}} & \underset{ u \times c}{\mathbf{C}^T} & \underset{u \times r}{-\mathbf{A}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{BQ}_{ll}\mathbf{R}^T} \\ % 2 \underset{c \times u}{\mathbf{C}} & \underset{c \times c}{\mathbf{0}} & \underset{c \times r}{\mathbf{0}} \\ % 3 \underset{r \times u}{-\mathbf{RQ}_{ll}\mathbf{B}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{A}} & \underset{r \times c}{\mathbf{0}} & \underset{r \times r}{\mathbf{RQ}_{ll}\mathbf{R}^T-\mathbf{RQ}_{ll}\mathbf{B}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{BQ}_{ll}\mathbf{R}^T} \end{bmatrix} \begin{bmatrix} \underset{u \times 1}{\mathbf{x}} \\  % 2 \underset{c \times 1}{\mathbf{k}_c} \\ % 3 \underset{r \times 1}{\mathbf{k}_r} \end{bmatrix}  \\ \nonumber = &\begin{bmatrix} \underset{u \times 1}{\mathbf{A}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{w}_m}\\ % 2 \hspace{4pt}\underset{c \times 1}{ -\mathbf{w}_c } \\ % 3 \underset{r \times 1}{\mathbf{RQ}_{ll}\mathbf{B}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{w}_m - \mathbf{w}_r} \end{bmatrix}. \end{align*}

Auch nach diesem Schritt bleibt bleibt die Symmetrie erhalten. Auch hier entfallen einzelne Blockmatrizenspalten/Zeilen, wenn keine Restriktionen formuliert werden.

Quellen und Fußnoten

  1. KRABS, Werner: Optimization and approximation. Chichester Eng. New York : Wiley, 1979. – ISBN 0471997412 []
  2. BÖCK, Rudolf: Allgemeinste Formulierung der Ausgleichungsrechnung nach der Methode der kleinsten Quadratsummen. Zeitschrift für Geodäsie, Geoinformation und Landmanagement Jahrgang 86 (1961), S. 43ff. und 98ff. []
  3. BOPP, Hanspeter ; KRAUSS, Herbert: Strenge oder herkömmliche bedingte Ausgleichung mit Unbekannten bei nichtlinearen Bedingungsgleichungen? In: Allgemeine Vermessungs-Nachrichten 84 (1978), S. 27–31 []
  4. LENZMANN, Lothar ; LENZMANN, Enno: Strenge Auswertung des nichtlinearen Gauß-Helmert-Modells. In: Allgemeine Vermessungs-Nachrichten (2004), S. 68– 73 []
  5. NEITZEL, F., PETROVIC, S. (2008): Total Least Squares (TLS) im Kontext der Ausgleichung nach kleinsten Quadraten am Beispiel der ausgleichenden Geraden. Zeitschrift für Geodäsie, Geoinformation und Landmanagement 3/2008 S. 141-148, Wißner-Verlag, Augsburg []
  6. CASPARY, Wilhelm: Auswertung von Messdaten : statistische Methoden für Geound Ingenieurwissenschaften. München Wien : Oldenbourg, 2007. – ISBN 9783486583519 S. 177ff. []
  7. MIKHAIL, Edward: Observations and least squares. Washington, D.C : University Press of America, 1982. – ISBN 0819123978 [] [] []
  8. NIEMEIER, Wolfgang: Ausgleichungsrechnung : statistische Auswertemethoden. Berlin u.a : De Gruyter, 2008. – ISBN 3110190559 S. 177 []