Handlungsempfehlungen für Anlagenbetreiber zur erfolgreichen Einführung von Predictive Maintenance (PdM)

17. Internationale Schienenfahrzeugtagung Dresden

Autoren

Prof. Dr.-Ing. Karl Albrecht Klinge
Dr. Waldemar Kisser
Arno Heidelberg

Auszug

Das Thema Predictive Maintenance (PdM) hat in den letzten Jahren für viele Anlagenbetreiber an Bedeutung gewonnen. Unter den Schlagworten Internet of Things (IoT) und Industrie 4.0 werden viele Produkte und Projekte durchgeführt. Verschiedene Firmen konfrontieren die Betreiber mit oft schwer einlösbaren Versprechen („Gib mir deine Daten und ich löse die Verfügbarkeitsprobleme“).

Download

Handlungsempfehlungen für Anlagenbetreiber zur erfolgreichen Einführung von Predictive Maintenance (PdM)

Beitrag gis.Science – Genauigkeitsabschätzung von Bündelblockausgleichungen mit Hilfe des EMVA1288 Standards

Zusammenfassung

Dieser Beitrag beschreibt die a priori Abschätzung erreichbarer Genauigkeiten der Bündelblockausgleichung. Dies geschieht mit Hilfe des EMVA1288 Standards. Durch numerische Simulationen wird hierzu zunächst die Zentrumsunsicherheit der Zielmarken mit der daraus folgenden Objektraum-Unsicherheit verknüpft. Der nächste Schritt ist eine Verknüpfung der EMVA1288-Kennzahlen und der daraus resultierenden Unsicherheit eines Grauwertes mit Algorithmen zur Ellipsendetektion. Abschließend wird ein stochastisches Modell vorgeschlagen und an einer real durchgeführten Kamerakalibrierung untersucht.

Erstentwurf-Dokument: Accuracy estimation for bundle-adjustments by using the EMVA1288 standard

Accuracy estimation for bundle-adjustments by using the EMVA1288 standard

Abstract

This article describes a method which predicts the resulting bundle-adjustment accuracies, by using the EMVA1288 standard. In the first step a numerical simulation is done, which links the target accuracy in the image space with accuracies in the object space. The next step links EMVA1288 parameters to target detection algorithms in order to approximate the uncertainty resulting from grey value noise. Finally a real camera calibration with the proposed stochastic model is carried out.

Draft-Document: Accuracy estimation for bundle-adjustments by using the EMVA1288 standard

Artikelbild

Beitrag AVN – Analyse von Bildresiduen mit Machine-Learning im Rahmen von Kamera-Kalibrierungen

Autoren

Waldemar Kisser, Frank Boochs, Dietrich Paulus

Zusammenfassung

Photogrammetrie ermöglicht es Objekte mit Hilfe von Digitalbildern zu vermessen. Bei optimalen Messbedingungen sind Qualitätsunterschiede der abgeleiteten Maße vor allem auf die mathematische Modellierung des verwendeten Sensors und der Linse zurückzuführen. Photogrammetrische Kalibrierungen erfolgen meist mittels Bündelblockausgleichung. Diese gestattet es vielerlei statistische Kennzahlen abzuleiten. Eine tiefergehende Analyse der berechneten Parameter, Standardabweichungen, Korrelationen und deren Verteilungen kann Aufschluss darüber geben, ob das verwendete Kalibriermodell Schwächen aufweist. Solche Defizite können sich durch systematische Restfehler im Bild- oder Objektraum äußern. Da solche Restfehler auch zu Ungenauigkeiten in den daraus abgeleiteten Informationen führen können, ist deren mathematischer Nachweis und anschließende Kompensation zur Erzielung höchster Genauigkeiten unausweichlich. Neueste Ansätze nutzen Korrekturterme um Residuensystematiken schon während der Bündelblockausgleichung zu modellieren. Der vorliegende Beitrag beschreibt wie auch Machine-Learning Techniken dabei helfen können verbliebene systematische Abweichungen in Bildresiduen nachzuweisen, ohne dass hierzu ein Eingriff in die Bündelblockausgleichung notwendig ist. Dies wird im ersten Schritt anhand von Beispieldaten erläutert. Im zweiten Schritt wird die Wirkung dieser Vorgehensweise an einer realen Kamerakalibrierung verdeutlicht. Abschließend erfolgt eine Diskussion der im Zuge dieser Arbeit erzielten Resultate und möglicher Eignung dieses Verfahrens in der Praxis.

Dieser Beitrag wurde begutachtet in der Zeitschrift Allgemeine-Vermessungs-Nachrichten 3-2017 veröffentlicht:

Erstentwurf-Dokument: Analyse von Bildresiduen mit Machine-Learning im Kontext von Kamera-Kalibrierungen

Abstract

Image Residual Analysis with Machine-Learning within the context of Camera-Calibrations

Photogrammetry uses digital images to extract geometric object information. In case of optimal measurement conditions the result quality is determined by the mathematical model, sensor and lens configurations. Bundle adjustment is a wide used approach in order to carry out photogrammetric tasks as well as camera and lens calibrations. Additionally, it yields various statistic parameters. Further standard deviations, correlation coefficients and distribution analysis helps users to disclose insufficient mathematical modelling. These deficiencies can manifest themselves through residuals in the image or object space. Since they also lower the quality of all derived information, one should carefully track and compensate these remaining errors in order to achieve highest accuracies. Most recent approaches model such errors “on-the-fly” within the bundle adjustment by adding or altering parameters. This paper describes how machine learning techniques can be used to track systematic residual patterns without changes in the bundle adjustment source code. Initially the idea is described with tiny examples. The second step applies this technique to a real camera calibration scenario. Finally, the achieved results as well as the suitability and practicability of such methods are discussed.

This paper was published as peer reviewed in Allgemeine-Vermssungs-Nachrichten (AVN) 3-2017:

Early-Darft-Document: Analyse von Bildresiduen mit Machine-Learning im Kontext von Kamera-Kalibrierungen

Beitrag Oldenburger 3D Tage 2016 – Analyse von Bildresiduen mit Machine-Learning im Kontext von Kamera-Kalibrierungen

Autoren

Waldemar Mordwinzew, Frank Boochs, Dietrich Paulus

Zusammenfassung

Photogrammetrie ermöglicht es, Objekte mit Hilfe von Digitalbildern zu vermessen. Bei optimalen Messbedingungen sind Unterschiede in der Qualität der abgeleiteten Maße vor allem auf die mathematische Modellierung des verwendeten Sensors und der Linse zurückzuführen. Kalibrierungen erfolgen meist mittels Bündelblockausgleichung, die es gestattet, daraus vielerlei statistische Kennzahlen abzuleiten. Eine tiefergehende Analyse der berechneten Parameter, Standardabweichungen, Korrelationen und deren Verteilungen kann Aufschluss geben, ob das verwendete Kalibriermodell Schwächen aufweist. Solche Defizite können sich durch systematische Restfehler im Bild- oder Objektraum äußern. Da solche Restfehler zu Ungenauigkeiten in den daraus abgeleiteten Informationen führen können, ist deren mathematischer Nachweis und anschließende Kompensation zur Erzielung höchster Genauigkeiten unausweichlich. Neueste Ansätze nutzen Korrekturterme, um solche Systematiken schon während der Bündelblockausgleichung zu modellieren. Der vorliegende Beitrag beschreibt, wie auch Machine-Learning Techniken dabei helfen können, verbliebene systematische Abweichungen in Bildresiduen nachzuweisen, ohne dass hierzu ein Eingriff in die Bündelblockausgleichung notwendig ist. Dies wird im ersten Schritt anhand von Beispieldaten erläutert. Im zweiten Schritt wird die Wirkung dieser Vorgehensweise an einer realen Kamerakalibrierung verdeutlicht. Abschließend erfolgt eine Diskussion der im Zuge dieser Arbeit erzielten Resultate und möglicher Eignung dieses Verfahrens in der Praxis.

Vorgestellt wurde diese Arbeit während der Oldenburger 3D Tage 2016. Der Erstentwurf samt Folien, des später eingereichten Artikels kann hier heruntergeladen werden:

Dokument: Analyse von Bildresiduen mit Machine-Learning im Kontext von Kamera-Kalibrierungen

Folien: Analyse von Bildresiduen mit Machine-Learning im Kontext von Kamera-Kalibrierungen

Korrektur der Ellipsen-Exzentrizität im Kontext von Kamerakalibrierungen

Autoren

Waldemar Mordwinzew, Burkhard Tietz, Frank Boochs, Dietrich Paulus

Zusammenfassung

Dieser Beitrag befasst sich mit dem Einfluss der Zielmarkenexzentrizität während der Kamera-Kalibrierung in Kombination mit verschiedenen Kalibrierkörpern. Zunächst wird deren Einfluss auf die Resultate anhand numerischer Simulationen nachgewiesen. In diesen Simulationen wird eine Erfassung des Einflusses der Exzentrizität auf Bildmessung, Objekt- und Kamerageometrie angestrebt. Im zweiten Schritt wird eine Realkalibrierung mit vergleichbarer Aufnahmekonfiguration durchgeführt. Dabei werden Gemeinsamkeiten bzw. Unterschiede der erreichten Ergebnisse diskutiert sowie eine mögliche Kompensation des Einflusses in der Praxis erörtert.

Vorgestellt wurde diese Arbeit während der Oldenburger 3D Tage 2015. Der Erstentwurf samt Folien, des später eingereichten Artikels kann hier heruntergeladen werden:

Dokument: Korrektur der Ellipsen-Exzentrizität im Kontext von Kamerakalibrierungen

Folien: Korrektur der Ellipsen-Exzentrizität im Kontext von Kamerakalibrierungen Folien

Ausgleichende Kugel im Gauß-Helmert-Modell

Vorwort

Im Rahmen dieses Artikels soll die Anwendung des Gauß-Helmert-Modells anhand der Bestimmung ausgleichender Kugeln vorgeführt werden. Grundlegendes zur Methode der kleinsten Quadrate finden Sie (hier). Die allgemeine Herleitung des Gauß-Helmert-Modells (GHM) kann (hier) nachgelesen werden.

Weiterlesen

Gauß-Helmert Modell der Ausgleichungsrechnung

Vorwort

Dieser Artikel behandelt das Gauß-Helmert-Modell (GHM) in seiner allgemeinsten Form. Hierzu sollte der Leser bereits grundlegende Kenntnisse über die Methode der kleinsten Quadrate besitzen. Eine kurze Einführung gibt es (hier).

Basierend auf den Grundlagen dieses Artikels und der darin zitierten Publikationen werden in folgenden Artikeln Beispiele zur Ausgleichung von:

vorgestellt.

Kleinste Quadrate mittels Matrizengleichungen

Das Gauß-Helmert-Modell lässt sich besonders elegant mittels Matrizen und Vektoren (nachfolgend in Fettschrift) darstellen. Für die Zielfunktion (,,Gauss’sche Minimumsbedingung”)

(1)   \begin{equation*} \sum\limits_{i=1}^{n} v_iv_i \rightarrow min. \end{equation*}

lautet die Vektornoation

(2)   \begin{equation*} \mathbf{v}^T\mathbf{v} \rightarrow min. \end{equation*}

Um Beobachtungen mit unterschiedlichen Genauigkeiten oder Korrelationen zu berücksichtigen wird die Kofaktormatrix der Beobachtungen \mathbf{Q}_{ll} eingeführt. Deren Elemente haben folgendes Muster

(3)   \begin{equation*} \mathbf{Q}_{ll} =  \frac{1}{\sigma _0^2}\begin{bmatrix} \sigma _{l_1}^2 & \sigma _{l_1} \sigma _{l_2} \rho _{l_{1,2}} & \hdots & \sigma _{l_1} \sigma _{l_{n-1}} \rho _{l_{1,n-1}} & \sigma _{l_1} \sigma _{l_n} \rho _{l_{1,n}} \\ \sigma _{l_2} \sigma _{l_1} \rho _{l_{2,1}} & \sigma _{l_2}^2 & \text{} & \text{} & \sigma _{l_2} \sigma _{l_n} \rho _{l_{2,n}} \\ \vdots & \text{} & \text{} & \ddots & \vdots \\ \sigma _{l_{n-1}} \sigma _{l_1} \rho _{l_{n-1,1}} & \text{} & \text{} & \text{} & \sigma _{l_{n-1}} \sigma _{l_n} \rho _{l_{n-1,n}} \\ \sigma _{l_n} \sigma _{l_1} \rho _{l_{n,1}} & \sigma _{l_n} \sigma _{l_2} \rho _{l_{n,2}} & \hdots & \sigma _{l_n} \sigma _{l_{n-1}} \rho _{l_{n,n-1}} & \sigma _{l_n}^2 \end{bmatrix}. \end{equation*}

Darin enthalten ist der a priori Varianzfaktor \sigma _0, Standardabweichungen der Beobachtungen \sigma _{l_i} sowie die Korrelationen zwischen den Beobachtungen \rho _{l_{i,j}}. Sind die Beobachtungen unkorreliert, so reduziert sich \mathbf{Q}_{ll} auf ihre Hauptdiagonale. Für gleichgenaue und unkorrelierte Beobachtungen kann sie wegen \mathbf{Q}_{ll} = \mathbf{E} auch vernachlässigt werden. Die Inverse \mathbf{Q}_{ll}^{-1}=\mathbf{P}_{ll} wird als Gewichtsmatrix der Beobachtungen bezeichnet. Mit Berücksichgung der unterschiedlichen Genauigkeitsrelationen ändert sich die Zielfunktion (2) in

(4)   \begin{equation*} \mathbf{v}^T\mathbf{P}_{ll}\mathbf{v} \rightarrow min. \end{equation*}

Für die Ausgleichung können lineare sowie nichtlineare Funktionen verwendet werden. Diese werden im nachfolgenden Abschnitten als Bedingungsgleichungen \mathbf{\psi} bezeichnet, weil sie die Nebenbedingungen für die Minimumsuche bilden. Diese hängen von zwei Unbekannten-Vektoren, Verbesserungen \mathbf{\hat v} und Parameter \mathbf{\hat x} ab. Das Minimum von (4) wird üblicherweise mit der Methode von Lagrange bestimmt. In KRABS (1979)1 wird gezeigt, dass das Minimum einer Funktion f(x,v) mit der Nebenbedingung g(x,v) durch eine geschickte Umformulierung in f(x,v) - k\cdot g(x,v) gefunden werden kann, wobei k die Lagrange-Multiplikatoren (Korrelaten) repräsentieren. Somit lautet die zu lösende Lagrange-Funktion

(5)   \begin{equation*} f_1 = \underbrace{\underset{(1\times b)}{\mathbf{v}^T}\underset{(b\times b)} {\mathbf{P}_{ll}}\underset{(b\times 1)}{\mathbf{v}}}_{1\times 1}  - \underbrace{\underset{(1\times n)}{\mathbf{k}_m^T}\underset{ ( n \times 1 )}{ \mathbf{\psi(\hat x, \mathbf{l} + \hat v )}}}_{1\times 1}. \end{equation*}

Bei Verwendung von nichtlinearen Bedingungsgleichungen wird diese Form nur selten geschlossen lösbar sein. Eine lineare Form entsteht durch Anwendung der Taylor-Linearisierung gemäß BÖCK (1961)2 an der Stelle der Näherungswerte für die Unbekannten \mathbf{x}_0, \mathbf{l} + \mathbf{v}_0.

(6)   \begin{equation*}  \mathbf{A} = \begin{bmatrix} \frac{\partial \mathbf{\psi}_{1} \mathbf{(l+v,x)}}{\partial \mathbf{x}_{1}} & \frac{\partial \mathbf{\psi}_{1} \mathbf{(l+v,x)}}{\partial \mathbf{x}_{2}} & \hdots & \frac{\partial \mathbf{\psi}_{1} \mathbf{(l+v,x)}}{\partial \mathbf{x}_{u}} \\ \frac{\partial \mathbf{\psi}_{2} \mathbf{(l+v,x)}}{\partial \mathbf{x}_{1}} & \frac{\partial \mathbf{\psi}_{2} \mathbf{(l+v,x)}}{\partial \mathbf{x}_{2}} & \hdots & \frac{\partial \mathbf{\psi} _{2}\mathbf{(l+v,x)}}{\partial \mathbf{x}_{u}} \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial \mathbf{\psi} _{n}\mathbf{(l+v,x)}}{\partial \mathbf{x}_{1}} & \frac{\partial \mathbf{\psi} _{n}\mathbf{(l+v,x)}}{\partial \mathbf{x}_{2}} & \hdots & \frac{\partial \mathbf{\psi} _{n}\mathbf{(l+v,x)}}{\partial \mathbf{x}_{u}} \\ \end{bmatrix} \end{equation*}

(7)   \begin{equation*}  \mathbf{B} = \left[ \begin{matrix} \frac{\partial \mathbf{\psi}_{1} \mathbf{(l+v,x)}}{\partial \mathbf{v}_{1,dim_{1}}} & 0 & \hdots & 0 \\ 0 & \frac{\partial \mathbf{\psi}_{2} \mathbf{(l+v,x)}}{\partial \mathbf{v}_{2,dim_{1}}} & 0 & \vdots \\ \vdots & 0 & \ddots & 0 \\ 0 & \hdots & 0 & \frac{\partial \mathbf{\psi}_{n}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{n,dim_{1}}} \\ \end{matrix} \right. \end{equation*}

    \begin{equation*} \left. \begin{matrix} \frac{\partial \mathbf{\psi}_{1}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{1,dim_{2}}} & 0 & \hdots & 0 \\ 0 & \frac{\partial \mathbf{\psi}_{2}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{2,dim_{2}}} & 0 & \vdots \\ \vdots & 0 & \ddots & 0 \\ 0 & \hdots & 0 & \frac{\partial \mathbf{\psi}_{n}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{n,dim_{2}}} \\ \end{matrix} \right. \left. \begin{matrix} \frac{\partial \mathbf{\psi}_{1}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{1,dim_{d}}} & 0 & \hdots & 0 \\ 0 & \frac{\partial \mathbf{\psi} _{2}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{2,dim_{d}}} & 0 & \vdots \\ \vdots & 0 & \ddots & 0 \\ 0 & \hdots & 0 & \frac{\partial \mathbf{\psi}_{n}\mathbf{(l+v,x)}}{\partial \mathbf{v}_{n,dim_{d}}} \\ \end{matrix} \right] \end{equation*}

In diesem Lösungsschema werden die Parameter als Zuschlag zu den Näherungswerten \mathbf{ \hat x } - \mathbf{x}_0 berechnet, während die Verbesserungen vollständig aus der Lösung hervorgehen. Auf die Einführung einer approximierten Lösung, in der eine Linearisierung an der Stelle \psi(\mathbf{x}_0,\mathbf{0}) durchführt wird, wird in diesem Beitrag verzichtet. Nachteile einer solcher Approximation werden ausführlich in BOPP et. al. (1978)3, LENZMANN et. al. (2004)4 sowie NEITZEL (2008)5 diskutiert. Die Autoren der letztgenannten Artikel werden sich einig, dass die approximierte Lösung, welche von differenziell kleinen Verbesserungen ausgeht, unter bestimmten Bedingungen zu qualitativ schlechteren Ergebnissen führt.

Mit dieser linearen Nebenbedingung entsteht eine lineare Form zur Gleichung (5)

(8)   \begin{equation*} f_2 = \underbrace{\underset{(1\times b)}{\mathbf{v}^T}\underset{(b\times b)} {\mathbf{P}_{ll}}\underset{(b\times 1)}{\mathbf{v}}}_{1\times 1} + \underbrace{\underset{(1\times u)}{\mathbf{x}^T}\underset{(u\times u)} {\mathbf{P}_{xx}}\underset{(u\times 1)}{\mathbf{x}}}_{1\times 1}  -\underbrace{\underset{(1\times n)}{2\mathbf{k}^T_m}(\underset{(n\times u)}{\mathbf{A}}\underset{(u\times 1)}{\mathbf{x}}+\underset{(n\times b)}{\mathbf{B}}\underset{(b\times 1)}{\mathbf{v}}+\underset{(n\times 1)}{  \mathbf{w}_m })}_{1\times 1}. \end{equation*}

Damit die Ableitungen einfache Formen erhalten, werden Korrelaten in der geodätischen Ausgleichungsrechnung als 2\mathbf{k} formuliert. Zusätzlich können, wie in CASPARY (2007)6 gezeigt, auch stochastische Parameter in die Ausgleichung einfließen, ohne auf Pseudobeobachtungen zurückgreifen zu müssen. Hierfür wird die Lagrange-Funktion um den Term \mathbf{x}^T\mathbf{P}_{xx}\mathbf{x} erweitert. Die Form der Parameter-Gewichtsmatrix \mathbf{P}_{xx} = \mathbf{Q}_{xx,a priori}^{-1} entspricht dabei der Gleichung (3)

    \begin{equation*} \mathbf{Q}_{xx,a priori} =  \end{equation*}

(9)   \begin{equation*} = \frac{1}{\sigma _0^2}\begin{bmatrix} \sigma _{u_1}^2 & \sigma _{u_1} \sigma _{u_2} \rho _{u_{1,2}} & \hdots & \sigma _{u_1} \sigma _{u_{n-1}} \rho _{u_{1,n-1}} & \sigma _{u_1} \sigma _{u_n} \rho _{u_{1,n}} \\ % \sigma _{u_2} \sigma _{u_1} \rho _{u_{2,1}} & \sigma _{u_2}^2 & \text{} & \text{} & \sigma _{u_2} \sigma _{u_n} \rho _{u_{2,n}} \\ % \vdots & \text{} & \text{} & \ddots & \vdots \\ % \sigma _{u_{n-1}} \sigma _{u_1} \rho _{u_{n-1,1}} & \text{} & \text{} & \text{} & \sigma _{u_{n-1}} \sigma _{u_n} \rho _{u_{n-1,n}} \\ % \sigma _{u_n} \sigma _{u_1} \rho _{u_{n,1}} & \sigma _{u_n} \sigma _{u_2} \rho _{u_{n,2}} & \hdots & \sigma _{u_n} \sigma _{u_{n-1}} \rho _{u_{n,n-1}} & \sigma _{u_n}^2 \end{bmatrix}. \end{equation*}

Auch diese Gewichtsmatrix reduziert sich auf ihre Hauptdiagonale sobald die Parameter unkorreliert sind. Sind die Parameter deterministisch, so kann der ganze Term \mathbf{x}^T\mathbf{P}_{xx}\mathbf{x} wegen \mathbf{P}_{xx} = \mathbf{0} auch vernachlässigt werden.

Bestimmung des Minimums

Um das Minimum der Lagrange-Funktion zu finden wird angenommen, dass f_2 kein Maximum und keine Sattelpunkte besitzt. Dadurch ist es möglich, wie in MIKHAIL (1982 S. 215ff.)7 gezeigt, das Minimum durch die Nullsetzung der ersten Ableitungen zu finden.

(10)   \begin{align*} \frac{ \partial f_2}{\partial \mathbf{x}} = 2 \mathbf{x}^T\mathbf{P}_{xx} - 2 \mathbf{k}^T_m\mathbf{A} &= \mathbf{0} \\ % 2 \mathbf{P}_{xx}\mathbf{x} - 2 \mathbf{A}^{T}\mathbf{k}_m &= \mathbf{0} \qquad{} | : -2 \\ % \mathbf{A}^{T}\mathbf{k}_m - \mathbf{P}_{xx}\mathbf{x} &= \mathbf{0}  \end{align*}

(11)   \begin{align*} \frac{ \partial f_2}{\partial \mathbf{v}} = 2\mathbf{v}^T\mathbf{P}_{ll} - 2\mathbf{k}^T_m\mathbf{B} &= \mathbf{0}\\ % 2\mathbf{P}_{ll}\mathbf{v} - 2\mathbf{B}^T\mathbf{k}_m &= \mathbf{0} \qquad{} | : -2 \\   % \mathbf{B}^T\mathbf{k}_m -\mathbf{P}_{ll}\mathbf{v} &= \mathbf{0}  \end{align*}

(12)   \begin{align*} \frac{ \partial f_2}{\partial \mathbf{k}_m} = - 2(\mathbf{Ax}+\mathbf{Bv} +  \mathbf{w}_m ) &= \mathbf{0} \qquad{} | : -2 \\ % \mathbf{Ax}+\mathbf{Bv} + \mathbf{w}_m &= \mathbf{0}    \end{align*}

Aufstellung des Gleichungssystems für (8)

Die Verbesserungen werden aus (11) berechnet.

(13)   \begin{align*} \mathbf{B}^T\mathbf{k}_m - \mathbf{P}_{ll}\mathbf{v} &= \mathbf{0} \qquad{} | \cdot \mathbf{P}_{ll}^{-1} =  \mathbf{Q}_{ll} \\ % \mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m - \mathbf{Q}_{ll}\mathbf{P}_{ll}\mathbf{v} &= \mathbf{0} \qquad{} |\hspace{4pt} \mathbf{Q}_{ll}\mathbf{P}_{ll} = \mathbf{E} \\ % \mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m - \mathbf{v} &= \mathbf{0} \qquad{} |+\mathbf{v} \\ % \mathbf{v} = \mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m   \end{align*}

Korrelaten des Modells \mathbf{k}_m werden berechnet indem (13) in (12) einsetzt wird.

(14)   \begin{align*} &\mathbf{Ax}+\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m + \mathbf{w}_m = \mathbf{0}\qquad{} | -\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m \\ % &\mathbf{Ax} + \mathbf{w}_m = -\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m \qquad{} | \cdot (\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T)^{-1} \\ % &(\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T)^{-1}(\mathbf{Ax} +  \mathbf{w}_m ) = -(\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T)^{-1}\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T\mathbf{k}_m \qquad{} \\ &| \hspace{5pt} (\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T)^{-1}\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T = \mathbf{E} \\ % &\mathbf{k}_m = -(\mathbf{B}\mathbf{Q}_{ll}\mathbf{B}^T)^{-1}(\mathbf{Ax} + \mathbf{w}_m ) \end{align*}

Das Gleichungssystem, angelehnt an NIEMEIER (2008)8, welches als Lösung \mathbf{k}_m und \mathbf{x} führt, entsteht aus den Gleichungen (10) und (13) eingesetzt in (12).

(15)   \begin{align*} \mathbf{Ax}+\mathbf{BQ}_{ll}\mathbf{B}^T\mathbf{k}_m &= -\mathbf{w}_m \\ \mathbf{A}^T\mathbf{k}_m - \mathbf{P}_{xx}\mathbf{x}&= \hspace{10pt}\mathbf{0} \label{eqn:bedingungsgleichungen_blockmatrix_klein_2} \end{align*}

Als Blockmatrix zusammengefasst:

(16)   \begin{equation*}  \begin{bmatrix} \underset{n \times n}{\mathbf{BQ}_{ll}\mathbf{B}^T} & \underset{n \times u}{\mathbf{A}} \\ % \underset{u \times n}{\mathbf{A}^T} & \underset{u \times u}{-\mathbf{P}_{xx}} \end{bmatrix} \begin{bmatrix} \underset{n \times 1}{\mathbf{k}_m} \\ % \underset{u \times 1}{\mathbf{x}} \end{bmatrix} = \begin{bmatrix} \underset{n \times 1}{-\mathbf{w}_m}\hspace{4pt} \\ % \underset{u \times 1}{\mathbf{0}} \end{bmatrix}. \end{equation*}

 

Gauß-Helmert-Modell mit Bedingungen

Nicht selten müssen die Unbekannten gewisse Bedingungen erfüllen. Diese können in der Ausgleichung, wie in MIKHAIL (1982 S. 215ff.)9 gezeigt, mit einer Null-Funktion \mathbf{f(x)}=\mathbf{0} sichergestellt werden. In folgenden Abschnitten werden alle Funktionen, die Bedingungen zwischen den Unbekannten beschreiben als \mathbf{c(x,v)} bezeichnet. Analog dazu sollen Restriktionen für Verbesserungen als \mathbf{r(x,v)} geführt werden. Deren Linearisierung erfolgt an der Stelle der jeweiligen Näherungswerte.

(17)   \begin{align*} \mathbf{C} &= \left. \frac{ \partial \mathbf{c} }{ \partial \mathbf{x} } \right|_{\mathbf{x}_0} \\ \mathbf{R} &= \left. \frac{ \partial \mathbf{r} }{ \partial \mathbf{v} } \right|_{\mathbf{v}_0} \end{align*}

Mit diesen Matrizen, den dazu gehörenden Korrelaten \mathbf{k}_c, \mathbf{k}_r und den Widerspruchsvektoren \mathbf{w}_c und \mathbf{w}_r erweitert sich die Lagrange-Funktion zu

(18)   \begin{equation*} f_3 = \underbrace{\underset{(1\times b)}{\mathbf{v}^T}\underset{(b\times b)} {\mathbf{P}_{ll}}\underset{(b\times 1)}{\mathbf{v}}}_{1\times 1} + \underbrace{\underset{(1\times u)}{\mathbf{x}^T}\underset{(u\times u)} {\mathbf{P}_{xx}}\underset{(u\times 1)}{\mathbf{x}}}_{1\times 1} -  \underbrace{\underset{(1\times n)}{2\mathbf{k}^T_m}(\underset{(n\times u)}{\mathbf{A}}\underset{(u\times 1)}{\mathbf{x}}+\underset{(n\times b)}{\mathbf{B}}\underset{(b\times 1)}{\mathbf{v}}+\underset{(n\times 1)}{\mathbf{w}_m})}_{1\times 1} \end{equation*}

    \begin{equation*}  - \underbrace{\underset{(1\times c)}{ 2\mathbf{k}_c^T}(\underset{(c\times u)}{\mathbf{C}}\underset{(u\times 1)}{\mathbf{x}} + \underset{(c\times 1)}{\mathbf{w}_c})}_{1\times 1}  - \underbrace{\underset{(1\times r)}{ 2\mathbf{k}_r^T}(\underset{(r\times b)}{\mathbf{R}}\underset{(b\times 1)}{\mathbf{v}} + \underset{(r\times 1)}{\mathbf{w}_r})}_{1\times 1}. \end{equation*}

Für die Berechnung des Minimums werden wie schon zuvor alle Ableitungen der ersten Ordnung zu Null gesetzt. Die Ableitung der Gleichung (12) bleibt erhalten.

(19)   \begin{align*} \frac{ \partial f_3}{\partial \mathbf{x}} = 2 \mathbf{x}^T\mathbf{P}_{xx} - 2 \mathbf{k}^T_m\mathbf{A} - 2 \mathbf{k}^T_c\mathbf{C} &= \mathbf{0}  \\ % 2 \mathbf{P}_{xx}\mathbf{x} - 2 \mathbf{A}^{T}\mathbf{k}_m  - 2 \mathbf{C}^{T}\mathbf{k}_c &= \mathbf{0} \qquad{} | : -2 \\ % \mathbf{A}^{T}\mathbf{k}_m + \mathbf{C}^{T}\mathbf{k}_c - \mathbf{P}_{xx}\mathbf{x} &= \mathbf{0}  \end{align*}

(20)   \begin{align*} \frac{ \partial f_3}{\partial \mathbf{v}} = 2 \mathbf{v}^T\mathbf{P}_{ll} - 2 \mathbf{k}^T_m\mathbf{B} - 2 \mathbf{k}^T_r\mathbf{R} &= \mathbf{0}  \\ % 2 \mathbf{P}_{ll}\mathbf{v} - 2 \mathbf{B}^{T}\mathbf{k}_m  - 2 \mathbf{R}^{T}\mathbf{k}_r &= \mathbf{0} \qquad{} | : -2 \\ % \mathbf{B}^{T}\mathbf{k}_m + \mathbf{R}^{T}\mathbf{k}_r - \mathbf{P}_{ll}\mathbf{v} &= \mathbf{0}  \end{align*}

(21)   \begin{align*} \frac{ \partial f_3}{\partial \mathbf{k}^T_c} = - 2(\mathbf{Cx}+\mathbf{w}_c) &= \mathbf{0} \qquad{} | : -2 \\ \mathbf{Cx}+\mathbf{w}_c &= \mathbf{0}  \end{align*}

(22)   \begin{align*} \frac{ \partial f_3}{\partial \mathbf{k}^T_r} = - 2(\mathbf{Rv}+\mathbf{w}_r) &= \mathbf{0} \qquad{} | : -2 \\ \mathbf{Rv}+\mathbf{w}_r &= \mathbf{0}  \end{align*}

Der Verbesserungsvektor ergibt sich aus der Gleichung (20).

(23)   \begin{align*} \mathbf{B}^{T}\mathbf{k}_m + \mathbf{R}^{T}\mathbf{k}_r - \mathbf{P}_{ll}\mathbf{v} &= \mathbf{0}  \qquad{} | \cdot \mathbf{Q}_{ll} \\ % 2 \mathbf{Q}_{ll}\mathbf{B}^{T}\mathbf{k}_m + \mathbf{Q}_{ll}\mathbf{R}^{T}\mathbf{k}_r - \mathbf{Q}_{ll}\mathbf{P}_{ll}\mathbf{v} &= \mathbf{0} \qquad{} | \hspace{6pt} \mathbf{Q}_{ll}\mathbf{P}_{ll} = \mathbf{E} \\ % 3 \mathbf{Q}_{ll}\mathbf{B}^{T}\mathbf{k}_m + \mathbf{Q}_{ll}\mathbf{R}^{T}\mathbf{k}_r - \mathbf{v} &= \mathbf{0} \\ % 4 \mathbf{Q}_{ll}(\mathbf{B}^{T}\mathbf{k}_m + \mathbf{R}^{T}\mathbf{k}_r) - \mathbf{v} &= \mathbf{0} \qquad{} | + \mathbf{v} \\ % 5 \mathbf{v} = \mathbf{Q}_{ll}(\mathbf{B}^{T}\mathbf{k}_m &+ \mathbf{R}^{T}\mathbf{k}_r)  \end{align*}

Analog dazu kann \mathbf{k}_m aus der Gleichung (20) berechnet werden.

(24)   \begin{align*} &\mathbf{Ax} + \mathbf{BQ}_{ll}(\mathbf{B}^{T}\mathbf{k}_m + \mathbf{R}^{T}\mathbf{k}_r) + \mathbf{w}_m  = \mathbf{0} \\ % 2  &\mathbf{Ax} + \mathbf{BQ}_{ll}\mathbf{B}^{T}\mathbf{k}_m + \mathbf{BQ}_{ll}\mathbf{R}^{T}\mathbf{k}_r + \mathbf{w}_m  = \mathbf{0}  \qquad{} | -(\mathbf{Ax} + \mathbf{BQ}_{ll}\mathbf{R}^{T}\mathbf{k}_r + \mathbf{w}_m) \\ % 3 &\mathbf{BQ}_{ll}\mathbf{B}^{T}\mathbf{k}_m = -(\mathbf{Ax} + \mathbf{BQ}_{ll}\mathbf{R}^{T}\mathbf{k}_r + \mathbf{w}_m) \qquad{} | \cdot \left(\mathbf{BQ}_{ll}\mathbf{B}^T\right)^{-1} \\ % 4 &\left(\mathbf{BQ}_{ll}\mathbf{B}^T\right)^{-1}\mathbf{BQ}_{ll}\mathbf{B}^{T}\mathbf{k}_m = -\left(\mathbf{BQ}_{ll}\mathbf{B}^T\right)^{-1}(\mathbf{Ax} + \mathbf{BQ}_{ll}\mathbf{R}^{T}\mathbf{k}_r + \mathbf{w}_m)  \\ % 5 &\mathbf{k}_m = -\left(\mathbf{BQ}_{ll}\mathbf{B}^T\right)^{-1}(\mathbf{Ax} + \mathbf{BQ}_{ll}\mathbf{R}^{T}\mathbf{k}_r + \mathbf{w}_m)  \end{align*}

Aus den Gleichungen (12), (19), (20), (21) und (22) entsteht eine an MIKHAIL (1982 S. 215ff.)10 angelehnte, symmetrische Blockmatrix.

(25)   \begin{equation*} \begin{bmatrix} \underset{b \times b}{-\mathbf{P}_{ll}} & \underset{b \times n}{\mathbf{B}^T} & \underset{b \times u}{\mathbf{0}} & \underset{b \times c}{\mathbf{0}}  & \underset{b \times r}{\mathbf{R}^T}  \\ % \underset{n \times b}{\mathbf{B}} & \underset{n \times n}{\mathbf{0}}   & \underset{ n \times u}{\mathbf{A}} & \underset{n \times c}{\mathbf{0}} & \underset{n \times r}{\mathbf{0}} \\ % \underset{ u \times b}{\mathbf{0}} & \underset{u \times n }{\hspace{6pt}\mathbf{A}^T} & \underset{ u \times u}{-\mathbf{P}_{xx}} & \underset{u \times c}{\hspace{6pt}\mathbf{C}^T}  & \underset{ u \times r}{\mathbf{0}} \\ % \underset{c \times b}{\mathbf{0}} & \underset{c \times n}{\mathbf{0}} & \underset{c \times u}{\mathbf{C}} & \underset{c \times c}{\mathbf{0}} & \underset{ u \times r}{\mathbf{0}} \\ % \underset{r \times b}{ \mathbf{R} } & \underset{r \times n}{ \mathbf{0} } & \underset{r \times u}{ \mathbf{0} } & \underset{r \times c}{ \mathbf{0} } & \underset{ r \times r }{ \mathbf{0} } \end{bmatrix} \begin{bmatrix} \underset{b \times 1}{\mathbf{v}} \\  \underset{n \times 1}{\mathbf{k}_m} \\  \underset{ u \times 1}{\mathbf{x}} \\  \hspace{4pt}\underset{ c \times 1}{ \mathbf{k}_c } \\ \hspace{4pt}\underset{ c \times 1}{ \mathbf{k}_r } \end{bmatrix} = \begin{bmatrix} \hspace{10pt}\underset{b \times 1}{\mathbf{0}} \\  \hspace{6pt}\underset{n \times 1}{\mathbf{-w}_m} \\  \hspace{10pt}\underset{ u \times 1}{\mathbf{0}} \\  \hspace{4pt}\underset{ c \times 1}{-\mathbf{w}_c} \\ \hspace{4pt}\underset{ c \times 1}{-\mathbf{w}_r} \end{bmatrix} \end{equation*}

Werden keine Restriktionen für Verbesserungen formuliert, so kann die fünfte Block-Zeile und Spalte wegen \mathbf{R=0} auch vernachlässigt werden. Analog dazu kann die vierte Block-Zeile und Spalte entfernt werden, wenn keine Bedingungen für die Parameter vorliegen. Trotz aller Reduktionen ist dieses Gleichungssystem wegen seiner Dimension (b+n+u+c+r)\times(b+n+u+c+r) für die Praxis eher ungeeignet, da es \mathbf{k}_c und \mathbf{v}-Elemente im Lösungsvektor führt, die auch über geschlossene und unabhängige Formeln (23), (24) berechnet werden können.

Der Berechnungsaufwand für die Lösung ist \approx O(n^3). Bei Verwendung von dünn besetzten (SPARSE) Matrizen kann eine deutlich günstigere Aufwandsklasse \approx O(NNE) erreicht werden, da diese i. d. R. von der Nicht-Null-Elemente-Anzahl (NNE) abhängt.

Zusätzlich ist es möglich einige Komponenten des Lösungsvektors zu entfernen. Diese werden bei Bedarf über geschlossene und unabhängige Formeln wie (23) und (24) berechnet. Da \mathbf{v} üblicherweise der größte der Teil der Lösung ist, wird er durch das Einsetzen der Gleichung (23) in (12) und (22) aus der Lösung entfernt

(26)   \begin{align*} \mathbf{BQ}_{ll}\mathbf{B}^T\mathbf{k}_m + \mathbf{Ax} + \mathbf{BQ}_{ll}\mathbf{R}^T\mathbf{k}_r &= -\mathbf{w}_m \\ % 2 \label{eqn:f3_no_v_bedingung_2} \mathbf{RQ}_{ll}\mathbf{B}^T\mathbf{k}_m\hspace{25pt}+ \mathbf{RQ}_{ll}\mathbf{R}^T\mathbf{k}_r &= -\mathbf{w}_r. \end{align*}

Diese Substitution ermöglicht es die Dimension auf (n+u+c+r)\times(n+u+c+r) zu reduzieren, ohne die Symmetrie aufgeben zu müssen. Das neu gebildete Blockmatrizensystem verwendet die Gleichungen (19), (21) und (26)

(27)   \begin{equation*} \begin{bmatrix} \underset{n \times n}{\mathbf{BQ}_{ll}\mathbf{B}^T} & \underset{n \times u}{\mathbf{A}} & \underset{n \times c}{\mathbf{0}}  & \underset{n \times r}{\mathbf{BQ}_{ll}\mathbf{R}^T} \\ \underset{u \times n}{\hspace{6pt}\mathbf{A}^T} & \underset{u \times u}{-\mathbf{P}_{xx}} & \underset{u \times c}{\hspace{6pt}\mathbf{C}^T} & \underset{u \times r}{\mathbf{0}} \\ \underset{c \times n}{\mathbf{0}} & \underset{c \times u}{\mathbf{C}} & \underset{c \times c}{\mathbf{0}} & \underset{c \times r}{\mathbf{0}} \\ \underset{r \times n}{\mathbf{RQ}_{ll}\mathbf{B}^T} & \underset{r \times u}{\mathbf{0}} & \underset{r \times c}{\mathbf{0}} & \underset{r \times r}{\mathbf{RQ}_{ll}\mathbf{R}^T} \end{bmatrix} \begin{bmatrix} \underset{n \times 1}{\mathbf{k}_m} \\ \underset{ u \times 1}{\mathbf{x}} \\ % \hspace{4pt}\underset{c \times 1}{ \mathbf{k}_c } \\ % \hspace{4pt}\underset{r \times 1}{ \mathbf{k}_r } \end{bmatrix} = \begin{bmatrix} \hspace{4pt}\underset{n \times 1}{\mathbf{-w}_m} \\ % \hspace{10pt}\underset{u \times 1}{\mathbf{0}} \\ %  \hspace{4pt}\underset{c \times 1}{-\mathbf{w}_c} \\ % \hspace{4pt}\underset{r \times 1}{-\mathbf{w}_r} \end{bmatrix}. \end{equation*}

Wie zuvor können auch in dieser Blockmatrix die letzten beiden Spalten und Zeilen entfernt werden, wenn keine Restriktionen für die Unbekannten eingeführt werden.

Neben \mathbf{v} ist \mathbf{k}_m normalerweise der zweitgrößte Vektor der Lösung. Dieser lässt sich durch das Einsetzen der Gleichung (24) in (19) und (26) heraustrennen. Nach einer etwas längeren und unübersichtlichen Umformung und Zusammenfassung entstehen nochmals reduzierte Bedingungsgleichungen.

(28)   \begin{align*} &-(\mathbf{A}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{A} + \mathbf{P}_{xx})\mathbf{x} - \mathbf{A}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{BQ}_{ll}\mathbf{R}^T\mathbf{k}_r + \mathbf{C}^T\mathbf{k}_c \\ \nonumber &= \mathbf{A}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{w}_m \end{align*}

(29)   \begin{align*} &-\mathbf{RQ}_{ll}\mathbf{B}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{Ax} -\mathbf{RQ}_{ll}\mathbf{B}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{BQ}_{ll}\mathbf{R}^T\mathbf{k}_r  \\ \nonumber &+ \mathbf{RQ}_{ll}\mathbf{R}^T\mathbf{k}_r = \mathbf{RQ}_{ll}\mathbf{B}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{w}_m -\mathbf{w}_r  % \end{align*}

Aus (21), (28) und (29) folgt das nochmals reduzierte Blockmatrizensystem

(30)   \begin{align*} &\begin{bmatrix} \underset{u \times u}{-\mathbf{A}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{A} - \mathbf{P}_{xx}} & \underset{ u \times c}{\mathbf{C}^T} & \underset{u \times r}{-\mathbf{A}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{BQ}_{ll}\mathbf{R}^T} \\ % 2 \underset{c \times u}{\mathbf{C}} & \underset{c \times c}{\mathbf{0}} & \underset{c \times r}{\mathbf{0}} \\ % 3 \underset{r \times u}{-\mathbf{RQ}_{ll}\mathbf{B}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{A}} & \underset{r \times c}{\mathbf{0}} & \underset{r \times r}{\mathbf{RQ}_{ll}\mathbf{R}^T-\mathbf{RQ}_{ll}\mathbf{B}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{BQ}_{ll}\mathbf{R}^T} \end{bmatrix} \begin{bmatrix} \underset{u \times 1}{\mathbf{x}} \\  % 2 \underset{c \times 1}{\mathbf{k}_c} \\ % 3 \underset{r \times 1}{\mathbf{k}_r} \end{bmatrix}  \\ \nonumber = &\begin{bmatrix} \underset{u \times 1}{\mathbf{A}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{w}_m}\\ % 2 \hspace{4pt}\underset{c \times 1}{ -\mathbf{w}_c } \\ % 3 \underset{r \times 1}{\mathbf{RQ}_{ll}\mathbf{B}^T(\mathbf{BQ}_{ll}\mathbf{B}^T)^{-1}\mathbf{w}_m - \mathbf{w}_r} \end{bmatrix}. \end{align*}

Auch nach diesem Schritt bleibt bleibt die Symmetrie erhalten. Auch hier entfallen einzelne Blockmatrizenspalten/Zeilen, wenn keine Restriktionen formuliert werden.

Quellen und Fußnoten

  1. KRABS, Werner: Optimization and approximation. Chichester Eng. New York : Wiley, 1979. – ISBN 0471997412 []
  2. BÖCK, Rudolf: Allgemeinste Formulierung der Ausgleichungsrechnung nach der Methode der kleinsten Quadratsummen. Zeitschrift für Geodäsie, Geoinformation und Landmanagement Jahrgang 86 (1961), S. 43ff. und 98ff. []
  3. BOPP, Hanspeter ; KRAUSS, Herbert: Strenge oder herkömmliche bedingte Ausgleichung mit Unbekannten bei nichtlinearen Bedingungsgleichungen? In: Allgemeine Vermessungs-Nachrichten 84 (1978), S. 27–31 []
  4. LENZMANN, Lothar ; LENZMANN, Enno: Strenge Auswertung des nichtlinearen Gauß-Helmert-Modells. In: Allgemeine Vermessungs-Nachrichten (2004), S. 68– 73 []
  5. NEITZEL, F., PETROVIC, S. (2008): Total Least Squares (TLS) im Kontext der Ausgleichung nach kleinsten Quadraten am Beispiel der ausgleichenden Geraden. Zeitschrift für Geodäsie, Geoinformation und Landmanagement 3/2008 S. 141-148, Wißner-Verlag, Augsburg []
  6. CASPARY, Wilhelm: Auswertung von Messdaten : statistische Methoden für Geound Ingenieurwissenschaften. München Wien : Oldenbourg, 2007. – ISBN 9783486583519 S. 177ff. []
  7. MIKHAIL, Edward: Observations and least squares. Washington, D.C : University Press of America, 1982. – ISBN 0819123978 []
  8. NIEMEIER, Wolfgang: Ausgleichungsrechnung : statistische Auswertemethoden. Berlin u.a : De Gruyter, 2008. – ISBN 3110190559 S. 177 []
  9. MIKHAIL, Edward: Observations and least squares. Washington, D.C : University Press of America, 1982. – ISBN 0819123978 []
  10. MIKHAIL, Edward: Observations and least squares. Washington, D.C : University Press of America, 1982. – ISBN 0819123978 []

Methode der kleinsten Quadrate

Die Methode der kleinsten Quadrate ( kurz : MDQ ) nach GAUSS (1795)1 und LEGENDRE (1805), welche unter anderem wie in Fuchs FUCHS (1980)2 als L_2-Norm klassifiziert werden kann, ist ein mathematisch begründetes Verfahren zur Lösung von Gleichungssystemen mit mehr Gleichungen als Unbekannten.

Liegen in einem funktionalen Zusammenhang genauso viele Beobachtungen b_i wie Unbekannte x_i vor, die frei von zufälligen, groben und systematischen Fehlern sind

(1)   \begin{flalign*} \left\{ \begin{array}{c} x_{11} + x_{12} + \ldots + x_{1n} = b_1 \\ x_{21} + x_{22} + \ldots + x_{2n} = b_2 \\ \vdots \\ x_{n1} + x_{n2} + \ldots + x_{nn} = b_n \end{array} \right.& \end{flalign*}

so können die Unbekannten mit Hilfe von klassischen Methoden wie dem Einsetzungsverfahren oder dem Gleichsetzungsverfahren berechnet werden. Sobald jedoch mehr Beobachtungen als Unbekannte vorliegen, welche mit Abweichungen v_i behaftet sind,

(2)   \begin{equation*} \left\{ \begin{array}{c} x_{11} + v_{11} + \ldots + x_{1n} + v_{1n} = b_1 + v_{b1} \\ x_{21} + v_{21} + \ldots + x_{2n} + v_{2n} = b_2 + v_{b2} \\ \vdots \\ x_{m1} + v_{m1} + \ldots + x_{mn} + v_{mn} = b_m + v_{bm} \end{array} \right. \end{equation*}

können die Unbekannten in der Regel nicht mit den o.g. Verfahren widerspruchsfrei ermittelt werden. Um in solchen überbestimmten Gleichungssystemen dennoch zu einem befriedigenden Ergebnis zu gelangen, müssen Kompromisse eingegangen und Widersprüche hingenommen werden. MDQ nimmt diese Widersprüche hin, sorgt aber dafür, dass ihre Quadratesumme ein mathematisch begründetes Minimum

(3)   \begin{equation*} \sum\limits_{i=1}^{n} v_iv_i \rightarrow min. \end{equation*}

annimmt. Dabei wird zunächst wie in (Abbildung 1 – links) vorgegangen.

Methode der kleinsten Quadrate

Abbildung 1 - Methode der kleinsten Quadrate


 

Passend zum funktionalen Zusammenhang der jeweiligen Beobachtungen wird zunächst eine Näherungslösung ermittelt, deren Fehlerquadrate-Fläche noch nicht minimal ist. Anschließend werden die optimalen Parameter (Abbildung 1 – rechts) über verschiedene Verfahren wie Gauß-Helmert-Modell berechnet.

Ausführliche Beschreibung dieser Methode bieten unter anderem folgende Werke: KOCH (1997)3, NIEMEIER (2008)4, JÄGER (2005)5 sowie CASPARY (2007)6.

Zuletzt aktualisiert: 27. Sep 2012 @ 22:34

Quellenangabe

  1. GAUSS, C.-F., Theoria combinationis observationum erroribus minimis obnoxiae , 2 Tle. Göttingen,1795 []
  2. FUCHS, Helmut: Untersuchungen zur Ausgleichung durch minimieren der Absolutsumme der Verbesserungen , Technische Universität Graz, Fakultät für Bauingenieurwesen, Diss., 1980 S. 3ff. []
  3. KOCH, Karl-Rudolf: Parameterschätzung und Hypothesentests in linearen Modellen. Bonn : Dümmler, 1997. – ISBN 9783427789239 []
  4. NIEMEIER, Wolfgang: Ausgleichungsrechnung : statistische Auswertemethoden. Berlin u.a : De Gruyter, 2008. – ISBN 3110190559 []
  5. JÄGER, Reiner ; MÜLLER, Tilman ; SALER, Heinz ; SCHWÄBLE, Rainer: Klassische und robuste Ausgleichungsverfahren : ein Leitfaden für Ausbildung und Praxis von Geodäten und Geoinformatikern. Heidelberg : Wichmann, 2005. – ISBN 3879073708 []
  6. CASPARY, Wilhelm: Auswertung von Messdaten : statistische Methoden für Geound Ingenieurwissenschaften. München Wien : Oldenbourg, 2007. – ISBN 9783486583519 []

Ausgleichender Kreis im Gauß-Helmert-Modell

Vorwort

Im Rahmen dieses Artikels soll die Anwendung des Gauß-Helmert-Modells anhand der Bestimmung ausgleichender Kreise vorgeführt werden. Grundlegendes zur Methode der kleinsten Quadrate finden Sie (hier). Die allgemeine Herleitung des Gauß-Helmert-Modells (GHM) kann (hier) nachgelesen werden.

Weiterlesen

Ausgleichende Gerade im Gauß-Helmert-Modell

Vorwort

Im Rahmen dieses Artikels soll die Anwendung des Gauß-Helmert-Modells anhand der Bestimmung ausgleichender Geraden vorgeführt werden. Grundlegendes zur Methode der kleinsten Quadrate finden Sie (hier). Die allgemeine Herleitung des Gauß-Helmert-Modells kann (hier) nachgelesen werden.

Weiterlesen