Schlagwort-Archive: photogrammetry

Beitrag gis.Science – Genauigkeitsabschätzung von Bündelblockausgleichungen mit Hilfe des EMVA1288 Standards

Zusammenfassung

Dieser Beitrag beschreibt die a priori Abschätzung erreichbarer Genauigkeiten der Bündelblockausgleichung. Dies geschieht mit Hilfe des EMVA1288 Standards. Durch numerische Simulationen wird hierzu zunächst die Zentrumsunsicherheit der Zielmarken mit der daraus folgenden Objektraum-Unsicherheit verknüpft. Der nächste Schritt ist eine Verknüpfung der EMVA1288-Kennzahlen und der daraus resultierenden Unsicherheit eines Grauwertes mit Algorithmen zur Ellipsendetektion. Abschließend wird ein stochastisches Modell vorgeschlagen und an einer real durchgeführten Kamerakalibrierung untersucht.

Erstentwurf-Dokument: Accuracy estimation for bundle-adjustments by using the EMVA1288 standard

Accuracy estimation for bundle-adjustments by using the EMVA1288 standard

Abstract

This article describes a method which predicts the resulting bundle-adjustment accuracies, by using the EMVA1288 standard. In the first step a numerical simulation is done, which links the target accuracy in the image space with accuracies in the object space. The next step links EMVA1288 parameters to target detection algorithms in order to approximate the uncertainty resulting from grey value noise. Finally a real camera calibration with the proposed stochastic model is carried out.

Draft-Document: Accuracy estimation for bundle-adjustments by using the EMVA1288 standard

Beitrag Oldenburger 3D Tage 2016 – Analyse von Bildresiduen mit Machine-Learning im Kontext von Kamera-Kalibrierungen

Autoren

Waldemar Mordwinzew, Frank Boochs, Dietrich Paulus

Zusammenfassung

Photogrammetrie ermöglicht es, Objekte mit Hilfe von Digitalbildern zu vermessen. Bei optimalen Messbedingungen sind Unterschiede in der Qualität der abgeleiteten Maße vor allem auf die mathematische Modellierung des verwendeten Sensors und der Linse zurückzuführen. Kalibrierungen erfolgen meist mittels Bündelblockausgleichung, die es gestattet, daraus vielerlei statistische Kennzahlen abzuleiten. Eine tiefergehende Analyse der berechneten Parameter, Standardabweichungen, Korrelationen und deren Verteilungen kann Aufschluss geben, ob das verwendete Kalibriermodell Schwächen aufweist. Solche Defizite können sich durch systematische Restfehler im Bild- oder Objektraum äußern. Da solche Restfehler zu Ungenauigkeiten in den daraus abgeleiteten Informationen führen können, ist deren mathematischer Nachweis und anschließende Kompensation zur Erzielung höchster Genauigkeiten unausweichlich. Neueste Ansätze nutzen Korrekturterme, um solche Systematiken schon während der Bündelblockausgleichung zu modellieren. Der vorliegende Beitrag beschreibt, wie auch Machine-Learning Techniken dabei helfen können, verbliebene systematische Abweichungen in Bildresiduen nachzuweisen, ohne dass hierzu ein Eingriff in die Bündelblockausgleichung notwendig ist. Dies wird im ersten Schritt anhand von Beispieldaten erläutert. Im zweiten Schritt wird die Wirkung dieser Vorgehensweise an einer realen Kamerakalibrierung verdeutlicht. Abschließend erfolgt eine Diskussion der im Zuge dieser Arbeit erzielten Resultate und möglicher Eignung dieses Verfahrens in der Praxis.

Vorgestellt wurde diese Arbeit während der Oldenburger 3D Tage 2016. Der Erstentwurf samt Folien, des später eingereichten Artikels kann hier heruntergeladen werden:

Dokument: Analyse von Bildresiduen mit Machine-Learning im Kontext von Kamera-Kalibrierungen

Folien: Analyse von Bildresiduen mit Machine-Learning im Kontext von Kamera-Kalibrierungen