Redundanzfreie omnimodale 3D-Detektionstechnologie.
Heutige Systeme zur Erfassung von 3D-Szenen sind durch eine gegenüber 2D-Systemen extrem hohe Redundanz der Bilddaten gekennzeichnet. In 2D-Systemen erfasst der 2D-Detektorchip das aufzunehmende Bild direkt in der Bildebene, dabei bestehen nahezu keine Redundanzen im generierten Datenstrom. Demgegenüber entsteht bei der Erfassung von 3D-Szenen mit heute etablierten Systemansätzen eine hohe Redundanz im Rohdatenstrom, da die 3D-Informationen ineffizient auf die 2D-Detektorarrays abgebildet werden, z. B. durch Mehrfachbildsequenzen bei der Musterprojektion, Mehrfachabbildungen bei plenoptischen Kameras und Zeitsampling bei Time-of-Flight Systemen. Abstrakte Ursache dieser Ineffizienz ist die nicht optimale Transformation der Bildinformationen von 3D zu 2D in dem jeweiligen Detektionsprinzip. Praktische Ursache ist, dass konventionelle optische Abbildungssysteme scheinbar keine solche optimale Transformation in die verfügbare zweidimensionale Ebene des Detektors ermöglichen bzw. bisher noch keine solche Transformation gefunden wurde.
Dieser Fakt wirkt sich in zweierlei Hinsicht limitierend auf die Leistungsfähigkeit heutiger 3D-Detektionssysteme aus. Einerseits führen die Redundanzen in den Rohdaten zu einer Verschlechterung des Signal-Rausch-Verhältnisses, da die schlecht konditionierten Rohdaten nicht vollständig in die zu erfassende 3D-Szeneninformation importiert werden können. Andererseits weisen verfügbare Detektortechnologien und Signalverarbeitungstechnologien eine Begrenzung des Gesamtdatenstroms auf, welche letztendlich die Systemleistung beschränkt.
Ziel des Innovationsprojektes OMNIdetect ist die Erforschung neuer 3D-Detektionstechnologien, die gegenüber dem Stand der Technik eine effizientere Abtastung von 3D-Daten und damit eine wesentlich höhere Informationsdichte der aufgenommen Rohdaten ermöglichen.