Integration von 3D-Fahrzeuginnenraum- und -umfelderfassung zur Steigerung des Nutzererlebnisses beim hochautomatisierten Fahren
Hochautomatisiertes Autofahren sichert in Zukunft allen Altersgruppen neue Möglichkeiten des Zugangs und Erhalts der individuellen Mobilität. Die damit einhergehende Veränderung der Fahrerrolle vom aktiven Lenker zum zunehmend passiven Systemüberwacher wirft neue Fragen der Mensch-Technik-Interaktion auf. Wie interagiert das automatisierte Fahrzeug mit anderen Verkehrsteilnehmern, insbesondere Fußgängern oder Radfahrern? Wie kann sichergestellt werden, dass eine automatisierte Fahrweise vom Fahrer bzw. Passagier als komfortabel erlebt wird?
Die dafür benötigten Informationen über den Zustand der Passagiere im Innenraum und der Fahrsituation im Außenraum stellen besondere Anforderungen an die erforderliche optischeSensorhardware zur Gewinnung der zu interpretierenden 3D-Basisdaten. Diese müssen aus stark variierenden Objektbereichen mit flexiblem Anforderungsprofil hinsichtlich lateraler als auch axialer Auflösung und Gesichtswinkel mit großer Robustheit gegenüber Störeinflüssen und in Echtzeit gewonnen werden. Hierzu soll ein multiskaliges Sensorsystem entwickelt werden, das erstmalig die jeweils für sich allein betrachtet bereits 3D-fähigen Prinzipien plenoptischer Arraykameras, der Stereoskopie sowie der Musterprojektion kombiniert.
Beteiligte Partner:
- TU Chemnitz
- AiM Micro Systems GmbH
- FusionSystems GmbH
- Fraunhofer IOF
- FORTecH Software GmbH
- SQB GmbH