Multimodaler omnidirektionaler 3D-Sensor für die Verhaltensanalyse von Personen
Der demographische Wandel stellt die Gesellschaft vor große Herausforderungen, welchen in zunehmendem Maße auch mit technischen Innovationen begegnet wird. An dieser Stelle sollen zahlreiche neue Konzepte, für welche sich der Begriff Ambient Assisted Living (AAL) etabliert hat, einen Lösungsweg bieten. Insbesondere die Unterstützung von Demenzkranken durch technische Assistenzfunktionen erzielte hier zuletzt große Fortschritte. Hierbei basieren leistungsfähige Assistenz- und Informationssysteme auf verteilten, heterogenen Sensornetzwerken. Eine solche Sensorik und ihre Fusion erzeugen eine hohe Systemkomplexität und erhöhten infrastrukturellen Aufwand bei der Integration in das häusliche Umfeld.
Ziel des Projektes MOVA3D ist die Schaffung einer integrierten Sensorplattform zur Situationserfassung basierend auf einem neuartigen omnidirektionalen 3D-Stereoverfahren zur vollständigen Abdeckung eines Raumes mit einem einzigen Sensor. Die Integration von 3D-Audio-Erfassung und Ausgabe ermöglicht dem System (u. a.) die bidirektionale Kommunikation mit dem Patienten und erhöht damit dessen Sicherheitsempfinden. Zudem findet eine Fusion der prozessierten 3D-Video/Audio-Daten durch ein multimodales Verhaltensmodell statt.
Beteiligte Partner:
- Design:lab weimar GmbH
- TU Chemnitz
- OVGU Magdeburg
- Voice INTER connect GmbH
- Vitracom AG
- Fraunhofer IIS
- NSC GmbH
- Pattern Expert
- Verband Sächsischer Wohnungsgenossenschaften e.V.