Erkennung menschlicher Aktivitäten

Die Erfassung und Analyse von physischen und kognitiven Aktivitäten eines Menschen im Alltag und/oder im Labor kann zu besseren diagnostischen und therapeutischen Entscheidungen z.B. bei neurodegenerativen Erkrankungen oder hinsichtlich personalisierter Ernährung führen. Die rasante Entwicklung auf dem Gebiet der Sensorik, insbesondere hinsichtlich der tragbaren Sensorsysteme (Wearables), gibt uns immer mehr Werkzeuge an die Hand, physiologische und behaviorale Messungen am Menschen durchzuführen, nicht nur im Labor sondern auch im Alltag. Ausgewertet von modernen Methoden der lernbasierten Mustererkennung (Machine Learning) können diese multimodalen Sensordaten dazu genutzt werden, die gesundheitsbezogenen Entscheidungen zu informieren.

Im Projekt CogAge haben wir eine Plattform entwickelt, die die physischen Aktivitäten eines Menschen anhand von Sensordaten seiner Wearables kontinuierlich und in Echtzeit erkennt. Da unklar ist, welche Merkmale für eine genaue Erkennung physischer Aktivitäten nützlich sind, generieren wir diese nach dem sog. Codebook-Ansatz. Inspiriert von der Textverarbeitung haben wir das Codebook-Verfahren in Richtung der Modellierung und Klassifikation von multimodalen Zeitreihen weiterentwickelt. Die eindimensionalen Sensorsignale werden zunächst in Zeitfenster unterteilt. Anschließend werden die Signalsequenzen (Codewörter) in den Zeitfenstern nach Formähnlichkeit gruppiert (Clustering). Die Codewörter-Verteilung in den Clustern stellt einen Merkmalsvektor dar, der einen bestimmten zeitlichen Abschnitt des Signals beschreibt. Zum Schluss setzen wir unterschiedliche Klassifikationsalgorithmen zur automatisierten Erkennung der physischen Aktivitäten ein.

In unserer zukünftigen Forschung auf diesem Gebiet planen wir, eine multimodale Sensorplattform (SensFloor, RGB-Kamera, Tiefensensorik, Wearables, etc.) zur detaillierten Erfassung von Körperbewegungen aufzubauen sowie Algorithmen der Sensordatenfusion und Merkmalsextraktion zu entwickeln, die aus den Rohsignalen Bewegungsprofile in Form von hochdimensionalen, mathematischen Modellen erstellen. Auf diese Weise soll WissenschaftlerInnen und ÄrztInnen, die in ihrer Forschung und/oder Versorgung Körperbewegungen in Betracht ziehen, ein Tool zu ihrer präzisen, quantitativen Einschätzung verfügbar gemacht werden. Diese Forschungsaktivitäten werden in dem von uns an der Universität zu Lübeck eingerichteten APPS Lab durchgeführt.

Drittmittelprojekte, Publikationen, Demos:

BMBF-Projekt: Cognitive Village - Adaptiv-lernende, technische Alltagsbegleiter im Alter. Laufzeit: 01.09.2015 - 30.11.2018.

Lukas Köping, Kimiaki Shirahama, and Marcin Grzegorzek. A General Framework for Sensor-based Human Activity Recognition. Elsevier Computers in Biology and Medicine, April 2018.

Przemysław Łagodziński, Kimiaki Shirahama, and Marcin Grzegorzek. Codebook-based Electrooculography Data Analysis Towards Cognitive Activity Recognition. Elsevier Computers in Biology and Medicine, April 2018.

Frédéric Li, Kimiaki Shirahama, Muhammad Adeel Nisar, Lukas Köping, and Marcin Grzegorzek. Comparison of Feature Learning Methods for Human Activity Recognition using Wearable Sensors. MDPI Sensors, 18(2), February 2018.

Demo-Video: Atomic Activity Recognition Using Wearable Devices.

Demo-Video: Composite Activity Recognition Using Wearable Devices.