Ganganalyse

Die menschliche Fortbewegung wird durch ein komplexes Zusammenspiel von Muskeln, Skelett und dem Nervensystem bewerkstelligt. Mögliche Beeinträchtigungen eines dieser anatomischen Systeme können bereits frühzeitig durch Experten anhand einer Ganganalyse erkannt werden. Dazu werden beispielsweise Schrittlänge, Gehgeschwindigkeit, Schrittfrequenz, Gelenkwinkel, auf die Gelenke einwirkende Kräfte, Muskelaktivität und Energieverbrauch ausgewertet. Diese Informationen können mithilfe von Sensoren aufgezeichnet werden.

In Zusammenarbeit mit Prof. Kerstin Lüdtke (Physiotherapie, Universität zu Lübeck) und dem Unternehmen Future-Shape GmbH entwickeln wir Verfahren der Künstlichen Intelligenz, die die Gang- und Bewegungsanalyse automatisieren und objektivieren sollen. Für die Aufzeichnung der erforderlichen Daten verwenden wir u.a. den SensFloor, RGB-Kameras, Tiefensensorik und Wearables (IMUs). Der SensFloor ist ein weitläufig unter dem normalen Bodenbelag verlegbarer Sensor, der die elektrischen Kapazitäten der sich auf ihm befindenden Personen und Gegenstände misst. Aus diesen Informationen können wir anschließend die geometrischen und zeitlichen Informationen von Bewegungsmustern berechnen. IMUs werden in der Regel direkt am Körper befestigt werden und nehmen Daten wie Beschleunigung, Drehrate und Ausrichtung der Testpersonen auf. Zusätzlich können aus den Kamerabildern Informationen wie Gelenkwinkel und -positionen extrahiert werden. All diese Daten nutzen wir zur Unterscheidung von pathologischen und gesunden Gangbildern, sowie zur Definition eines allgemeinen Bewegungsverhaltens.

Aus Sicht der KI-Methodologie verwenden wir in diesem Kontext herkömmliche Deep Learning-Verfahren, sowie von uns selbst entwickelte Algorithmus, die die raumzeitlichen Bewegungsmerkmale des menschlichen Gangs für die individuelle Identifikation berechnen, ohne dass die traditionelle Schattenriss-Extraktion aus Videosequenzen erforderlich ist. Die extrahierten lokalen Bewegungsdaten werden zum Beispiel mithilfe des auf dem Gaußschen Mischmodell basierenden sog. Codebook-Ansatzes in High-Level-Deskriptoren kodiert und mit einer einfachen linearen Support Vector Machine klassifiziert. Unsere Mustererkennungsplattform haben wir bereits an fünf weitverbreiteten Gangdatenbanken getestet und eine Erkennungsrate bis zu 98% erhalten. Ein weiterer Ansatz beschäftigt sich mit der Personenidentifikation und der Eventerkennung mithilfe vom SensFloor aufgenommenen Bewegungsdaten. In diesem Bereich arbeiten wir an Echtzeitverarbeitung der SensFloor Daten mittels LSTM und Algorithmen des unüberwachten Lernens.

Ansprechpartner

Dr.-Ing. Szymon Sieciński

Publikationen

Khan, Muhammad Hassan and Farid, Muhammad Shahid and Grzegorzek, Marcin. A Non-linear View Transformations Model for Cross-view Gait Recognition. Elsevier Neurocomputing, April 2020.

Khan, Muhammad Hassan, Muhammad Shahid Farid, and Marcin Grzegorzek. Spatiotemporal features of human motion for gait recognition. Signal, Image and Video Processing 13.2 (2019): 369-377.

Liebenow, Laura and Walter, Jasmin and Hoffmann, Raoul and Steinhage, Axel and Grzegorzek, Marcin.
Classifying Changes in Motion Behaviour Due to a Hospital Stay Using Floor Sensor Data--A Single Case Study. International Conference on Information Technologies in Biomedicine, Springer 2022

Bader, Felicia and Liebenow, Laura and Steinhage, Axel.
Using Deep Learning to Identify Persons by their Movement on a Sensor Floor. Proceedings of the 8th international Workshop on Sensor-Based Activity Recognition and Artificial Intelligence, 2023