Ganganalyse

Die menschliche Fortbewegung wird durch ein komplexes Zusammenspiel von Muskeln, Skelett und dem Nervensystem bewerkstelligt. Mögliche Beeinträchtigungen eines dieser anatomischen Systeme können bereits frühzeitig anhand einer Ganganalyse erkannt werden. Dazu werden beispielsweise Schrittlänge, Gehgeschwindigkeit, Schrittfrequenz, Gelenkwinkel, auf die Gelenke einwirkende Kräfte, Muskelaktivität und Energieverbrauch ausgewertet. Diese Informationen können mithilfe von Sensoren aufgezeichnet werden.

In Zusammenarbeit mit Prof. Kerstin Lüdtke (Physiotherapie, Universität zu Lübeck) und dem Unternehmen Future-Shape GmbH entwickeln wir Verfahren der Künstlichen Intelligenz, die die Ganganalyse automatisieren und objektivieren sollen. Für die Auszeichnung der erforderlichen Daten verwenden wir u.a. den SensFloor, RGB-Kameras, Tiefensensorik und Wearables (IMUs). Der SensFloor erfasst alle Orte, an denen der Fuß beim Gehen den Boden berührt. Daraus können wir anschließend die geometrischen und zeitlichen Informationen von Schritten berechnen. IMUs können direkt am Körper befestigt werden und liefern Daten über Beschleunigungen, Drehraten und Ausrichtung der Patienten. Zusätzlich extrahieren wir aus den Kamerabildern die Gelenkwinkel und -positionen. All diese Daten nutzen wir zur Unterscheidung zwischen pathologischen und gesunden Gangbildern.

Aus Sicht der KI-Methodologie erforschen wir in diesem Kontext Deep Learning-Verfahren, aber auch einen von uns entwickelten Algorithmus, der die raumzeitlichen Bewegungsmerkmale des menschlichen Gangs für die individuelle Identifikation berechnet, ohne dass die traditionelle Schattenriss-Extraktion aus Videosequenzen erforderlich ist. Die extrahierten lokalen Bewegungsdaten werden mit Hilfe des auf dem Gaußschen Mischmodell basierenden sog. Codebook-Ansatzes in High-Level-Deskriptoren kodiert und mit einer einfachen linearen Support Vector Machine klassifiziert. Unsere Mustererkennungsplattform haben wir bereits an fünf weitverbreiteten Gangdatenbanken getestet und eine Erkennungsrate bis zu 98% erhalten.

Publikationen

Khan, Muhammad Hassan and Farid, Muhammad Shahid and Grzegorzek, Marcin. A Non-linear View Transformations Model for Cross-view Gait Recognition. Elsevier Neurocomputing, April 2020.

Khan, Muhammad Hassan, Muhammad Shahid Farid, and Marcin Grzegorzek. Spatiotemporal features of human motion for gait recognition. Signal, Image and Video Processing 13.2 (2019): 369-377.