Deutsche Forschungsgemeinschaft

Echtzeit MRT-geführte Bewegungskompensation mit modellbasierter Registrierung ohne Marker

Physiologische Bewegungen des Patienten während der Strahlentherapie ist ein gewichtiges Problem für die genaue Verteilung der Bestrahlungsdosis. Eine genaue Kompensation der Bewegungsstörungen in Echtzeit könnte mittels eines MRT-geführten Strahlentherapiesystems durchgeführt werden. Das Ziel dieses Projektes ist die Entwicklung von Algorithmen, die mit hoher Robustheit, die örtliche Schätzung intrafraktioneller Bewegungen ohne Implantation von Markern möglich machen und den Stand der Technik sowohl hinsichtlich von Genauigkeit als auch Rechenzeit deutlich verbessern.

Zum Erreichen verbesserter Bewegungskompensation sollen kürzlich erreichte Fortschritte der diskreten mathematischen Optimierung mit Lernverfahren kombiniert werden um vielfältiges Vorwissen und Patienten-spezifische Bewegungsmodelle in die Schätzung einfließen zu lassen. Während einer kurzen Lernphase sollen MRT Bilder mit hoher zeitlicher Auflösung unter freier Atmung aufgenommen werden. Hieraus kann analog zu Vorarbeiten und mit Hilfe von sehr effizienten nichtlinearen Registrierungstechniken, ein Bewegungsmodell basierend auf einer Hauptkomponentenanalyse oder mit Bayes Modellen bestimmt werden. Merkmalspunkte, die ausreichend Bildinformationen an geometrisch interessanten Positionen im Referenzscan enthalten sollen automatisch und mit Hilfe von Lernverfahren gefunden werden um das invasive Einbringen von Markern zu vermeiden.

Eine robuste, echtzeitfähige Bewegungsschätzung, mit hoher Genauigkeit, wird dann durch den Einsatz eines effizienten numerischen Optimierungsverfahren unter Verwendung des gelernten Modells zur Regularisierung der Lösung erreicht. Hierbei können potentielle Fehler durch die Verwendung eines sehr großen Suchraums diskreter Verschiebungsvektoren vermieden werden. Der Algorithmus soll mit retrospektiven klinischen 4D-MRT Aufnahmen und manuell annotierten Landmarken auf seine Tauglichkeit überprüft und mit anderen Methoden des aktuellen Forschungsstandes verglichen werden.


Abb. 1: Übersicht des Projektplans für die Bewegungsschätzung in 4D-MRT mit modellbasierte Regularisierung

Das Projekt wird durch die Deutsche Forschungsgemeinschaft (DFG) gefördert (HE 7364/1-1).

Ausgewählte Publikationen:

  1. Wilms M., Ha I.Y., Handels H., Heinrich M.P.
    Model-based Regularisation for Respiratory Motion Estimation with Sparse Features in Image-guided Interventions
    MICCAI 2016

  2. Ha I.Y., Wilms M., Heinrich M.P.
    Multi-object segmentation in chest X-ray using cascaded regression ferns
    BVM 2017

  3. Heinrich M.P., Papiez B.W., Schnabel J., Handels H.
    Non-Parametric Discrete Registration with Convex Optimisation
    WBIR 2014

Projektteam:

M.Sc. In Young Ha
M.Sc. Matthias Wilms
Jun.-Prof. Dr. Mattias P. Heinrich

 

ProjectIcon_Ha.png
Erstellt am 23. Januar 2017 - 11:40 von Heinrich. Zuletzt geändert am 23. Februar 2017 - 16:53.

Maschinelles Lernen von kontrastunabhängigen Merkmalsvektoren mit lokalen Wechselbeziehungen und Ähnlichkeitsmaßen für die multi-modale Bildregistrierung

Nichtlineare Bildregistrierung ist von integraler Bedeutung für klinische Anwendungen in Bereichen wie multimodaler Bildfusion, Schätzung von lokalen Deformationen und bildgestützten Eingriffen. Die Definition von Bildähnlichkeiten ist dabei eine der größten Herausforderung für die Bestimmung von Korrespondenzen zwischen mehreren medizinischen Bildern. Insbesondere wenn diese Aufnahmen mit unterschiedlichen Scannern, z.B. durch Magnetresonanztomographie (MRT), Computertomographie (CT) oder Ultraschall, entstanden sind.

Die Verwendung von Metriken, die direkt auf Bildintensitäten basieren, ist unzureichend für solche klinische Aufnahmen, welche aufgrund dieser Multimodalität nichtlineare Intensitätsrelationen enthalten - neben ohnehin häufig auftretenden Problemen wie lokalen Kontrastschwankungen, Bildrauschen, Intensitätsstörungen oder Artefakten. In diesem Projekt sollen neue Algorithmen entwickelt werden, um die Robustheit von medizinischer Bildregistrierung zu verbessern. Wir werden Fortschritte gegenüber dem aktuellen Stand der Technik erzielen, in dem eine große Anzahl von vielseitigen Bildmerkmalen, basierend auf Distanzen zwischen lokalen Bildbereichen oder Histogrammen, sinnvoll kombiniert wird. Die Merkmalsvektoren sollen die Wechselbeziehungen in einer Nachbarschaft charakteristisch abbilden und kontrastunabhängig sein. Aktuelle überwachte Lernverfahren sollen eingesetzt werden, um die optimale Auswahl und Kombination aus den potentiell hochdimensionalen Merkmalsvektoren unter Einbringung von Vorwissen zu finden. Das Lernen von Metriken und der Einsatz einer höheren Ordnung des gemeinsamen Informationsgehaltes (mutual information) sollen neue Beziehungen zwischen Merkmalsdimensionen aufdecken. Die Anwendung geeigneter Binarisierungsmethoden auf die Vektoren (für die das Hamming Gewicht als Distanz verwendet werden kann) sollen die Rechen- und Speicheranforderungen senken und gleichzeitig die Genauigkeit und Robustheit der Verfahren erhalten.

Während des Projektes soll ein tieferes Verständnis der zugrundeliegenden Prinzipien von Bildähnlichkeiten gewonnen werden. Die Entwicklung von neuen, erfolgsversprechenden Methoden für die Registrierung von zur Zeit herausfordernden multimodalen Problemen wird neue Anwendungsmöglichkeiten für die computergestützte Diagnostik, Chirurgie und Strahlentherapie, sowie  für die multimodale Bildfusion und Kontrastsynthese schaffen.


Abb. 1: Übersicht des Projektplans in dem Metriken für die multimodale Registrierung mit Trainingsdaten gelernt werden.

Das Projekt wird durch die Deutsche Forschungsgemeinschaft (DFG) gefördert (HE 7364/2-1).

Ausgewählte Publikationen:

  1. Blendowski M., Heinrich M.P.
    Learning Interpretable Multi-modal Features for Alignment with Supervised Iterative Descent
    In: MIDL 2019, Proceedings of Machine Learning Research, 102, In Press
  2. Blendowski M., Heinrich M.P.
    Combining MRF-based Deformable Registration and Deep Binary 3D-CNN Descriptors for Large Lung Motion Estimation in COPD Patients
    International Journal of Computer Assisted Radiology and Surgery, 14, 1, 43-52, 2019
  3. Blendowski M., Heinrich M.P.
    3D-CNNs for Deep Binary Descriptor Learning in Medical Volume Data
    In: Maier A., Deserno T.M., Handels H., Maier-Hein K.H., Palm C., Tolxdorff T. (eds.), Bildverarbeitung für die Medizin 2018, Erlangen, Informatik aktuell, Springer Vieweg, Berlin, Heidelberg, 23-28, 2018
  4. Heinrich M.P., Blendowski M., Oktay O.
    TernaryNet: Faster Deep Model Inference without GPUs for Medical 3D Segmentation using Sparse and Binary Convolutions
    International Journal of Computer Assisted Radiology and Surgery, 13, 9, 1311-1320, 2018
  5. Heinrich M.P., Blendowski M.
    Multi-Organ Segmentation using Vantage Point Forests and Binary Context Features
    MICCAI 2016
  6. Blendowski M., Heinrich M.P.
    Kombination binärer Kontextfeatures mit Vantage Point Forests zur Multi-Organ-Segmentierung
    BVM 2017
  7. Heinrich M.P., Jenkinson M., Bhushan M., Matin T., Gleeson F.V., Brady S.M., Schnabel J.A.
    MIND: modality independent neighbourhood descriptor for multi-modal deformable registration.
    Medical image analysis 2012
  8. Heinrich M.P., Jenkinson M., Papiez B.W., Brady S.M., Schnabel J.A.
    Towards realtime multimodal fusion for image-guided interventions using self-similarities
    MICCAI 2013

Projektteam:

M.Sc. Max Blendowski
Jun.-Prof. Dr. Mattias P. Heinrich

 

ProjectIcon_Blendowski.png
Erstellt am 23. Januar 2017 - 11:40 von Heinrich. Zuletzt geändert am 10. Mai 2019 - 13:56 von Kulbe.

Weiterentwicklung und Etablierung des Nationalen Metadata Repositories (NMDR)

Die klinische Forschung ist zunehmend abhängig von konsistent definierten Merkmalen, etwa bei der Wiederverwendung klinischer Daten aus der Versorgung in Studien, der Zusammenführung von Studiendaten in multizentrischen Studien oder gar der Durchführung von Metastudien. International gibt es erhebliche Anstrengungen, so genannte Metadaten-Repositories (MDR) bzw. offizielle Register zu etablieren, um relevante Datenelemente wie einen Blutdruck einheitlich zu benennen, zu definieren und zu annotieren (i.Allg. mit Kodes aus standardisierten Vokabularien). Darauf basierend lassen sich Software-Dienste zur semantischen Datenintegration bereitstellen.

Diese Herausforderung wurde auch von der Technologie- und Methodenplattform für vernetzte Medizinische Forschung (TMF) erkannt, die bereits Vorarbeiten zu diesem Thema gefördert hat. Das strategische Ziel dieses DFG-Projekts ist die Etablierung eines kollaborativen, qualitätsgesicherten, neutralen, dauerhaften, freien und zugreifbaren Metadaten-Registers für die klinische und epidemiologische Forschung in Deutschland. Die genannten Kategorien sind das Ergebnis einer Anforderungsanalyse, die im Rahmen des TMF-Projekts „Community-Evaluation MDR“ durchgeführt wurde. Von dem geplanten Vorhaben profitieren alle klinischen Forscher, die wissenschaftsinitiierte Studien, Register oder Kohorten planen und Daten hoher Qualität erheben wollen. Zugleich werden diese Punkte bislang von keinem existierenden System adressiert.

Beteiligt sind Wissenschaftler aus Leipzig, Lübeck, Jena, Heidelberg und Berlin.

Ausgewählte Publikationen:

  1. Ulrich H., Kock A.K., Duhm-Harbeck P., Habermann J.K., Ingenerf J.
    Metadata Repository for Improved Data Sharing and Reuse Based on HL7 FHIR
    In: MIE-Conference (scoped by HEC 2016) in Munich [paper accepted]; 2016

Projektteam:

M.Sc. A.-K. Kock-Schoppenhauer
M.Sc. H. Ulrich
Prof. Dr. J. Ingenerf

 

NMDR-Icon.png
Erstellt am 23. Juni 2016 - 15:35. Zuletzt geändert am 16. März 2017 - 15:22.

Integrierte Analyse und probabilistische Registrierung medizinischer Bilddaten mit fehlenden korrespondierenden Strukturen

Die robuste, genaue und automatische Registrierung von medizinischen Bilddaten ist ein zentrales Problem der medizinischen Bildverarbeitung, dessen Lösung in der bildgestützten Diagnostik und Therapie eine große Bedeutung zukommt. Aktuell verfügbare Registrierungsmethoden stoßen jedoch bei Vorhandensein großer anatomischer oder pathologisch bedingter Unterschiede in den zu registrierenden Bildern an ihre Grenzen, wenn in größeren Bildbereichen keine korrespondierenden Strukturen auftreten. Eine weitere Limitierung aktueller Standardverfahren ist die fehlende Information über lokale Unsicherheiten der berechneten Transformation, die dem Anwender die Beurteilung der lokalen Verlässlichkeit der Transformation ermöglicht.

Ziel dieses Projektes ist es, die robuste Registrierung von Bilddaten mit stark unterschiedlichen Bildinhalten zu ermöglichen, bei denen in großen Bereichen keine 1-1-Korrespondenzen bestehen. Hierzu wird ein genereller probabilistischer Registrierungsansatz unter Verwendung von Korrespondenzwahrscheinlichkeiten formuliert, der neben den reinen Bildintensitäten auch lokale Bildmerkmale und morphologisches Wissen in Form von Landmarken und Segmentierungsinformationen zur Ausrichtung der Bilder nutzt. Durch die probabilistische Beschreibung des Registrierungsproblems wird über die Ausrichtung korrespondierender Bildstrukturen hinaus zugleich eine Detektion der Bereiche mit fehlenden lokalen Korrespondenzen sowie eine objektive Beurteilung der Sicherheit der erzielten Registrierung in Abhängigkeit von der Lokalisation im Bildraum ermöglicht.

Die methodischen Erweiterungen sollen die deutliche Ausweitung medizinischer Anwendungsmöglichkeiten von Registrierungsalgorithmen ermöglichen und somit beispielsweise die Verlaufskontrolle, den Vergleich prä- und postoperativer Bilddaten oder aber auch statistische Studien über die räumliche Verteilung von Krankheitsmustern in deutlich verbesserter Qualität.

Projektteam:

M.Sc. Sandra Schultz
Dr. rer. nat. Jan Ehrhardt
Prof. Dr. rer. nat. habil. Heinz Handels

 

Project_icon_Schultz.png
Erstellt am 26. April 2016 - 10:27. Zuletzt geändert am 23. Mai 2016 - 15:38.

Patientenindividuelle 4D Virtual Reality Simulation von Punktionen und Radiofrequenz-Ablationen in atmungsbewegten virtuellen Körpermodellen

Zusammenfassung

Im Rahmen des Projektes werden Methoden für die realitätsnahe visuo-haptische VR-Simulation von Atembewegungen in virtuellen Körpermodellen entwickelt. Anwendungsbereiche sind die patientenindividuelle Planung und das Training von Punktionen und Radiofrequenz-Ablationen unter Atembewegung. Auf einen statischen 3D-Bilddatensatz des Patienten werden sowohl individuelle als auch mittlere 4D-Bewegungsmodelle angewendet, die aus 4D-Bilddaten extrahiert wurden und zur voxelbezogenen Beschreibung realer Atembewegungen dienen. Mithilfe surrogatbasierter 4D-Bewegungsmodelle wird zudem die Variabilität der Atmung in verschiedenen Atmungszyklen realitätsnah simuliert. Mittels nicht-linearer Registrierungsverfahren werden die anatomischen Unterschiede zwischen der Modell- und der Patientenanatomie kompensiert und die 4D-Organbewegungen auf die statischen 3D-Patientendaten zur Animation übertragen. Die 4D-Bewegungsmodelle werden in ein visuo-haptisches Framework integriert, das die haptisch-visuell gesteuerte Interaktion der Punktions- bzw. Ablationsnadel mit dem atmenden virtuellen Körper ermöglicht. Für die visuo-haptische 4D-Darstellung der bewegten 3D-Bilddaten in Echtzeit werden spezielle volumenbasierte 4D-Renderingtechniken parallelisiert und laufzeitoptimiert auf der GPU entwickelt. Weiterhin wird insbesondere für Punktionen und Radiofrequenz-Ablationen im zwerchfellnahen Bereich untersucht, welche Auswirkungen die Atembewegung auf die 4D-Nadelpfadplanung sowie die biophysikalische Simulation der RF-Ablation im Vergleich zur Planung und Simulation im statischen 3D-Datensatz hat. Neben der Evaluation der einzelnen Methoden und Systemkomponenten wird abschließend eine Gesamtevaluation des VR-Trainingssimulators für die RF-Ablation unter Atembewegung im Rahmen einer Benutzerstudie durchgeführt.

Fig. 1: 4D image sequences showing needle and breathing motion.

Dieses Projekt wird von der Deutschen Forschungsgemeinschaft gefördert (DFG: HA 2355/11-2).

Projektteam

Dr. Andre Mastmeyer
Prof. Dr. Heinz Handels

 

moving_Icon.png
Erstellt am 11. Juni 2015 - 11:24 von Mastmeyer. Zuletzt geändert am 12. Juni 2015 - 16:19.

Segmentierung von Hirngefäßen und Blutflussanalyse in der 4D-Magnetresonanzangiographie bei zerebralen arteriovenösen Malformationen - Untersuchungen zu Hämodynamik und Gewebemarkern

Zur Planung einer invasiven Therapie für Patienten mit Gefäßfehlbildungen des Gehirns, sog. arteriovenöse Malformationen (Abk.: AVM), ist die Abschätzung des individuellen natürlichen Blutungsrisikos von entscheidender Bedeutung. Im Rahmen des Projektes wurden neue Methoden zur Segmentierung von AVMs in 3D-TOF-MRA-Bilddaten sowie zur Analyse des Blutflsuses in 4D-TREAT-MR-Bilddaten entwickelt und zur Auswertung im Rahmen von Studien in ein Softwaresystem namens AnToNIa (Abk. f.: Analysis Tool for Neuro Imaging Data) integriert.  Mithilfe der hier verfügbaren Bildanalyse- und Visualisierungsmethoden ist eine Quantifizierung und dreidimensionale Darstellung des Blutflusses bei AVM-Patienten in hoher räumlicher und zeitlicher Auflösung möglich (Abb. 1).


Abb. 1: Dynamische Darstellung des Bluteinflusses (a-i) auf einem hochaufgelösten 3D-Oberflächenmodell des zerebralen Gefäßsystems

Zur genauen Darstellung und Analyse der räumlichen Struktur des Gefäßsystems im Gehirn konnte durch das neue vierstufige Segmentierungsverfahren unter Einbeziehung von Form- und Intensitätsinformationen eine deutliche Verbesserung gegenüber etablierten Verfahren erreicht werden (Abb. 2). Für die zeitaufgelöste Magnetresonanzangiographie (TWIST/TREAT) wurde ein neues Verfahren der referenzbasierten Kurvenanpassung zur robusten Quantifizierung der Hämodynamik auf Basis von 4D-MRA-Bildsequenzen mit hoher Genauigkeit entwickelt. Im Rahmen einer Monte Carlo Simulation konnte gezeigt werden, dass die Präzision des neuen Verfahrens gegenüber den etablierten Verfahren um 59% gesteigert und dabei die Laufzeit um 33% reduziert werden konnten. Ein weiterer wesentlicher Vorteil des neuen Verfahrens ist die implizite Berücksichtigung der individuellen physiologischen Charakteristika durch die Verwendung einer Referenzkurve.


Abb. 2: 3D-Oberflächenmodell eines zerebralen Gefäßsystems von einem Patienten mit diagnostizierter AVM.


Abb. 3: Farbcodierte Darstellung der extrahierten Werte der Bolus Arrivial Time (BAT) auf einem 3D-Oberflächenmodell (links) und in einer 3D-TOF-MRA-Schicht (rechts). Anhand der BAT-Werte wird erkennbar, welche Gefäße zuerst und welche später durchflossen werden.

Insgesamt wurden innerhalb des Projektes mehr als 50 Patienten mit der TWIST/TREAT untersucht und die Daten mittels der hier der entwickelten Software analysiert. Zunächst wurde der Zusammenhang zwischen den makrovaskulären Fluss und der mikrovaskulären Perfusion um den Nidus herum untersucht. Die Ergebnisse dieser Untersuchung sprechen für zwei Ebenen der Perfusionsbeeinträchtigung: eine makrovaskulär-territoriale und eine mikrovaskulär-lokale Ebene. Darüber hinaus wurde untersucht, ob sich AVMs mit hohem und niedrigem Blutungsrisiko hinsichtlich ihrer hämodynamischen Parameter unterscheiden. Hierbei zeigte sich statistisch robust, dass hohe arterielle Einflussgeschwindigkeiten einen Risikofaktor für eine AVM-Blutung darstellen. Das visuelle Rating und der Vergleich mit der konventionellen Angiographie sind abgeschlossen. Hierbei zeigte sich, dass die dreidimensionale flusskodierte Sichtweise auf die Daten erhebliche Vorteile bietet. Es wurden drei intranidale Flussmuster identifiziert: homogen, uni¬direktional und heterogen.

Die im Rahmen des Forschungsprojektes entwickelten Verfahren und deren Implementierung in ein benutzerfreundliches Auswertetool bilden zudem die Grundlage für diverse weitere Forschungsarbeiten, insbesondere auf dem Gebiet der Hirngefäßaneurysmen.

Das Projekt wird von der Deutschen Forschungsgemeinschaft gefördert (Ha2355/10-1).

Ausgewählte Publikationen

  1. Forkert N.D.,  Illies T., Goebell E., Fiehler J., Säring D., Handels H.,
    Computer-aided Nidus Segmentation and Angiographic Characterization of Arteriovenous Malformations,
    International Journal of Computer Assisted Radiology and Surgery, 8, 775-786, 2013
  2. Forkert N., Schmidt-Richberg A., Fiehler J., Illies T., Möller D., Säring D., Handels H., Ehrhardt J.,
    3D Cerebrovascular Segmentation combining Fuzzy Vessel Enhancement and Level-sets with Anisotropic Energy Weights,
    Magnetic Resonance Imaging, 31, 2, 262-271, 2013
  3. Forkert N., Fiehler J., Illies T., Möller D., Handels H., Säring D.,
    4D Blood Flow Visualization Fusing 3D and 4D MRA Image Sequences,
    Journal of Magnetic Resonance Imaging, 36, 2, 443-53, 2012
  4. Forkert N., Illies T., Möller D., Handels H., Säring D., Fiehler J.,
    Analysis of the Influence of 4D MRA Temporal Resolution on Time-to-Peak Estimation Accuracy for Different Cerebral Vessel Structures,
    American Journal of Neuroradiology, 33(11), 2103-2109, 2012
  5. Forkert N., Fiehler J., Schönfeld M., Sedlacik J., Regelsberger J., Handels H., Illies T.,
    Intranidal Signal Distribution in Post-contrast Time-of-Flight MRA is Associated with Rupture Risk Factors in Arteriovenous Malformations,
    Clinical Neuroradiology, Epub ahead of print, Aug. 2012, Doi 10.1007/s00062-012-0168-8
  6. Forkert N., Kaesemann P., Treszl A., Siemonson S., Cheng B., Handels H., Fiehler J., Thomalla G.,
    Comparison of 10 TTP and Tmax Estimation Techniques for MR Perfusion-Diffusion Mismatch Quantification,
    American Journal of Neuroradiology, 34, 1697-1703, 2012
  7. Forkert N., Schmidt-Richberg A., Fiehler J., Illies T., Möller D., Handels H., Säring D.,
    Automatic Correction of Gaps in Cerebrovascular Segmentations Extracted from 3D Time-of-Flight MRA Datasets,
    Methods of Information in Medicine, 5, 415-422, 2012
  8. Forkert N. Schmidt-Richberg A., Fiehler J., Illies T., Möller D., Handels H., Säring D.,
    Fuzzy-based Vascular Structure Enhancement in Time-of-Flight MRA Images for Improved Cerebrovascular Segmentation,
    Methods of Information in Medicine, 50, 1, 74-83, 2011
  9. Forkert N., Säring D., Handels H.,
    Automatic Analysis of the Anatomy of Arteriovenous Malformations  using 3D and 4D MRA Image Sequences,
    MedInfo 2010, Kapstadt, South Africa, Studies in Health Technology and Informatics, 160, 1268-72, 2010
  10. Forkert N., Säring D., Fiehler J., Illies T., Möller D., Handels H.,
    Automatic Brain Segmentation in Time-of-Flight MRA Images,
    Methods of Information in Medicine, 48, 5, 399-407, 2009
  11. Dennis Säring, Jens Fiehler, Nils Forkert, Merle Piening, Heinz Handels
    Visualization and Analysis of Cerebral Arteriovenous Malformation Combining 3D and 4D MR Image Sequences,
    International Journal of Computer Assisted Radiology and Surgery, 2, 75-79, 2007

Projektteam

Dipl.-Inf. Nils Folkert (Institut für Medizinische Informatik, UKE Hamburg)
Dr. Dennis Säring (Institut für Medizinische Informatik, UKE Hamburg)
Prof. Dr. Heinz Handels

Kooperationspartner

Prof. Dr. med. Jens Fiehler
Dr. med. Till Illies
Klinik für Neuroradiologische Diagnostik und Intervention, UKE

 

4D-Magentresonanz-icon.jpg
Erstellt am 16. Juli 2014 - 13:37.

Probabilistische statistische Form- und Appearance-Modelle zur robusten Multi-Objekt-Segmentierung in medizinischen Bilddaten

Das Ziel dieses Projektes ist die Entwicklung von modellbasierten Methoden zur automatischen 3D-Segmentierung von multiplen anatomischen Objekten in medizinischen Bildfolgen, die neue Möglichkeiten  in der quantitativen Radiologie, der Strahlentherapie und Operationsplanung eröffnen. Im Rahmen des DFG-Projektes sollen die im Vorläuferprojekt entwickelten statistischen Formmodelle mit probabilistischen Punktkorrespondenzen weiterentwickelt werden, so dass neben Forminformationen über die Organe auch Vorwissen über die lokale Erscheinung (Appearance) der Objekte sowie die globalen räumlichen Nachbarschaftsbeziehungen von Organen in einem erweiterten Statistischen Form- und Appearance-Modell erfasst werden. Durch Integration probabilistischer Form- und Erscheinungsmodelle in einen erweiterten Levelset-Segmentierungsansatz soll die robuste und flexible Multi-Objekt-Segmentierung von Organ-Ensembles in 3D-Bildfolgen ermöglicht werden.

Das Projekt wird durch die Deutsche Forschungsgemeinschaft gefördert (DFG: HA 2355/7-2).

Ausgewählte Publikationen:

  1. Hufnagel H., Ehrhardt J., Pennec X., Ayache N., Handels H., Coupled Level Set Segmentation Using a Point-Based Statistical Shape Model Relying on Correspondence Probabilities, In: Dawant B. M., Haynor D.R. (eds.), Image Processing, SPIE Medical Imaging 2010, Orlando, Vol. 7623, 1B1-1B8, 2010
  2. Hufnagel H., Ehrhardt J., Pennec X., Ayache N., Handels H.,  Computation of a Probabilistic Statistical Shape Model in a Maximum-a-posteriori Framework, Methods of Information in Medicine,  48, 4, 314-319, 2009
  3. Hufnagel H., Ehrhardt J., Pennec X., Ayache N., Handels H., Level Set Segmentation Using a Point-Based Statistical Shape Model Relying on Correspondence Probabilities, Workshop Probabilistic Models for Medical Image Analysis, PMMIA 09, Medical Image Computing and Computer-Assisted Intervention - MICCAI 2009, London, United Kingdom, 34-44, 2009
  4. Hufnagel H., Pennec X., Ehrhardt J., Ayache N., Handels H., Generation of Statistical Shape Models with Probabilistic Point Correspondences and Expectation Maximization – Iterative Closest Point Algorithm, International Journal of Computer Assisted Radiology and Surgery, 2, 5, 265-273, 2008

Projektteam:

M.Sc. Julia Krüger
Dr. Jan Ehrhardt
Prof. Dr. Heinz Handels

frommod80.png
Erstellt am 9. November 2012 - 14:30 von Wrage. Zuletzt geändert am 4. Juli 2014 - 13:36.

4D Medical Image Computing zur bildbasierten Risikoabschätzung in der Strahlentherapie bewegter Tumoren

2. Förderphase des DFG-Projektes „4D Medical Image Computing zur modellbasierten Analyse atmungsbedingter Tumor- und Organbewegungen“

Atmungsbedingte Bewegungen von Organen und Tumoren sind ein zentrales Problem der Strah-lentherapie abdominaler und thorakaler Tumoren. In den vergangenen Jahren sind verschiedene Techniken zur expliziten Berücksichtigung der Atembewegungen während der Strahlentherapie entwickelt worden. Klinisch eingesetzt werden z. B. Verfahren, bei denen der Tumor nur zu bestimmten Atemphasen des Patienten bestrahlt wird (Gating, atemgetriggerte Bestrahlung). Um die Atemphase zu ermitteln, werden oftmals externe Atemsignale bzw. Bewegungsindikatoren (z. B. Bauchgurte, Laser- oder kamerabasierte Abtastung der Haut) gemessen. Diese sind allerdings nur Surrogate bzw. Indikatoren der tatsächlichen Tumorbewegungen. Vor dem Hintergrund individueller intra- und interfraktioneller Variationen von Atemmustern ist es erforderlich zu untersuchen, inwieweit die Bewegungsindikatoren verlässlich zur Prädiktion der Tumorbewegung verwendet werden können.

Anhand von 4D-CT- und 4D-MRT-Bilddaten werden in diesem Projekt die Auswirkungen der intra- und interfraktionellen Bewegungsvariabilität auf die applizierte Dosisverteilung untersucht und die Eignung verschiedener Bewegungsindikatoren zur Prädiktion der Tumorbewegung für die atemgetriggerte Bestrahlung systematisch untersucht. Ziel des Projekts ist eine Risikoabschätzung für den Einsatz der verschiedenen Bewegungsindikatoren. Auf Grundlage der Risikoabschätzung sollen Strategien zur Optimierung und Kombination von Indikatoren entwickelt werden (Abb. 1).

Das Projekt wird durch die Deutsche Forschungsgemeinschaft (DFG) gefördert (HA 2355/9-2).


Abb. 1: Untersuchung der Korrelation zwischen Haut- und Lungentumorbewegung. Rot sind Regionen hoher, grün Regionen niedriger Korrelation dargestellt. Als exemplarischer Bewegungsindikator wurde hier ein Linienlaser betrachtet und anhand der Analyseresultate eine bildbasierte und patientenspezifische Optimierung der Positionierung des Lasers durchgeführt; die idealen Linienpositionen sind eingezeichnet.

Projektteam:

M.Sc. Matthias Wilms
Dipl-Inf. Dipl.-Phys. René Werner

Dr. Jan Ehrhardt
Prof. Dr. Heinz Handels

Kooperationspartner:

Prof. Dr. H.-P. Schlemmer, Dr. M. Eichinger / Dr. R. Floca
Abteilung Radiologie / AG Software development for Integrated Diagnostic and Therapy
Deutsches Krebsforschungszentrum (DKFZ) Heidelberg

Prof. Dr. Dr. J. Debus, Dr. Dr. C. Thieke
Klinik für Radio-Onkologie und Strahlentherapie
Universitätsklinikum Heidelberg

Prof. Dr. C. Petersen, Dr. F. Cremers
Klinik und Poliklinik für Strahlentherapie und Radioonkologie
Universitätsklinikum Hamburg-Eppendorf (UKE)

 

 

 

 

DFG-MIC_2_Icon80.png
Erstellt am 24. Januar 2012 - 13:16 von Kulbe. Zuletzt geändert am 21. Februar 2012 - 11:31.

Patientenindividuelle Virtual Reality Simulation von Punktionseingriffen unter Verwendung von Punktionsatlanten

Ziel dieses Projektes ist, das patientenindividuelle Virtual Reality Training von Punktionseingriffen unter Verwendung von Punktionsatlanten zu ermöglichen. Hierzu sollen zum einen Verfahren zur weit­gehend automatischen Segmentierung der punk­tionsrelevanten Organe und Strukturen und zum anderen effiziente Algorithmen zur volumenbasierten haptischen und visuellen Simulation dynamischer Prozesse während eines Punktionseingriffs entwickelt und getestet werden.

Die während des patientenindividuellen Virtual Reality Trainings auftretenden Weichteildeformationen werden in Echtzeit mit Hilfe eines volumenbasierten Simulationsverfahrens realisiert. Durch die Umsetzung rechenintensiver Algorithmen auf Grafikhardware soll die Echtzeit-Fähigkeit der Simulationsalgorithmen gewährleistet werden.

Im Rahmen des Projektes wird prototypisch ein VR-Simulator realisiert, in dem die entwickelten Verfahren in Kooperation mit klinischen Kooperationspartnern exemplarisch eingesetzt und evaluiert werden.


Abb. 1: Immersiver VR-Arbeitsplatz mit Shutterbrille und haptischem Kraftrückkopplungsgerät für das Punktionstraining

Dieses Projekt wird von der Deutschen Forschungsgemeinschaft gefördert (DFG: HA 2355/11-1).

Projektteam:

Prof. Dr. Heinz Handels
M.Sc. Dirk Fortmeier
Dr. Andre Mastmeyer

Logo_VR-Simulation-HL_80.jpg
Erstellt am 3. Juni 2010 - 17:26. Zuletzt geändert am 26. August 2011 - 16:19.

Integrierte 4D-Segmentierung und Registrierung räumlich-zeitlicher Bilddaten

Die Einführung tomographischer 4D-Bilddaten hat die räumlich-zeitliche Er­fas­sung dynamischer physiologischer Prozesse wie der Herz- oder Lungen­bewegung er­möglicht, jedoch steht die Ausnutzung ihres Potenzials in Diagnostik und Therapie erst am Anfang. Für eine umfassende diagnostische und therapeutische Nutzung der räumlich-zeitlichen Bildinformationen in den 4D-Daten ist einerseits eine Abgrenzung der relevanten Strukturen in den Bilddaten (Segmentierung) und andererseits die ex­pli­zite Modellierung der abgebildeten Bewegungsabläufe (Registrierung) notwendig. Klassische Ansätze versuchen beide Probleme unabhängig voneinander zu lösen. Registrierung und Segmentierung hängen jedoch wechselseitig voneinander ab.

Ziel des Projektes ist die Entwicklung von Methoden zur simultanen Seg­mentierung und Bewegungsschätzung in räumlich-zeitlichen Bilddaten, durch die die wechselseitige Abhängigkeit der Segmentierung und Registrierung voneinander berücksichtigt wird. Durch ge­eig­nete Nebenbedingungen wird verfügbares physiologisches Vorwissen über die Dy­namik der Bewegung in diesen Ansatz  integriert. Die Bereitstellung von Methoden zur automatischen Bestimmung geeigneter Verfahrensparameter soll die flexi­ble An­pas­sung des entwickelten Seg­mentierungs-/Registrierungsmodells an kon­krete medi­zi­ni­sche Pro­blem­stel­lun­gen ermöglichen. Spezielle Interaktionsmechanismen erlauben die be­nutzer­ge­steuerte Anpas­sung des Segmentierungs- bzw. Registrie­rungs­­er­geb­nisses.

Die Grundidee der hier verfolgten Ansätze wird nachfolgend beispielhaft illustriert (siehe Abbildung). Betrachtet werden zwei 3D-Bilder einer zeitlichen Sequenz (Referenz- und Target-Bild genannt), wobei eine Segmentierung des Referenzbildes als bekannt vorausgesetzt wird. Berechnet wird nun zum einen eine Bewegungsschätzung, resp. Registrierung von Referenz- und Target-Bild, zum anderen eine Segmentierung des Target-Bildes. Ein zusätzlich definierter Kraftterm  koppelt dabei die beiden Verfahren, indem eine möglichst hohe Übereinstimmung der Target-Segmentierung und der mit der Bewegungsschätzung transformierten Referenzsegmentierung gefordert wird.

Die entwickelten Methoden werden zur simultanen Segmentierung und Bewegungs­feld­schätzung der Lunge und der Leber eingesetzt und anhand klinischer 4D-CT-Bilddaten evaluiert.

Das Projekt wird von der Deutschen Forschungsgemeinschaft gefördert (DFG:  EH 224/3-1).

Ausgewählte Publikationen:

  1. A. Schmidt-Richberg, H. Handels, J. Ehrhardt:
    Integrated Segmentation and Non-linear Registration for Organ Segmentation and Motion Field Estimation in 4D CT Data.
    Methods Inf Med, 48(4): 334–339, Jan 2009.
  2. A. Schmidt-Richberg, J. Ehrhardt, R. Werner, H. Handels
    Direction-Dependent Regularization for Improved Estimation of Liver and Lung Motion in 4D Image Data.
    In: SPIE Medical Imaging 2010, San Diego, USA, Vol. 7623, 76232Y, 2010.
  3. A. Schmidt-Richberg, J. Ehrhardt, R. Werner, H. Handels
    Slipping Objects in Image Registration: Improved Motion Field Estimation with Direction-dependent Regularization.
    In: G.-Z. Yang et al. (eds.): Medical Image Computing and Computer-Assisted Intervention - MICCAI 2009, London, LNCS Vol. 5761, 755–762, 2009.
  4. J. Ehrhardt, A. Schmidt-Richberg, H. Handels
    Simultaneous Segmentation and Motion Estimation in 4D-CT Data Using a Variational Approach.
    In: J.M. Reinhardt et al. (eds.): Image Processing, SPIE Medical Imaging 2008, San Diego, Vol. 6914, 37-1–37-10, 2008.
  5. J. Ehrhardt, A. Schmidt-Richberg, H. Handels
    A Variational Approach for Combined Segmentation and Estimation of Respiratory Motion in Temporal Image Sequences.
    IEEE International Conference on Computer Vision 2007, ICCV 2007, Rio de Janeiro, Brazil, CD-ROM-Proceedings, IEEE Catalog Number CFP07198-CDR (ISBN 978-1-4244-1631-8), 2007. 

Projektteam:

Dipl.-Inf. Alexander Schmidt-Richberg
Dr. Jan Ehrhardt
Prof. Dr. Heinz Handels

 

IconIntegr4DSegmentierung.png
Erstellt am 1. Juni 2010 - 18:02. Zuletzt geändert am 26. Juni 2014 - 16:44.

Anschrift

Institutssekretariat
Susanne Petersen

Tel+49 451 3101 5601
Fax+49 451 3101 5604


Gebäude 64 (Informatik)

Ratzeburger Allee 160
23538 Lübeck
Deutschland