Integrierte Analyse und probabilistische Registrierung medizinischer Bilddaten mit fehlenden korrespondierenden Strukturen

Die robuste, genaue und automatische Registrierung von medizinischen Bilddaten ist ein zentrales Problem der medizinischen Bildverarbeitung, dessen Lösung in der bildgestützten Diagnostik und Therapie eine große Bedeutung zukommt. Aktuell verfügbare Registrierungsmethoden stoßen jedoch bei Vorhandensein großer anatomischer oder pathologisch bedingter Unterschiede in den zu registrierenden Bildern an ihre Grenzen, wenn in größeren Bildbereichen keine korrespondierenden Strukturen auftreten. Eine weitere Limitierung aktueller Standardverfahren ist die fehlende Information über lokale Unsicherheiten der berechneten Transformation, die dem Anwender die Beurteilung der lokalen Verlässlichkeit der Transformation ermöglicht.

Ziel dieses Projektes ist es, die robuste Registrierung von Bilddaten mit stark unterschiedlichen Bildinhalten zu ermöglichen, bei denen in großen Bereichen keine 1-1-Korrespondenzen bestehen. Hierzu wird ein genereller probabilistischer Registrierungsansatz unter Verwendung von Korrespondenzwahrscheinlichkeiten formuliert, der neben den reinen Bildintensitäten auch lokale Bildmerkmale und morphologisches Wissen in Form von Landmarken und Segmentierungsinformationen zur Ausrichtung der Bilder nutzt. Durch die probabilistische Beschreibung des Registrierungsproblems wird über die Ausrichtung korrespondierender Bildstrukturen hinaus zugleich eine Detektion der Bereiche mit fehlenden lokalen Korrespondenzen sowie eine objektive Beurteilung der Sicherheit der erzielten Registrierung in Abhängigkeit von der Lokalisation im Bildraum ermöglicht.

Die methodischen Erweiterungen sollen die deutliche Ausweitung medizinischer Anwendungsmöglichkeiten von Registrierungsalgorithmen ermöglichen und somit beispielsweise die Verlaufskontrolle, den Vergleich prä- und postoperativer Bilddaten oder aber auch statistische Studien über die räumliche Verteilung von Krankheitsmustern in deutlich verbesserter Qualität.

Projektteam:

M.Sc. Sandra Schultz
Dr. rer. nat. Jan Ehrhardt
Prof. Dr. rer. nat. habil. Heinz Handels

 

Project_icon_Schultz.png
Erstellt am 26. April 2016 - 10:27. Zuletzt geändert am 23. Mai 2016 - 15:38.

Ähnlichkeit und Unsicherheit in der medizinischen Bildanalyse

Ähnlichkeit von Bilder ist einer der wichtigsten Bestandteile der medizinischen Bildverarbeitung. Das Finden von Korrespondenzen zwischen medizinischen Scans von verschiedenen Patienten, Zeitpunkten und Modalitäten ist von enormer Bedeutung für klinischen Anwendungen von Bildanalyse, z.B.: Atlas-basierte Segmentierung, Bewegungsschätzung, Langzeitstudien und multi-modaler Bildfusion. Die Definition von Ähnlichkeiten zwischen Bildern ist schwierig da Scans häufig lokale Variationen in Kontrast und Rauschen aufweisen, sowie z.T. mit unterschiedlichen Aufnahmetechniken generiert wurden. Ein Ziel diese Projektes ist die Erarbeitung und Weiterentwicklung von neuen Ähnlichkeitsmaßen, die invariant zu unterschiedlichen Modalitäten und robust gegenüber Störeinflüssen sind, jedoch weiterhin sehr gut zwischen verschiedenen anatomischen und geometrischen Bildmerkmalen unterscheiden können.

Der “modality independent neighbourhood descriptor” (MIND) ist ein multi-dimensionaler lokaler Bilddeskriptor (siehe Abb. 1), den wir, basierend auf dem Konzept der Selbstähnlichkeit, für multi-modale Registrierung entwickelt haben [1]. Die Anwendung von MIND zeigt deutliche Verbesserungen für die Registrierung von CT und MRT Thoraxaufnahmen im Vergleich zu anderen Methoden auf dem Stand der Technik (z.B. mutual information). Das Verfahren kann auch zur Registrierung von Scans der gleichen Modalität, z.B. 4D-CT verwendet werden, und liefert hierbei eine verbesserte Genauigkeit und erhöhte Robustheit. Jeder MIND Deskriptor wird basierend auf Distanzen lokaler Bildpatches in der Umgebung jedes Voxels unabhängig voneinander für beide Scans berechnet. Der Vergleich zweier Bilder erfolgt durch einfache Distanzen, z.B. die Summe absoluter / quadratischer Differenzen der Merkmalsvektoren. Der “self-similarity context” (SSC) [2] ist eine Weiterentwicklung von MIND. Dieser definiert lokale Nachbarschaftsbeziehungen für die Berechnung der Selbstähnlichkeiten so, dass der lokale Informationskontext präziser dargestellt wird und sich die Paarung der Deskriptoren verbessert. Wir haben weiterhin ein effizientes Quantisierungsschema entworfen, welches eine Hardware-technisch sehr schnelle Berechnung von Distanzen zwischen zwei Deskriptoren mittels des Hamming-Gewichtes ermöglicht. Die erfolgreiche Anwendung für die herausfordernde Registrierung von intra-operativem 3D Ultraschall zu MRT Aufnahmen wurde in [2] gezeigt.

Unsicherheit ist ein bedeutendes Problem für alle automatischen Methoden der Bildanalyse. Allerdings, erlauben wenige bekannte Algorithmen die Schätzung und Ausgabe von Unsicherheiten der berechneten Ergebnisse. Die automatische Fehlererkennung von medizinischen Bildverarbeitungsmethoden hat eine bedeutende Wirkung für die Etablierung neuer Methoden in der klinischen Praxis. Die Rückgabe der Zuverlässigkeit wäre nützlich für Ärzte um zu entscheiden ob in einem speziellen Fall die automatische Analyse berücksichtigt werden soll. Diskrete Optimierungsmodelle (basierend auf Markov Random Fields) erlauben Verfahren zur Berechnung der Unsicherheit, da sie auf die Wahrscheinlichkeit für das Auftreten von bestimmten Modellparametern rückschließen können. Für die Anwendung der 3D Bildregistrierung haben wir ein Verfahren entwickelt, welches über eine Vielzahl von möglichen Lösungsvorschlägen (dense displacement sampling, deeds) für die gesuchten Bewegungsvektoren optimiert [3,4]. Es ermöglicht eine sehr schnelle und zugleich genaue Registrierung von unterschiedlichen medizinischen Bildern, und wurde insbesondere für einen großen Datensatz von Lungen-CT Aufnahmen evaluiert (ein Beispiel ist in Abb. 2 gezeigt, quantitative Ergebnisse siehe http://empire10.isi.uu.nl/res_deedsmind.php). Die Verteilung der Wahrscheinlichkeiten über den Raum potentieller Verschiebungsvektoren kann mit Hilfe bekannter Optimierungsverfahren (z.B. belief propagation) bestimmt werden, und genutzt werden um die lokale Genauigkeit der Registrierung zu schätzen. Wir haben dieses Verfahren in [5] erfolgreich für die Verbesserung von Atlas-basierter Segmentierung eingesetzt. Ein weiterer Aspekt der in diesem Projekt betrachtet wird ist die Verwendung von verschiedenen (unterschiedlichen) komplementären Bildbeschreibungen. Der Einsatz von mehreren Graphen aus Supervoxeln wurde in [6] untersucht.

Die Software, welche von M.P. Heinrich für die unten genannten Veröffentlichungen entwickelt wurde, kann frei unter folgender Adresse heruntergeladen werden: www.mpheinrich.de/software.html
Dabei sind ein sehr effizientes und genaues 3D Registrierungspaket deeds für Bilder der gleichen oder unterschiedlicher Modalität, sowie Referenzcode um MIND und SSC Deskriptoren zu berechnen.

Abb. 1: Konzept zur Nutzung von MIND für multi-modale Registrierung. Die Deskriptoren werden für jeden Voxel in CT und MRT berechnet. Das Ergebnis für drei beispielhafte Regionen ist gezeigt:  homogene Intensitäten (Leber), Eckpunkte eines Rückenwirbels und ein Bildgradient am Rand des Fettgewebes. Die Deskriptoren sind unabhängig von der jeweiligen Modalität und können mittels einfacher (quadratische/absoluter) Differenzen verglichen werden.

Abb. 2: Animiertes Beispiel für die Registrierung von 4D CT Bildern der Lunge. Die Axial-, Koronal- und Sagittal-Ebenen sind von links nach rechts gezeigt. Die Ein- und Ausatmungsphase der Atmung werden als Farbüberlagerung in grün und magenta dargestellt. Das Ergebnis der 3D Registrierung mit deeds kann im zeitlichen Ablauf als Video abgespielt werden. Die Bewegungsschätzung ist in der Lage die natürlich vorkommende Gleitbewegung zwischen Lungenoberfläche und Brustkorb realitätsgetreu zu berechnen.

Ausgewählte Publikationen:

  1. Mattias P. Heinrich, Mark Jenkinson, Manav Bhushan, Tahreema Matin, Fergus V. Gleeson, Sir Michael Brady, Julia A. Schnabel.
    MIND: Modality Independent Neighbourhood Descriptor for Multi-modal Deformable Registration.
    Medical Image Analysis. vol. 16(7) Oct. 2012, pp. 1423–1435
  2. Mattias Paul Heinrich, Mark Jenkinson, Bartlomiej W. Papiez, Sir Michael Brady, Julia A. Schnabel.
    Towards Realtime Multimodal Fusion for Image-Guided Interventions Using Self-similarities
    In: Medical Image Computing and Computer-Assisted Intervention – MICCAI 2013, Lecture Notes in Computer Science Volume 8149, 2013, pp 187-194
  3. Mattias P. Heinrich, Mark Jenkinson, Sir Michael Brady, Julia A. Schnabel.
    MRF-based Deformable Registration and Ventilation Estimation of Lung CT.
    IEEE Transaction on Medical Imaging. Vol. 32(7), 1239 - 1248, 2013
  4. MP Heinrich, M Jenkinson, M Brady, JA Schnabel.
    Globally Optimal Registration on a Minimum Spanning Tree using Dense Displacement Sampling
    In: Medical Image Computing and Computer Assisted Intervention (MICCAI) 2012. LNCS 7512, pp. 115-122. Springer, Berlin (2012)
  5. Mattias P. Heinrich, Ivor J.A. Simpson, Mark Jenkinson, Sir Michael Brady, Julia A. Schnabel.
    Uncertainty Estimates for Improved Accuracy of Registration-Based Segmentation Propagation using Discrete Optimisation
    MICCAI Workshop on Segmentation, Algorithms, Theory and Applications (SATA), Nagoya 2013
  6. Mattias P. Heinrich, Mark Jenkinson, Bartlomiej W. Papiez, Fergus V. Gleeson, Sir Michael Brady, Julia A. Schnabel.
    Edge- and Detail-Preserving Sparse Image Representations for Deformable Registration of Chest MRI and CT Volumes.
    In: Information Processing in Medical Imaging (IPMI) 2013. LNCS 7917, 463-474, Springer (2013)

Projektteam:

Jun.-Prof. Dr. Mattias P. Heinrich
Dr. Jan Ehrhardt
Prof. Dr. Heinz Handels

Kooperationspartner:

Prof. Dr. Julia A. Schnabel
Institute of Biomedical Engineering
University of Oxford

imi_projekt_heinrich.png
Erstellt am 2. Juni 2014 - 16:50 von Wrage. Zuletzt geändert am 30. Juni 2014 - 11:22.

Mammo3D – Vollautomatische Detektion und Visualisierung korrespondierender Strukturen und Läsionen in 2D/3D-Bilddaten der weiblichen Brust für die multimodale Mammodiagnostik

Zur sicheren Befundung des invasiven Mammakarzinoms wird die Mammographie als zentrales bildgebendes Verfahren eingesetzt.  Zur genaueren Differenzierung der Diagnose werden weitere Verfahren wie die Magnetresonanztomographie und die Tomosynthese oder Mammographieaufnahmen mit abweichender Einspannung (CC und MLO) hinzugezogen. Um die nachfolgende Diagnose zu erleichtern, wäre eine zusammenhängende und korrelierte Auswertung der verschiedenen medizinischen Bilddaten einer Patientin wünschenswert.

Ziel dieses Projektes ist es, korrespondierende Strukturen in den erfassten Bilddaten weitgehend automatisch zu detektieren und anschließend für die multimodale Mammadiagnostik nutzbar zu machen.
Die methodischen Schwerpunkte des Projektes liegen dabei in der multimodalen und multidimensionalen Registrierung und Korrespondenzbestimmung. Eine weitere Herausforderung bildet die Entwicklung von Deformationsmodellen der Brust, da die Brust der Patientin bei der Akquirierung der verschiedenen Bilddaten unterschiedlich starken Deformationen unterliegt (Abb. 1).

Das Projekt wird in Zusammenarbeit mit der Firma IMAGE Information Systems Europe Ltd durchgeführt und  im Rahmen des Zentralen Innovationsprogramms Mittelstand des Bundesministeriums für Wirtschaft und Technologie gefördert.

Abb.:1 Illustration der angestrebten Korrespondenzfindung in Mammographien, Tomosynthese- und MRT-Bilddaten einer Patientin.

Ausgewählte Publikationen:

  1. Krüger J, Ehrhardt J, Bischof A, Handels H
    Simulation of Mammographic Breast Compression in 3D MR images using ICP-based B-Spline Deformation for Multimodality Breast Cancer Diagnosis.
    International Journal of Computer Assisted Radiology and Surgery. In Press
  2. Krüger J, Ehrhardt J, Bischof A, Handels H
    Breast Compression Simulation using ICP-based B-Spline Deformation for Correspondence Analysis in Mammography and MRI Datasets.
    Image Processing, SPIE Medical Imaging 2013. :8669-48,1D1-1D8. 2013
  3. Krüger J, Ehrhardt J, Bischof A, Handels H
    Evaluation of a B-Spline-based Breast Compression Simulation for Correspondence Analysis between MRI and Mammographic Image Data.
    Workshop on Breast Image Analysis - In conjunction with the 16th International Conference on Medical Image Computing and Computer Assisted Intervention (MICCAI 2013) 17-24, 2013
  4. Ehrhardt J., Krüger J., Bischof A., Handels H.
    Automatic Correspondence Detection in Mammogram and Breast Tomosynthesis Images.
    Image Processing, SPIE Medical Imaging 2012. 8314:831421-1-831421-8. 2012
  5. Krüger J., Ehrhardt J., Bischof A., Barkhausen J., Handels H.
    Automatische Bestimmung von 2D/3D-Korrespondenzen in Mammographien und Tomosynthese-Bilddaten.
    Bildverarbeitung für die Medizin 2012, Informatik aktuell, 99-104, 2012

Projektteam:

M. Sc. Matthias Wilms
M. Sc. Julia Krüger

Dr. Jan Ehrhardt
Prof. Dr. Heinz Handels

Kooperationspartner:

Arpad Bischof und Prof. Dr. med. Jörg Barkhausen
Klinik für Radiologie und Nuklearmedizin
Universitätsklinikum Schleswig-Holstein

Andreas Berger
IMAGE Information Systems Europe Ltd.

Mammo3D_Icon.png
Erstellt am 24. November 2011 - 18:23 von Wrage. Zuletzt geändert am 26. Juni 2014 - 16:44.

Integrierte 4D-Segmentierung und Registrierung räumlich-zeitlicher Bilddaten

Die Einführung tomographischer 4D-Bilddaten hat die räumlich-zeitliche Er­fas­sung dynamischer physiologischer Prozesse wie der Herz- oder Lungen­bewegung er­möglicht, jedoch steht die Ausnutzung ihres Potenzials in Diagnostik und Therapie erst am Anfang. Für eine umfassende diagnostische und therapeutische Nutzung der räumlich-zeitlichen Bildinformationen in den 4D-Daten ist einerseits eine Abgrenzung der relevanten Strukturen in den Bilddaten (Segmentierung) und andererseits die ex­pli­zite Modellierung der abgebildeten Bewegungsabläufe (Registrierung) notwendig. Klassische Ansätze versuchen beide Probleme unabhängig voneinander zu lösen. Registrierung und Segmentierung hängen jedoch wechselseitig voneinander ab.

Ziel des Projektes ist die Entwicklung von Methoden zur simultanen Seg­mentierung und Bewegungsschätzung in räumlich-zeitlichen Bilddaten, durch die die wechselseitige Abhängigkeit der Segmentierung und Registrierung voneinander berücksichtigt wird. Durch ge­eig­nete Nebenbedingungen wird verfügbares physiologisches Vorwissen über die Dy­namik der Bewegung in diesen Ansatz  integriert. Die Bereitstellung von Methoden zur automatischen Bestimmung geeigneter Verfahrensparameter soll die flexi­ble An­pas­sung des entwickelten Seg­mentierungs-/Registrierungsmodells an kon­krete medi­zi­ni­sche Pro­blem­stel­lun­gen ermöglichen. Spezielle Interaktionsmechanismen erlauben die be­nutzer­ge­steuerte Anpas­sung des Segmentierungs- bzw. Registrie­rungs­­er­geb­nisses.

Die Grundidee der hier verfolgten Ansätze wird nachfolgend beispielhaft illustriert (siehe Abbildung). Betrachtet werden zwei 3D-Bilder einer zeitlichen Sequenz (Referenz- und Target-Bild genannt), wobei eine Segmentierung des Referenzbildes als bekannt vorausgesetzt wird. Berechnet wird nun zum einen eine Bewegungsschätzung, resp. Registrierung von Referenz- und Target-Bild, zum anderen eine Segmentierung des Target-Bildes. Ein zusätzlich definierter Kraftterm  koppelt dabei die beiden Verfahren, indem eine möglichst hohe Übereinstimmung der Target-Segmentierung und der mit der Bewegungsschätzung transformierten Referenzsegmentierung gefordert wird.

Die entwickelten Methoden werden zur simultanen Segmentierung und Bewegungs­feld­schätzung der Lunge und der Leber eingesetzt und anhand klinischer 4D-CT-Bilddaten evaluiert.

Das Projekt wird von der Deutschen Forschungsgemeinschaft gefördert (DFG:  EH 224/3-1).

Ausgewählte Publikationen:

  1. A. Schmidt-Richberg, H. Handels, J. Ehrhardt:
    Integrated Segmentation and Non-linear Registration for Organ Segmentation and Motion Field Estimation in 4D CT Data.
    Methods Inf Med, 48(4): 334–339, Jan 2009.
  2. A. Schmidt-Richberg, J. Ehrhardt, R. Werner, H. Handels
    Direction-Dependent Regularization for Improved Estimation of Liver and Lung Motion in 4D Image Data.
    In: SPIE Medical Imaging 2010, San Diego, USA, Vol. 7623, 76232Y, 2010.
  3. A. Schmidt-Richberg, J. Ehrhardt, R. Werner, H. Handels
    Slipping Objects in Image Registration: Improved Motion Field Estimation with Direction-dependent Regularization.
    In: G.-Z. Yang et al. (eds.): Medical Image Computing and Computer-Assisted Intervention - MICCAI 2009, London, LNCS Vol. 5761, 755–762, 2009.
  4. J. Ehrhardt, A. Schmidt-Richberg, H. Handels
    Simultaneous Segmentation and Motion Estimation in 4D-CT Data Using a Variational Approach.
    In: J.M. Reinhardt et al. (eds.): Image Processing, SPIE Medical Imaging 2008, San Diego, Vol. 6914, 37-1–37-10, 2008.
  5. J. Ehrhardt, A. Schmidt-Richberg, H. Handels
    A Variational Approach for Combined Segmentation and Estimation of Respiratory Motion in Temporal Image Sequences.
    IEEE International Conference on Computer Vision 2007, ICCV 2007, Rio de Janeiro, Brazil, CD-ROM-Proceedings, IEEE Catalog Number CFP07198-CDR (ISBN 978-1-4244-1631-8), 2007. 

Projektteam:

Dipl.-Inf. Alexander Schmidt-Richberg
Dr. Jan Ehrhardt
Prof. Dr. Heinz Handels

 

IconIntegr4DSegmentierung.png
Erstellt am 1. Juni 2010 - 18:02. Zuletzt geändert am 26. Juni 2014 - 16:44.

4D Medical Image Computing zur modellbasierten Analyse atmungsbedingter Tumor- und Organbewegungen

Atmungsbedingte Bewegungen stellen eines der Hauptprobleme der Strahlentherapie thorakaler und abdominaler Tumoren dar. Räumlich-zeitliche Bilddaten, auch 4D-Bilddaten genannt, haben der Strahlentherapie die Möglichkeit eröffnet, die räumlich-zeitliche Bewegung und Verformung von Tumoren und inneren Organen während der Atmung zu erfassen. In diesem Projekt werden unter Verwendung von artefaktreduzierten, räumlich und zeitlich hochaufgelösten 4D-CT-Datensätzen Methoden zur Modellierung, Analyse und Visualisierung dieser Bewegungen entwickelt. Die Methoden sollen als Grundlage einer Verbesserung der strahlentherapeutischen Behandlung durch Einbeziehung der räumlich-zeitlichen Tumorbewegung und Organdeformationen dienen.

Methodische Schwerpunkte des Projektes sind die Entwicklung und Evaluation von optimierten nicht-linearen Registrierungsverfahren zur möglichst genauen Schätzung von 3D-Bewegungsfeldern in 4D-Bilddaten und deren Nutzung zur Bewegungsanalyse und -modellierung von Tumoren und strahlentherapeutischen Risikoorganen (Abb.1 und 2). Auf Basis des verfügbaren Patientenkollektivs werden z.B. Interpatientenvariabilitäten hinsichtlich der auftretenden Bewegungen bestimmt. Hierbei werden die Lungenbewegungen in verschiedenen Lungenregionen betrachtet und regionenbezogene Analysen durchgeführt. Jeweilige Resultate werden genutzt, um z.B. die von dem bewegten Tumor während der Atmung überstrichenen Volumina für die unterschiedlichen Patienten zu vergleichen und Aussagen abzuleiten, ob es möglich ist, für unterschiedliche Lungenregionen typische Atemmuster zu identifizieren.

Das Projekt wird durch die Deutsche Forschungsgemeinschaft (DFG) gefördert (HA 2355/9-1).


Abb. 1: Visualisierung atmungsbedingter Bewegungen der Lunge, basierend auf einer Bewegungsfeldschätzung mittels optischer Fluss basierter Registrierung. Die Bewegungsamplitude ist farbkodiert dargestellt (rote Pfeile: Bewegungen von mehr als 20 mm). Abb. aus Handels et al., IJMI 76S, 433-9, 2007.


Abb. 2: Farbkodierte Visualisierung der Aufenthaltswahrscheinlichkeit von Lungentumoren von zwei Patienten, dargestellt je für ein koronares Schnittbild.

Ausgewählte Publikationen:

  1. Alexander Schmidt-Richberg, Jan Ehrhardt, René Werner, Heinz Handels
    Slipping Objects in Image Registration: Improved Motion Field Estimation with Direction-dependent Regularization
    In: G.-Z. Yang Hawkes D., Reuckert D., Noble A., Taylor C. (eds.), Medical Image Computing and Computer-Assisted Intervention - MICCAI 2009, Part I, LNCS 5761, Springer Verlag, Berlin, 755-762, 2009.
  2. H. Handels, R. Werner, T. Frenzel, D. Säring, W. Lu, D. Low, and J. Ehrhardt:
    4D Medical Image Computing and Visualization of Lung Tumor Mobility in Spatio-temporal CT Image Data, International Journal of Medical Informatics, 76S, S433-S439, 2007.
  3. J. Ehrhardt, R. Werner, T. Frenzel, W. Lu, D. Low,  H. Handels:
    Analysis of Free Breathing Motion Using Artifact Reduced 4D CT Image Data, In: P.W. Pluim, J.M. Reinhardt (eds.), SPIE Medical Imaging 2007: Image Processing, San Diego, Proc. SPIE, Vol. 6512, 1N1-1N11, 2007.
  4. R. Werner, J. Ehrhardt, T. Frenzel, W. Lu, D. Low, H. Handels:
    Analysis of Tumor-influenced Respiratory Dynamics using Motion Artifact Reduced Thoracic 4D CT Images. In: T. Buzug et al. (eds.), Advances in Medical Engineering, Springer Verlag, Berlin, 181-186, 2007.

Projektteam:

Dipl.-Inf. Dipl.-Phys. René Werner
Dr. Jan Ehrhardt
Dipl.-Inf. Alexander Schmidt-Richberg
Prof. Dr. Heinz Handels

Kooperationspartner:

Dr. rer. nat. Florian Cremers
Klinik und Poliklinik für Strahlentherapie und Radioonkologie
Universitätsklinikum Hamburg-Eppendorf (UKE)

Dr. med. Dr. rer. nat. Thorsten Frenzel
Ambulanzzentrum des UKE GmbH
Bereich für Strahlentherapie

Prof. Daniel Low and Dr. Wei Lu
Washington University in St. Louis, School of Medicine
St. Louis, MO, USA

 

lunagandtumor03.jpg
Erstellt am 7. Mai 2010 - 19:58. Zuletzt geändert am 26. Juni 2014 - 16:45.

Anschrift

Institutssekretariat
Susanne Petersen

Tel+49 451 3101 5601
Fax+49 451 3101 5604


Gebäude 64 (Informatik)

Ratzeburger Allee 160
23538 Lübeck
Deutschland