Tiefe generative Netzwerke für die unüberwachte Detektion von Anomalien in medizinischen Bildern

Die Verfahren aus dem Bereich des Deep Learnings haben sich in den letzten Jahren  für die automatische Bildanalyse und -verarbeitung etabliert, vor allem in den Bereichen der Segmentierung, Detektion  und Klassifikation.
Allerdings ist ein wesentlicher Nachteil solcher Methoden deren Bedarf großer Mengen von annotierten Trainingsdaten. Für das Erlernen der  automatischen Segmentierung von Hirntumoren in MRTs, zum Beispiel, benötigt ein Deep Learning Algorithmus Hunderte und Tausende an Hirn-MRTs mit Expertensegmentierungen vom Tumorgewebe. Solche Datensätze sind selten verfügbar im medizinischen Kontext, da die Datenannotation kompliziert und zeitintensiv ist.

In diesem Projekt liegt der Fokus auf der unüberwachten Detektion von Pathologien und Anomalien in medizinischen Bildern, d.h. dass keine Expertensegmentierungen für das Training benötigt werden. Die Hauptidee ist die gesunde Variabilität der Daten einer Domäne zu erlernen, so dass Pathologien als Abweichung der gelernten Norm erkannt werden können. Für das bestehende Problem werden tiefe generative Modelle wie variationelle Autoencoder und GANs gewählt, da sie in der Lage sind komplexe Zusammenhänge und Verteilungen der Daten zu erlernen.

 

deep learning p1deep learning ue1

deep learning p2deep learning ue2

Abb.1: Beispiele für pathologische Bilder (links) und die unüberwachte Lokalisation der Pathologien (rechts). Von oben nach unten: Lungen CT mit einem Lungentumor; Gehirn MRT mit einem kontrastierten Glioblastom; OCT der Retina mit Makula-Ödem.

Ausgewählte Publikationen:

  1. Uzunova H., Handels H., Ehrhardt J.
    Unsupervised Pathology Detection in Medical Images using Learning-based Methods
    In: Maier A., Deserno T.M., Handels H., Maier-Hein K.H., Palm C., Tolxdorff T. (eds.), Bildverarbeitung für die Medizin 2018, Erlangen, Informatik aktuell, Springer Vieweg, Berlin Heidelberg, 61-66, 2018
  2. Uzunova H., Ehrhardt J., Kepp T., Handels H.
    Interpretable Explanations of Black Box Classifiers Applied on Medical Images by Meaningful Perturbations using Variational Autoencoders
    In: SPIE 10949, Medical Imaging 2019: Image Processing, San Diego, USA, 10949, 1094911-1-1094911-8, 2019

Projektteam:

M.Sc. Hristina Uzunova
Dr. rer. nat. Jan Ehrhardt
Prof. Dr. rer. nat. habil. Heinz Handels

 

deep_learning_based_icon_80x80.png
Erstellt am 8. Mai 2019 - 10:38 von Kulbe. Zuletzt geändert am 10. Mai 2019 - 13:37 von Kulbe.

Anschrift

Institutssekretariat
Susanne Petersen

Tel+49 451 3101 5601
Fax+49 451 3101 5604


Gebäude 64 (Informatik)

Ratzeburger Allee 160
23538 Lübeck
Deutschland