KI für Medizinprodukte und das digitale Gesundheitswesen - MATLAB & Simulink

E-Book

Kapitel 3

KI als Impulsgeber für die medizinische Bildgebung


Die medizinische Bildgebung ist zweifellos die vielversprechendste klinische Anwendung von KI. Ob bei der Krebsdiagnose, der Erkennung von Knochenbrüchen oder bei der Identifizierung von neurologischen oder thorakalen Erkrankungen: KI kann dazu beitragen, Diagnosen in kürzester Zeit zu stellen und Ärzte bei den erforderlichen Behandlungsmöglichkeiten zu unterstützen.

Zwei nebeneinander liegende Lungenaufnahmen mit farbigen Datenüberlagerungen in Form eines Bullauges (rot in der Mitte, gelb an den Rändern). Beide weisen auf eine wahrscheinliche COVID-Erkrankung hin.

Visualisierung des Class Activation Mapping (CAM), das KI-basierte Modellbewertungen verschiedener COVID-19-Fälle liefert, um Ärzten einen Einblick in die Entscheidung des Algorithmus zu geben.

Man geht davon aus, dass jährlich etwa 40 Millionen radiologische Fehler gemacht werden, die entweder auf überlastete Radiologen oder auf eine mangelhafte Qualität der bildgebenden Verfahren zurückzuführen sind [4]. KI-Algorithmen unterstützen Radiologen bei der Diagnosestellung, indem sie feinste anatomische Strukturen erkennen und daraus klinische Informationen ableiten. Darüber hinaus ermöglicht die KI auch die Verarbeitung und Analyse großer Bildmengen in wesentlich kürzerer Zeit.

Der Einsatz von KI in der diagnostischen medizinischen Bildgebung wird derzeit umfassend evaluiert. Im Juli 2022 entfielen dabei 75% (391) der von der FDA auf dem Markt zugelassenen Geräte allein auf die radiologische Bildgebung [5].

Problem

Die Strahlenbelastung durch die Computertomographie (CT) ist etwa 350-mal höher als eine einzelne Röntgendosis und wird mit verschiedenen Risiken, z. B. einer Krebserkrankung, in Verbindung gebracht. Mithilfe von CT-Untersuchungen mit einer extrem geringen Dosis möchten medizinische Wissenschaftler die Strahlenbelastung begrenzen. Dieser Ansatz führt jedoch zu Aufnahmen mit geringer Auflösung und starkem Rauschen, was die Interpretation der Bilder durch die Ärzte erschwert.

Ein Diagramm, das die Schichten des faltenden neuronalen Netzes (CNN) zeigt, wie es mit bereitgestellten CT-Bildern mit extrem geringer Dosis trainiert wird.

Mit extrem geringer CT-Dosis trainierte CNNs. (Bildquelle: Ritsumeikan University)

Lösungen

Der Wissenschaftler Ryohei Nakayama von der Ritsumeikan University in Kyoto, Japan, hat mit MATLAB ein faltendes neuronales Netz (CNN) zum Deep Learning entwickelt, das hochauflösende Bilder rekonstruiert, die mithilfe von CT-Scans mit extrem niedriger Dosis aufgenommen wurden.

  • Zunächst teilte der Wissenschaftler die CT-Bilder mit MATLAB in kleine lokale Regionen auf und paarte Regionen mit niedriger und normaler Dosis, um ein Bildwörterbuch zu erstellen. Als das Wörterbuch wuchs, wurde die Suchzeit unvertretbar lang, weshalb Nakayama die Verwendung eines faltenden neuronalen Netzes (CNN) untersuchte, das trotz der Trainingszeit wesentlich schneller Ergebnisse liefert.
  • Er verwendete MATLAB, um etwa 128 verschiedene CNN-Varianten zu evaluieren, indem er verschiedene Eingabegrößen und Filter sowie eine Vielzahl von Faltungsschichten ausprobierte.
  • Zur Verkürzung des Trainingsprozesses führte er mithilfe der Parallel Computing Toolbox™ ein paralleles Training auf mehreren Grafikkarten der NVIDIA® GeForce-Serie durch.
  • Um die Trainingsfortschritte zu überwachen, zeichnete Nakayama die Genauigkeit und den Verlust mithilfe der Visualisierungsoption der Deep Learning Toolbox™ auf.

Ergebnisse

Das CNN-basierte System liefert Ärzten ein vergleichbares Maß an diagnostischen Informationen und reduziert gleichzeitig die Strahlenbelastung für Patienten um bis zu 95%.

Problem

Kleine Knoten oder Verwachsungen an der Schilddrüse sind in der Regel gutartig, aber ein kleiner Prozentsatz könnte sich auch als bösartig entpuppen. Zur Diagnose von Schilddrüsenknoten greifen Ärzte auf die Sonografie zurück, aber die Genauigkeit der Diagnose hängt auch von der Erfahrung des Radiologen ab. Mitunter gelangen verschiedene Radiologen, die denselben Knoten untersuchen, zu unterschiedlichen Diagnosen.

Lösungen

Ein Forscherteam der Yonsei University und des Severance Hospital in Seoul, Südkorea, entwickelte und trainierte mithilfe von MATLAB faltende neuronale Netze (CNNs), um bösartige und gutartige Schilddrüsenknoten zu unterscheiden. Die Wissenschaftler validierten die CNNs anhand von Datensätzen aus mehreren Krankenhäusern, versahen sie mit einer Benutzeroberfläche und stellten sie als Webanwendung bereit – alles mithilfe von MATLAB.

Ein Screenshot der SERA-Webapplikation zeigt die malignen Ergebnisse der Analyse eines Ultraschallbildes.

In MATLAB entwickelte SERA-Webanwendung. (Bildquelle: School of Mathematics and Computing, Yonsei University)

  • Zunächst verwendeten sie die Statistics and Machine Learning Toolbox, um die Merkmalserkennung durchzuführen und mehrere Machine-Learning-Modelle zu trainieren, darunter die Support Vector Machine (SVM) und die Random-Forest-Klassifikation.
  • Anschließend befasste sich das Team mithilfe der Deep Learning Toolbox mit der Untersuchung von CNNs und arbeitete mit 17 verschiedenen vortrainierten Netzwerken in MATLAB, darunter AlexNet, SqueezeNet, ResNet und Inception.
  • Die 17 verschiedenen Netzwerke wurden mit einem Datensatz von mehr als 14.000 Bildern trainiert. Für die merkmalsbasierte Kombination verwendeten sie die Ausgaben der letzten voll verknüpften Schicht in jedem CNN, um einen SVM- oder Random-Forest-Klassifikator zu trainieren. Der gewichtete Durchschnitt der Klassifizierungswahrscheinlichkeit, die von jedem CNN erzeugt wurde, wurde berechnet, um die entsprechenden Aussagen zu treffen.
  • Die trainierten CNNs wurden den Krankenhäusern, mit denen die Yonsei University zusammenarbeitet, zur Verfügung gestellt, indem eine Web-App namens SERA entwickelt und mit MATLAB Web App Server™ bereitgestellt wurde.

Ergebnisse

Diagnostische Tests haben gezeigt, dass diese CNNs genauso überzeugende Resultate liefern wie erfahrene Radiologen. Die Anwendung wird nicht nur von Medizinstudenten im Rahmen ihres Studiums genutzt, sondern auch von erfahrenen Radiologen, die eine objektive Zweitmeinung zu bestimmten Diagnosen einholen möchten.

Problem

In der Anfangszeit der COVID-19-Pandemie war es schwierig, die Coronavirus-Erkrankung nachzuweisen, zumal die Zahl der Fälle auf der ganzen Welt zunahm.

Lösungen

Erkennungs- und Diagnosetools bieten für Ärzte die Chance für eine wertvolle zweite Meinung und unterstützen sie im Screeningprozess. Ein Wissenschaftler des University of Dayton Research Institute (UDRI) entwickelte mithilfe von MATLAB und der Deep Learning Toolbox einen automatisierten Deep-Learning-Algorithmus zur Erkennung von COVID-19 anhand von Thorax-Röntgenaufnahmen. Zudem veranschaulichte er die Ergebnisse des Class Activation Mapping (CAM) für die verschiedenen trainierten Netze für mehrere COVID-19-Fälle, um den Medizinern einen Einblick in die Entscheidungen der Algorithmen zu geben.

Sechs Röntgenaufnahmen von Lungen, drei davon mit Covid, drei mit normalem Befund.

Klassifizierungsergebnisse für normale und COVID-Röntgenaufnahmen.

Referenzen

[4] Bruno, Michael A., Eric A. Walker und Hani H. Abujudeh. „Understanding and Confronting Our Mistakes: The Epidemiology of Error in Radiology and Strategies for Error Reduction.“ Radiographics 35, Nr. 6 (2015): 1668–1676. https://doi.org/10.1148/rg.2015150023.

[5] Center for Devices and Radiological Health. „Artificial Intelligence and Machine Learning (AI/ML) Enabled Medical Devices.“ U.S. Food and Drug Administration. FDA. Aktualisiert am 5. Oktober 2022. https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-aiml-enabled-medical-devices