KI für Medizinprodukte und das digitale Gesundheitswesen - MATLAB & Simulink

E-Book

Kapitel 4

KI zur Unterstützung bei der Behandlung von Krankheiten und anderen gesundheitlichen Einschränkungen


Die Fähigkeit von KI-Systemen, große Datenmengen zu erfassen und zu analysieren und in kürzester Zeit eine entsprechende Auswertung zu erstellen, machen diese zu einem äußerst nützlichen Instrument zur Behandlung von Krankheiten und gesundheitlichen Einschränkungen. So könnte beispielsweise die Integration von KI in Medizinprodukte, die mehrere Sensoren umfassen, die Früherkennung eines klinischen Problems fördern oder Erkenntnisse liefern, die die Qualität der Behandlung verbessern. Ebenso könnten die umfangreichen und komplexen physiologischen Daten, die der menschliche Körper generiert, mithilfe von KI schneller und genauer interpretiert werden, um eine medizinische Intervention zu erarbeiten.

Eine Hand, die eine Tasse hält und den Inhalt in ein Glas schüttet. Das Handgelenk der Person ist mit einer Elektrodenmanschette bedeckt.

Eine KI-basierte Gehirn-Maschine-Schnittstelle ermöglicht es einem Mann mit gelähmtem Arm, Gegenstände in eine Tasse zu schütten. (Bildquelle: Battelle)

Problem

Für Patienten mit fortgeschrittener amyotropher Lateralsklerose (ALS) wird die Kommunikation mit Fortschreiten der Krankheit immer schwieriger. In vielen Fällen führt ALS (auch bekannt als Lou-Gehrig-Krankheit) zu einem Locked-in-Syndrom, bei dem der Patient vollständig gelähmt ist, aber kognitiv nicht beeinträchtigt wird. Eye-Tracking-Geräte und neuerdings auch auf Elektroenzephalogrammen (EEG) basierende Hirn-Computer-Schnittstellen (Brain-Computer Interface, kurz: BCI) ermöglichen es ALS-Patienten, sich zu verständigen, indem sie Sätze Zeichen für Zeichen buchstabieren – allerdings kann es so mehrere Minuten dauern, selbst eine einfache Nachricht zu übermitteln.

Lösung

Wissenschaftler der University of Texas Austin haben eine nicht-invasive Technologie entwickelt, die unter Verwendung von Wavelets, Machine Learning und Deep Learning neuronale Netze verwendet, um Signale von Magnetoenzephalographien (MEG) zu dekodieren und ganze Sätze zu erkennen, wenn der Patient sich nur vorstellt, mit ihnen zu sprechen. Die Ausführung des Algorithmus erfolgt nahezu in Echtzeit; wenn sich der Patient einen Satz vorstellt, erscheint er sofort.

  • Mit der Wavelet Toolbox™ konnten sie die MEG-Signale entrauschen und mithilfe von Analyseverfahren der Wavelet-Multiresolution in spezifische neuronale Oszillationsbänder (hohe Gamma-, Gamma-, Alpha-, Beta-, Theta- und Delta-Gehirnwellen) aufschlüsseln.
  • Zunächst extrahierten die Wissenschaftler Merkmale aus den Signalen und nutzten die Statistics and Machine Learning Toolbox, um eine Vielzahl statistischer Merkmale zu berechnen. Die extrahierten Merkmale wurden verwendet, um einen Klassifikator auf Basis einer Support Vector Machine (SVM) sowie einen einfachen Klassifikator mittels eines künstlichen neuronalen Netzes (ANN) zu trainieren, wobei eine grundlegende Genauigkeit durch die Klassifizierung von fünf Phrasen entsprechenden neuronalen Signalen erzielt wurde. Diese Methode ergab eine Genauigkeit von etwa 80% und diente als Ausgangsbasis für die Genauigkeit.
  • Anschließend nutzte das Team Wavelet-Skalogramme von MEG-Signalen zur Darstellung umfangreicher Merkmale und verwendete diese als Eingaben zum Trainieren von drei individuell erstellten, vortrainierten tiefen Convolutional Neural Networks – AlexNet, ResNet und Inception-ResNet – zur Sprachdekodierung von MEG-Signalen. Durch die Kombination von Wavelets und Deep-Learning-Techniken konnte die Gesamtgenauigkeit auf bis zu 96% gesteigert werden.
  • Um den Trainingsprozess zu beschleunigen, führte das Team das Training auf einem Parallel-Computing-Server mit sieben Grafikkarten und mithilfe der Parallel Computing Toolbox durch.

Ergebnisse

Mithilfe von MATLAB konnte das Team schnell zwischen den verschiedenen Methoden zur Merkmalsextraktion iterieren und mehrere Modelle zum Machine Learning und Deep Learning trainieren, um eine Gesamtgenauigkeit der MEG-Sprachdekodierung von 96% zu erreichen. Durch die Kombination von Wavelet-Techniken mit Deep Learning in MATLAB konnten sie diese in wenigen Minuten umsetzen – deutlich weniger als in anderen Programmiersprachen. Darüber hinaus war das Team in der Lage, die Verwendung mehrerer Grafikkarten für das Training zu nutzen und musste dabei nur eine einzige Code-Zeile ändern. Mithilfe der Parallel Computing Toolbox und eines Servers mit sieben Grafikkarten konnten die Netze etwa zehnmal schneller trainiert werden.

Ein vierstufiger Prozess von links nach rechts zeigt die MEG-Datenerfassung, die Datenverarbeitung zu einem Skalogramm, die Interpretation der Daten durch ein neuronales Netz sowie die Ausgabe der entschlüsselten Sprache.

Umwandlung von MEG-Daten des Gehirns in Wortverbindungen. (Bildquelle: UT Austin)

Problem

Eine Lähmung ist der Verlust der Fähigkeit, einen Körperteil oder den ganzen Körper zu bewegen, der in der Regel aufgrund einer Schädigung des Gehirns oder des Rückenmarks auftritt.

Lösung

Wissenschaftler von Battelle Neurolife und der Ohio State University entwickelten eine Hirn-Computer-Schnittstelle (BCI) zur Aufzeichnung und Analyse von Hirnsignalen und zur Weiterleitung dieser Signale in Form von Befehlen an ein entsprechendes Gerät, damit dieses eine gewünschte Aktion ausführt. In diesem Fall hat das Team ein System konstruiert, das einem Patienten hilft, die bewusste Kontrolle über seine Finger, seine Hand und sein Handgelenk wiederzuerlangen.

  • Mit MATLAB analysierten sie die Signale des Elektroenzephalogramms (EEG) des Gehirns und trainierten Machine-Learning-Algorithmen, um die unbewussten Berührungssignale des Gehirns zu erkennen und zu entschlüsseln.
  • Wenn der Patient mithilfe dieses BCI einen Gegenstand berührte, trennten diese Algorithmen die motorischen und sensorischen Signale und übertrugen das Berührungsfeedback an ein vibrotaktiles Band und die motorischen Signale an eine Elektrodenmanschette.
Zu den fünf Schritten des BCI-Systems gehört eine Schleife, die die restlichen vom Gehirn empfangenen Berührungssignale mit einer weiteren Schleife verbindet, die den Tastsinn und die Steuerung über eine Manschette wiederherstellt.

Schritte im BCI-System. (Bildquelle: Battelle)

Ergebnis

Der Patient kann nun Gegenstände anheben, ohne sie anzuschauen. Das System ist für den Heimgebrauch noch zu umfangreich, könnte sich aber zu einem System entwickeln, das den Alltag von Menschen mit Lähmungen verbessert.

Problem

Die diabetische Neuropathie ist eine Form der Nervenschädigung, die vor allem in Beinen und Füßen auftritt. Hervorgerufen wird sie durch einen erhöhten Blutzuckerspiegel.

Lösung

Der Gründer von Xfinito Biodesigns, Siddarth Nair, entwickelte mit MATLAB eine Software zur Steuerung eines tragbaren Schuhs namens Xeuron.ai mit dem Ziel, die diabetische Neuropathie zu behandeln. Dabei zeichnet Xeuron.ai Informationen vom zu tragenden Schuh auf, wie z.B. Druck, Temperatur, Reaktion auf Reize und Bewegung. Deep-Learning-Algorithmen verarbeiten die Daten. Diese Verarbeitung erfolgt durch Hybrid-Computing, das laut Nair sowohl die Kosten als auch die Rechenzeit reduziert. Auf Grundlage dieser Daten führt das System eine personalisierte Therapie durch elektrische oder magnetische Reize, Vibrationen, Wärme- oder Lichtimpulse durch.

Ein Schuh mit einer Einlage, die Sensoren zur Messung von Druck, Temperatur, Pronation und Fußaufsatz sowie eine Verbindung zu einem Smartphone enthält.

Xeuron-Schuhsystem. (Bildquelle: Xfinito Biodesigns)