Erschienen am {DATE} von {AUTHORS} in den Kategorien {CATEGORIES}

Als Teilbereich der Künstlichen Intelligenz verwendet Machine Learning (Maschinelles Lernen) Algorithmen zur Analyse von Daten. Damit lassen sich schneller tiefere Erkenntnisse gewinnen, die das Potenzial haben, die Labore, aber auch die Gesundheitsversorgung generell effizienter und besser zu machen. Doch was ist heute schon Realität, was ist noch Zukunftsmusik? Und wie funktioniert die Umsetzung der Analyseergebnisse in einen konkreten Mehrwert für Patient:innen? Dr. Markus Bundschus, Leiter Data Science Technologies, Roche Information Solutions (RIS), und Dr. Michael King, Data Scientist, RIS, geben Einblick in aktuelle Projekte. Zudem haben sie Kunden gefragt, welche Anwendungsfelder sie für Digitalisierung und Machine Learning im Labor- und Klinikalltag sehen und welche Möglichkeiten sie schon jetzt nutzen.

Ein Beitrag von Dr. Markus Bundschus, Chapter Lead Data Science Technologies, Dr. Michael King, Data Scientist, beide Roche Diagnostics GmbH

Die COVID-19-Pandemie hat in den vergangenen Jahren – gleichsam als Nebenwirkung – die breite Öffentlichkeit für die große Bedeutung der Diagnostik sensibilisiert. Dabei rückte die Arbeit der medizinischen Labore ins Zentrum der Aufmerksamkeit. Die Menschen erfuhren – oft am eigenen Leib – wie wichtig präzise Tests sind und dass es aktuelle, qualitativ hochstehende Daten braucht, um den Verlauf der Pandemie zu modellieren, Maßnahmen anzupassen oder Algorithmen zu entwickeln, die schwere Krankheitsverläufe vorhersagen können. Doch wie bekommt man Zugriff auf auswertbare Daten? Und unter welchen Bedingungen sind Daten über Länder und Grenzen hinweg verarbeitbar? „Es liegt auf der Hand: Wenn wir über die Digitalisierung in der Diagnostik sprechen, egal ob es darum geht, Effizienzpotenziale im Labor zu heben oder das Leben von Patient:innen zu verbessern, dann müssen wir uns zunächst mit den Daten selbst beschäftigen“, betont Bundschus.

Dabei geht es um viele komplexe Aspekte, von der Benennungssystematik über die Integration von Daten aus verschiedenen Systemen bis hin zu den Metadaten. Sowohl die Datenqualität als auch die Qualität des Experiments, über das die Daten erhoben werden, spielen eine große Rolle. „Daten sind der Schlüssel zur Erkenntnis“, ergänzt Bundschus. „Aber um diesen Schlüssel nutzen zu können, benötigen wir präzises Datenmanagement.“ Um größtmöglichen Nutzen aus Daten zu ziehen, sollten diese FAIR sein, das heißt Findable (auffindbar), Accessible (zugänglich), Interoperable (interoperabel), Reusable (wiederverwendbar). Die FAIR-Prinzipien zielen darauf ab, ein nachhaltiges Forschungsdatenmanagement sicherzustellen, indem Daten und zugehörige Metadaten so aufbereitet und gespeichert werden, dass sie jederzeit überprüfbar sind und von anderen genutzt und die Erkenntnisse reproduziert werden können.

In der medizinischen Praxis geht es darum, möglichst viele Patientendaten aus verschiedenen Diagnostik-Modalitäten zu sammeln, diese dann sauber zu bearbeiten und zu managen, um weiterführende Analysen durchführen zu können. Dadurch bekommt man neue Erkenntnisse zunächst auf einer sehr individuellen Ebene der Patient:innen. Füttert man diesen Wissenskreis kontinuierlich weiter mit Daten zahlreicher anderer Patient:innen, kann es in der Folge dabei helfen, Krankheiten generell besser zu verstehen, Verläufe vorherzusagen und neue Behandlungsoptionen zu finden.

Ein konkretes Beispiel ist die In Silico Discovery Toolbox von Roche, die Transkriptomdaten sammelt und analysiert, um neue Biomarker zu entdecken. Dabei greifen die Forscher:innen auf externe Daten aus bekannten Archiven und Wissensplattformen sowie auf interne Daten aus klinischen Studien zurück. Das Problem dabei ist die Vergleichbarkeit. Denn die Daten aus den Archiven sind teilweise inkonsistent, nicht normalisiert und überdies häufig nur wenig feingranular mit Metadaten annotiert. Roche arbeitet deshalb mit einem 30-köpfigen Forscherteam eines externen Partners zusammen, um mit Hilfe entsprechender wissenschaftlicher Publikationen und ergänzender Materialien die Daten zu re-annotieren. Das Ergebnis ist ein gebündeltes Kompendium an hochwertigen Transkriptom-Daten mit mehreren 100.000 Proben, die über Cross-Studien ausgewertet werden können. Mit Hilfe dieser aggregierten Daten konnte Roche bereits vielversprechende Biomarker identifizieren.

Daten aus verschiedenen Quellen zu integrieren und dabei Muster zu erkennen, ist das Wesen der Artificial Intelligence (AI). AI gehört in der Medizin zu den aktivsten Forschungsfeldern. So ist die Anzahl regulatorischer Zulassungen von AI-basierten Medizinprodukten in den letzten Jahren enorm gestiegen. In einer im Jahr 2021 publizierten Studie zählten die Forscher:innen im Zeitraum 2015 bis 2020 insgesamt 222 solcher Zulassungen in den USA und 240 in Europa.1 „Allerdings spreche ich hier lieber von Augmented Intelligence statt von AI“, betont Bundschus. „Es geht ja keineswegs darum, Entscheidungsträger:innen durch Künstliche Intelligenz zu ersetzen. Vielmehr unterstützt Augmented Intelligence Ärzt:innen dabei, schnellere und datenbasierte Entscheidungen zu treffen.”

Zu den aktuellen Forschungsthemen rund um AI zählt Machine Learning Operations (MLOps). Ziel ist es, das Entwickeln, Bereitstellen, Verwalten und Überwachen von Machine-Learning-Modellen effizienter zu gestalten. Aber auch die Validierung der Algorithmen selbst oder die sogenannte Human-Machine Interaction (HMI), also die Interaktion von Menschen mit in Maschinen integrierten Algorithmen, sind wichtige Themen. „Hier arbeiten akademische Partner, Open Source Initiativen, Industrie- und Tech-Partner eng zusammen, um weitere Fortschritte zu erzielen“, so Bundschus.

In der medizinischen Praxis werden AI-Algorithmen bereits erfolgreich eingesetzt, unter anderem in der digitalen Pathologie. Mit navify Digital Pathology können Patholog*innen nahtlos auf Bildanalysedaten, KI-Algorithmen, Erkenntnisse und Entscheidungshilfen zugreifen. Ein integriertes Application Programming Interface (API) ermöglicht es dabei auch externen Forschungsinstituten oder Industriepartnern, ihre Algorithmen einzupflegen, um das System weiter zu verbessern. Somit entsteht ein Ecosystem aus Daten und Algorithmen, von denen letztendlich die Patient:innen profitieren.

Weitere Anwendungsfelder von AI in der Klinik beschäftigen sich mit der Diagnose von Krankheiten, beispielsweise von Tumoren oder malignen Hautläsionen. Auch die Auswahl und Kombination geeigneter Tests, um die diagnostische Ausbeute zu erhöhen, ist ein vielversprechendes Gebiet ebenso wie die Vorhersage von kritischen Verläufen, etwa kardiovaskuläre Ereignisse oder Nierenversagen. AI-Algorithmen können im Sinne der personalisierten Medizin individuelle Behandlungsoptionen errechnen und Prognosen über den Krankheitsverlauf stellen. Besonders spannend sind in diesem Zusammenhang die sogenannten Digital Twins, also digitale Abbilder der Wirklichkeit, um Prozesse zu simulieren und Erkenntnisse zu generieren. In der Medizin könnte man so die Wirkungsweise einer bestimmten Therapie zuerst digital austesten, bevor man sie wirklich anwendet. „Allerdings ist es noch ein langer Weg, bis wir Menschen mit all ihren molekularbiologischen Prozessen digital abbilden können“, so Bundschus.

Digitale Zwillinge könnten in der Zukunft auch im Labor helfen, durch Simulationen Abläufe zu optimieren oder neue Analysegeräte optimal in den Workflow zu integrieren. „Darüber hinaus gibt es im Labor viele repetitive Arbeiten, die einem bestimmten Muster folgen“, erklärt Dr. Michael King. „Diese Muster können von Algorithmen erlernt werden, die dann überprüfen, ob die Prozesse den gewünschten Mustern folgen oder nicht.“ Auf diese Weise lassen sich Data Analytics und Machine Learning in der Qualitätskontrolle oder der Validierung von Tests einsetzen. AI-Algorithmen können präanalytische Fehler identifizieren, Probleme an den Analysegeräten aufspüren oder für die rechtzeitige Bestellung von Verbrauchsmaterialien sorgen.

Dass AI in der Praxis angekommen ist, bestätigten auch die Teilnehmer:innen eines Workshops anlässlich der Roche Tage 2022. „Advanced Analytics und Machine Learning ist ein sehr weites Feld und eröffnet unzählige Möglichkeiten“, so King. „Deshalb wollten wir von unseren Kunden wissen, wo sie selbst den größten Mehrwert für ihren Arbeitsalltag sehen.“ Die Bereiche Onkologie und Hämatologie wurden dabei am häufigsten genannt, neben Präanalytik, Qualitätskontrolle, Servicevorhersagen der Laborgeräte und der technischen sowie medizinischen Validation von Daten. Dabei zeigten die Befragten große Bereitschaft, Advanced Data Analytics zukünftig in ihren Laboralltag zu integrieren: 43 Prozent der Workshop-Teilnehmer:innen würden Algorithmen eigenständig Entscheidungen zur Optimierung von Vorgängen oder zur automatischen Qualitätskontrolle treffen lassen. 57 Prozent würden Algorithmen im Sinne von Augmented Intelligence als Entscheidungshilfe nutzen. Tatsächlich im Laboralltag angekommen sind gemäß der Befragten aktuell bereits Algorithmen zur Qualitätskontrolle und zu Servicevorhersagen.

Ob in der Medizin, im Labor oder auf anderen Gebieten: die Vorteile der AI-Produkte basieren auf dem Sammeln und Auswerten von Daten. „Es ist deshalb angezeigt, viel Sorgfalt auf den Datenschutz und den Schutz der Privatsphäre zu legen“, betont Bundschus. „Wir tun das, indem wir in diesem Bereich sehr aktiv neue Technologien scouten und erforschen.“ Beim Verfahren des Dynamics Consent Management geht es beispielsweise um die vollumfängliche Löschung von Daten. Darauf haben Patient:innen gemäß dem General Data Protection Act (GDPA) Anspruch. Oft sind die Daten jedoch auf unterschiedliche Systeme, etwa Laborinformationssysteme oder Electronic Health Records, verteilt. Deshalb benötigt man Technologien, die sicherstellen, dass alle Daten gefunden und gelöscht werden können. In diesem Zusammenhang sind neue Methoden zur Anonymisierung von Daten interessant. Das sind beispielsweise Technologien, bei denen die Daten nicht in einem externen System gesammelt werden, sondern die Daten bei den Patienten:innen bleiben und die Algorithmen zu den Daten gebracht werden. Ein weiteres Beispiel sind sogenannte vertrauliche Datenräume, in denen Daten nur freigegeben werden, wenn man sicher ist, dass die Privatsphäre gewahrt bleibt.

„AI kann die Medizin personalisierter und sicherer und die Gesundheitsversorgung besser machen,“ so das Fazit von Bundschus. „Aber um diese Vision zu erreichen, brauchen wir hochwertige, FAIRe und geschützte Daten. Nur so können wir Vertrauen schaffen und Advanced Data Analytics und Machine Learning für die Medizin und das Labor nutzbar machen.“

Literatur

  1. https://pubmed.ncbi.nlm.nih.gov/33478929/

Melden Sie sich zum Newsletter an und erhalten Sie direkt die Neuigkeiten aus der Diagnostik in Ihr Postfach.

Links zu Websites Dritter werden im Sinne des Servicegedankens angeboten. Der Herausgeber äußert keine Meinung über den Inhalt von Websites Dritter und lehnt ausdrücklich jegliche Verantwortung für Drittinformationen und deren Verwendung ab.