Automatische Datenverarbeitung 2880x1000px.jpg
15. Dezember 2022 | von Michael Müller

Automatisierte Datenverarbeitung in der Versicherungsmedizin – grosses Potential oder nur ein modernes Märchen?

Die Digitalisierung schreitet weiter voran und macht auch vor der Suva nicht Halt. Dieser Artikel soll am Beispiel eines Suva-internen Projekts die Möglichkeiten und Grenzen der automatisierten Datenverarbeitung erläutern und dabei sowohl das grosse Potential als auch die Schwierigkeiten aufzeigen.

Inhalt

      Wie die Geschichte begann

      Im Jahre 2018 wurde von der Suva, federführend geleitet von der Abteilung Versicherungsmedizin, das Projekt «Expertensystem für medizinische und juristische Analysen» lanciert. Das Projekt hatte das Ziel, die Arbeit mit dem elektronischen Falldossier insbesondere für Ärztinnen und Ärzte sowie für Juristinnen und Juristen der Suva effektiver und effizienter zu gestalten. 

      Zur Beantwortung der Fragestellung der Fallführung des Schadenmanagements der Suva diente einer Ärztin/einem Arzt der Versicherungsmedizin beziehungsweise der Arbeitsmedizin bislang das elektronische Falldossier (eDossier) als wichtige Unterstützung zur Informationssuche. Die Umstellung auf das eDossier an sich war zwar bereits ein grosser Meilenstein für die Suva, wenn man an die riesigen Papieraktenberge auf den Schreibtischen zurückdenkt. Trotzdem sammeln sich auch im eDossier verschiedenste Dokumente an, sodass gerade bei langwierigen, komplexen Versicherungsfällen hunderte von einzelnen Dokumenten eher die Regel als die Ausnahme sind. Diese gilt es allesamt durchzuarbeiten. Gerade in einem komplexen Versicherungsfall muss für das Aktenstudium daher sehr viel Zeit aufgewendet werden. 

      Als geeigneter Anwendungsfall wurde eine fachliche und problemorientierte Zusammenfassung auf Stufe Versicherungsfall identifiziert. Die wichtigen Ereignisse des Falls werden extrahiert und auf einem Zeitstrahl dargestellt. Dies sollte der Nutzerin/dem Nutzer einen raschen Überblick insbesondere in komplexen Versicherungsfällen bieten. Nicht nur Ärztinnen und Ärzte könnten vom «Expertensystem» profitieren, sondern auch Juristinnen und Juristen, sowie Sachbearbeiterinnen und Sachbearbeiter, indem auf die Interessen und Arbeitsweisen der entsprechenden Nutzergruppe abgestimmte, individuelle Fallzusammenfassungen erstellt werden.

      Der Anwendungsfall «Fallzusammenfassung auf einem Zeitstrahl» sollte das Kernstück des Projekts bilden. Zusätzlich wurden folgende, weitere Anwendungsfälle definiert:

      • Diagnoseextraktion und Codierung: Mit Hilfe der automatisierten Texterkennung sollten nebst Ereignissen im Versicherungsfall wie Untersuchungen oder Operationen auch Diagnosen aus den medizinischen Berichten extrahiert und auf einem Zeitstrahl dargestellt werden. Vorgesehen war diesbezüglich auch eine automatisierte Zuweisung der entsprechenden ICD-10 Codes. 
      • Dossiervervollständigung: Zeitraubend sind Dossiers, in welchen für die versicherungs-medizinische oder arbeitsmedizinische Beurteilung relevante, medizinische Dokumente wie zum Beispiel Sprechstundenberichte oder Röntgenberichte fehlen. Um Rückweisungen zu minimieren, sollten die Dossiers automatisiert auf ihre Vollständigkeit geprüft werden.
      • Wissensdatenbanken: der Ärztin/dem Arzt sollten automatisiert, zur entsprechenden Verletzung im jeweiligen Versicherungsfall, geeignete Literaturhinweise für die Beantwortung der Fragen der Administration zur Verfügung gestellt werden.
      • Ähnliche Fälle: Analog zum Vorgehen bei den Wissensdatenbanken sollte im eDossier der Suva nach ähnlichen Versicherungsfällen (gleiches oder ähnliches Verletzungsmuster) gesucht und die bestehenden versicherungs- oder arbeitsmedizinischen Beurteilungen und juristischen Entscheidungen der Ärztin/dem Arzt für die medizinische Beurteilung zur Verfügung gestellt werden. Im Gegensatz zu den Wissensdatenbanken zeigt sich hierbei die Schwierigkeit, die vom Datenschutzgesetz vorgegebene, zwingend einzuhaltende Anonymisierung der Vergleichsfälle umzusetzen.

      Um die Anforderungen der obig beschriebenen Anwendungsfälle zu erfüllen, braucht es als Basis ein technisches Werkzeug zur automatisierten Datenverarbeitung.

      Die Kernelemente in der Datenverarbeitung

      OCR steht für «Optical character recognition» zu Deutsch optische Zeichenerkennung oder eben automatisierte Texterkennung. Dies bezeichnet die Aufgabe, Buchstaben (Zeichen) als solche zu erkennen. So werden zum Beispiel in einem medizinischen Dokument Textblöcke von graphischen Elementen getrennt, Zeilenstrukturen erkannt und Einzelzeichen separiert. Auf Stufe Wort oder Buchstabe erfolgt schlussendlich ein Vergleich mit bekannten Mustern durch ein OCR-Programm. So können sehr viele Muster in kurzer Zeit verglichen werden, womit auch die Unterscheidung von ähnlichen Zeichen wie zum Beispiel dem Buchstaben «B» und der Zahl «8» möglich ist. Ursprünglich wurden zur automatisierten Texterkennung eigens entworfene Schriftarten entwickelt, durch die gestiegene Leistungsfähigkeit moderner Computer ist es zwischenzeitlich auch möglich, gängige Schriftarten und sogar Handschriften zu erkennen [1, 2].

      Die OCR-Technik stellt eine wichtige Basis für die Informationsextraktion und -verarbeitung aus Texten dar. Durch die Texterkennung gelingt es, Buchstaben und Worte als solche zu erkennen. Allerdings gab es für den Anwendungsfall «Fallzusammenfassung auf einem Zeitstrahl» die technische Anforderung, dass es möglich sein soll, Ereignisse wie Untersuchungen oder Operationen und Diagnosen in medizinischen Berichten zu finden, mit einem Datum zu verknüpfen und chronologisch auf einem Zeitstrahl abzubilden. Dazu braucht es mehr als nur die reine Texterkennung, es braucht geeignete medizinische Wörterbücher für den «Mustervergleich», Regelwerke, Modelle für maschinelles Lernen und eine grosse Portion menschliches Know-how.

      Zusätzlich wird ein weiterer technischer Baustein benötigt, das sogenannte Natural Language Processing (NLP). Es handelt sich dabei um eine Kombination aus verschiedenen Verarbeitungsschritten, um gesprochene und geschriebene Sprache maschinell verarbeiten zu können. Durch diese Technik werden Lösungen geschaffen, um Sprache zu erkennen, zu analysieren und deren Bedeutung zur weiteren Verarbeitung zu extrahieren. Es gibt dabei unterschiedliche Herangehensweisen. Eine Möglichkeit der Textverarbeitung zeigt das sogenannte «Saarbrücker Pipelinemodell» auf, wobei folgende Schritte hintereinander durchlaufen werden: 

      1. Spracherkennung 
      2. Tokenisierung (Segmentation der Buchstabenkette in Sätze und Wörter) 
      3. Morphologische Analyse (Extraktion der grammatischen Information, um die Wörter auf ihre Grundform zurückzuführen) 
      4. Syntaktische Analyse (auf die strukturelle Funktion, z. B. Subjekt, Objekt, Artikel) 
      5. Semantische Analyse (Zuordnung von Bedeutung, z. B. Diagnose) 
      6. Dialog- und Diskursanalyse (die Beziehung aufeinanderfolgender Sätze wird analysiert)

      Die Anwendung in der Praxis zeigt sich heute unter anderem in Form von automatisierter Textkorrektur, Auffinden von Informationen in grossen, sprachlichen Datenmengen, Übersetzung in andere Sprachen und Verarbeitung von gesprochener Sprache. Bereits in den nächsten Jahren sind deutliche Fortschritte durch den Einsatz von leistungsfähigeren Computern zu erwarten. Anwendungsbereiche der Zukunft könnten zum Beispiel das sinnhafte Zusammenfassen von langen Texten, das automatisierte Schreiben von Texten, das Erkennen von Stimmungen des Sprechenden und das Erfassen von Stilmitteln wie Ironie, rhetorischen Fragen oder Sarkasmus sein [3, 4].

      Eine wichtige Rolle spielt das maschinelle Lernen, bereits 1959 von Arthur Samuel, einem US-amerikanischen Elektroingenieur und Informatiker, als Anwendungsfeld der künstlichen Intelligenz definiert, das statistische Techniken anwendet, um Computersystemen die Möglichkeit zu geben, von Daten zu lernen, ohne explizit darauf programmiert zu sein. So wird aus Daten Wissen erzeugt. Das erzeugte Wissen kann dabei durch statistische Regeln, durch Modelle oder künstliche neuronale Netze repräsentiert werden. Daten sind Erfahrungen, Beispiele oder Fakten aus verschiedenen Datenquellen. Heutige Systeme können völlig autonom Zusammenhänge, Modelle, Regeln, Strukturen und Cluster erlernen [5]. 

      Es werden zwei Methoden des maschinellen Lernens unterschieden: das «überwachte» und das «unüberwachte» Lernen, welche sich vor allem im verwendeten Trainingsdatensatz und in den Anwendungsmöglichkeiten unterscheiden. Beim «überwachten» Lernen werden der Maschine zum Training Datensätze vorgelegt, welche bereits in bestimmte Kategorien eingeteilt sind, das heisst, das richtige Ergebnis ist bekannt und wird für das Training mitgeliefert. Das Ziel ist, dass die Maschine hierbei Muster erlernt, um diese dann auf unbekannte Daten anzuwenden. Besonders geeignet ist diese Methode, um Klassifizierungen vorzunehmen, zum Beispiel von medizinischen Dokumenten (Röntgenbericht, Sprechstundenbericht, Operationsbericht). Beim «unüberwachten Lernen» hingegen werden Datensätze vorgegeben, welche über keine Einteilung verfügen. Es geht bei dieser Methode darum, in kurzer Zeit unbekannte Muster oder Zusammenhänge in sehr grossen Datenmengen zu erkennen [2]. 

      Soweit zur Theorie, doch wie sieht die Praxis im Projekt Expertensystem der Suva aus?

      Die technische Architektur des Expertensystems

      In Kooperation mit externen Spezialisten wurde ein Prototyp entwickelt, welcher die Möglichkeiten der automatisierten Datenverarbeitung aufzeigte (Abb. 1). Dieser Prototyp wurde im Anschluss auf einem Server der Suva installiert, mit dem Ziel, internes Know-how zur entwickelten Lösung aufzubauen.

      Abbildung 1_Prototyp Zeitstrahl.tif

      Der Grundstein für den Anwendungsfall «Fallzusammenfassung auf einem Zeitstrahl» war gelegt. Abbildung 2 zeigt auf, wie die technische Architektur der heutigen Version des Zeitstrahls aufgebaut ist, sodass zwischenzeitlich medizinische Diagnosen, Operationen, Konsultationen, Untersuchungen und Informationen zu Bildgebungen auf dem Zeitstrahl abgebildet werden können (Abb. 2).

      Abbildung 2_Architektur des Zeitstrahls.jpg

      Dargestellt werden zwei aufeinander aufbauende Prozessierungsschritte, die sogenannte «Enrich-Pipeline» und die «Dokument-Annotations-Pipeline». Ohne zu sehr ins technische Detail zu gehen, sollen im Folgenden die einzelnen Bestandteile kurz erläutert werden. Die Ausgangslage stellt jeweils ein medizinisches Dokument dar.

      «Enrich-Pipeline»: Nachdem das medizinische Dokument durch das OCR-Programm bearbeitet wurde, stehen Rohdaten zur Verfügung. Das OCR-Programm hat dabei bereits die Struktur des Dokuments erkannt und unterteilt den Text in logische Einheiten wie Titel, Absätze, Tabellen etc. Diese Rohdaten sind die Eingabe der «Enrich Pipeline», als Ausgabe werden mit Information angereicherte Daten geliefert. Die Bearbeitung erfolgt durch den sogenannten «Structural Enricher», der einen Teil der «Enrich Pipeline» darstellt. Das Ziel ist, strukturierte Information von medizinischen Dokumenten zu extrahieren und einen angereicherten Text zu kreieren, welcher anschliessend einfach verarbeitet werden kann. Hierzu wird die komplexe, verschachtelte Information des OCR-Programms vereinfacht und nicht benötigte Information gelöscht. Es werden Titel, Absätze, Tabellen etc. und zusätzlich auch das Dokumentendatum erkannt. So entsteht eine einfachere Struktur. Die grossen Herausforderungen stellen dabei die hohe Variabilität der Formate und Inhalte der medizinischen Dokumente, die verschiedenen Sprachen, Fehler des OCR-Programmes und handschriftlicher Text dar.

      «Dokument-Annotations-Pipeline»: Der «Structural Enricher» übernimmt die grobe Filterung und fokussiert dabei auf die Struktur des medizinischen Dokuments. Bei der «Dokument Annotation» wird hingegen nach spezifischen Begriffen und Ausdrücken gesucht. Dazu findet ein Abgleich mit medizinischen Wörterbüchern (z. B. UMLS, DIMDI) statt [6, 7]. Zusätzlich werden die gefundenen Wörter Regeln unterworfen, um längere Ausdrücke finden und extrahieren zu können. So gelingt es schlussendlich, medizinische Diagnosen, Operationen, Untersuchungen und Informationen zu Bildgebungen in den medizinischen Dokumenten zu suchen und darzustellen. Herausforderungen stellen die Qualität der Ergebnisse, die Wörterbücher und die Regeln dar.

      Die angewandten Regeln werden «Parsing-Regeln» genannt. Beim Parsing erfolgt eine Zerlegung eines Satzes in seine grammatikalischen Bestandteile [8]. Parsing-Regeln werden im Anwendungsfall «Fallzusammenfassung auf einem Zeitstrahl» einerseits dazu verwendet, ein spezifisches Ereignis, wie zum Beispiel eine Untersuchung, mit einem Datum zu kombinieren, andererseits, um im Text Diagnoseausdrücke zu identifizieren und zu extrahieren, indem nach nahe beieinander liegenden Verletzungsbegriffen, Körperpartien und Adjektiven gesucht wird. Erst wenn ein Ereignis mit einem Datum kombiniert wird, kann die chronologische Abbildung auf dem Zeitstrahl erfolgen. Zudem sind die «Parsing-Regeln» unerlässlich, damit sinnvolle Ausdrücke im Dokument identifiziert und nicht nur einzelne Fragmente eines Ereignisses oder einer Diagnose gefunden werden. Die  «Parsing-Regeln» unterscheiden sich je nach Sprache aufgrund der unterschiedlichen grammatikalischen Regeln. 

      Die gefundenen Diagnosen werden vor der Darstellung auf dem Zeitstrahl verglichen und gruppiert. So soll verhindert werden, dass die gleiche Diagnose mehrmals ausgegeben wird. Die Schwierigkeit liegt einerseits darin, ähnliche Diagnosen automatisiert zu finden, andererseits ist der Maschine eine Unterscheidung zwischen einer qualitativ «guten» und einer «schlechten» Diagnose (noch) nicht möglich.

      Der Zeitstrahl

      Inzwischen wurde der Prototyp des Zeitstrahls weiterentwickelt, sodass nebst der bisherigen Darstellung des Fallverlaufs (chronologische Auflistung aller medizinischen Dokumente) nun auch eine Fallzusammenfassung auf dem Zeitstrahl als alternative Informationsquelle im eDossier angezeigt werden kann. Anhand von verschiedenfarbigen Punkten werden Diagnosen (braun), Operationen (pink) und Untersuchungen (blau) dargestellt. Therapien, unterteilt in die Kategorien «Hospitalisation», «ambulante Therapien» und «weitere Therapien», werden als grüne Balken angezeigt. Der Zeitstrahl gewährt insbesondere in komplexen Versicherungsfällen mit sehr vielen medizinischen Dokumenten einen raschen Überblick (Abb. 3).

      Abbildung 3_Zeitstrahl Stand heute.jpg

      Das Ereignisdatum beziehungsweise die Dauer der Therapie wird automatisiert aus medizinischen Dokumenten und Rechnungen extrahiert. Jede Ereigniskategorie kann einzeln gefiltert werden, wobei das zugehörige medizinische Dokument, in welchem das Ereignis gefunden wurde, direkt eingesehen werden kann.

      Die integrierte Feedbackfunktion soll der Qualitätsverbesserung der automatisierten Datenverarbeitung dienen und somit die auf dem Zeitstrahl dargestellte Information weiter verbessern. 

      Denn die Maschine funktioniert (noch) nicht ohne den Menschen. Sie ist eine wertvolle Unterstützung und kann die Arbeit einfacher, effizienter und somit auch interessanter, ja sogar qualitativ besser machen. Damit die Maschine ihre Arbeit jedoch korrekt ausführt und die Qualität stets verbessert werden kann, braucht es weiterhin die Kontrolle durch den Menschen, insbesondere jedoch möglichst viele Daten.

      Mit «Big» Data wäre alles einfacher

      Das Zauberwort in der heutigen, Technologie-gesteuerten Welt lautet «Big Data». Wo man hinhört, wird davon gesprochen. Man muss dafür zwischenzeitlich nicht mehr zu den Technologieriesen wie Apple, Google und Co. blicken. Das Thema «Big Data» ist längst auch bei uns in Europa und in der Schweiz angekommen. 

      Man schätzt das Datenvolumen des Internets heutzutage auf über 22 Zettabytes und geht davon aus, dass wir im Jahr 2030 ein Datenvolumen von 1 Yottabyte (=1000 Zettabytes) erreicht haben werden. Zum Vergleich: die Anzahl aller Sandkörner auf allen Stränden der Erde soll ca. 1 Zettabyte, also 1021 Bytes betragen [5, 9].

      Die Frage ist nur, wie nutzt man all diese Daten? Vorreiter der Datenauswertung sind die grossen Technologieunternehmen wie Google, Meta (ehemals Facebook), Amazon und Co. Als Beispiel sei Meta genannt, hier werden täglich 2,5 Milliarden Inhalte, 2,7 Milliarden «Likes» und 300 Millionen Fotos verarbeitet, dies bei Nutzerzahlen ebenfalls im Milliardenbereich [5]. Solch riesige Datenmengen können nicht mehr durch Menschen verarbeitet werden, dafür wird heute künstliche Intelligenz eingesetzt. 

      Wie bereits erwähnt, wird aus Daten Wissen generiert, das einerseits dem Unternehmen dient, andererseits aber auch in Form von Feedback zur Qualitätssteigerung führt, da die Maschine aus diesen Erkenntnissen lernt und sich dadurch stets verbessert (maschinelles Lernen). Obschon nicht vergleichbar mit dem Datenvolumen von Meta, verfügt auch die Suva über einen sehr grossen Datensatz in Form von medinischen Dokumenten. Wertvoll für das maschinelle Lernen werden diese Daten beziehungsweise die medizinischen Dokumente jedoch erst, wenn sie in Kategorien eingeteilt und die Ereignisse beziehungsweise die Diagnosen darin markiert wären. Man spricht dann von «betitelten» oder «gelabelten» Daten. Diese werden für das «überwachte» Lernen benötigt. 

      Dass die Maschine in der Suva noch zu lernen hat, zeigte sich nach einer Qualitätsprüfung der angewendeten automatisierten Datenverarbeitung. Manuell wurden durch Mitarbeitende der Suva in mehreren hundert Dokumenten Dokumentendatum, Operationen, Untersuchungen und Diagnosen markiert und so eine Datengrundlage erstellt. Die gleichen Dokumente hat anschliessend auch die Maschine ausgewertet, wovon man die Arbeitsqualität der Maschine abgeleitet hat.

      Die Ergebnisse dieser Qualitätsprüfung in Kombination mit dem Nutzerfeedback zeigten auf, dass die Qualität der automatisierten Datenverarbeitung in der Suva für den konkreten Anwendungsfall «Fallzusammenfassung auf einem Zeitstrahl» noch nicht genügt, um einen Mehrwert gegenüber der bisherigen Arbeitsweise zu generieren. Für einen namhaften Qualitätssprung bräuchte es bessere Wörterbücher und jeweils einige tausend in medizinischen Dokumenten markierte Ereignisse und Diagnosen («gelabelte» Daten) oder aber möglichst viel Feedback, aus welchem die Maschine lernen kann. 

      Unabhängig von der Grösse des Unternehmens spielen Daten in der heutigen Welt die Hauptrolle. Das erklärt den unstillbaren Hunger der grossen Technologieunternehmen nach immer noch mehr Daten getreu dem Motto «If data is good, more data is better».

      Alles nur ein modernes Märchen oder doch nicht?

      Die Suva konnte anhand des Projekts «Expertensystem» das grosse Potential der automatisierten Datenverarbeitung aufzeigen. Es gehen jedoch auch Schwierigkeiten damit einher, die es zu überwinden gilt.

      Zwar ist es der Suva gelungen, mit dem Expertensystem ein vielversprechendes technisches Konstrukt umzusetzen, die grösste Herausforderung bleibt jedoch die benötigte Qualitätssteigerung der automatisierten Datenverarbeitung zu erreichen, sodass ein relevanter Mehrwert in der täglichen Arbeit der Mitarbeiterinnen und Mitarbeiter der Schadenabwicklung entsteht und der Zeitstrahl als neues Arbeitswerkzeug eingesetzt wird. 

      Eine grosse Hürde stellen die medizinischen Berichte dar, da diese in unterschiedlichsten Formaten und teils immer noch handschriftlich verfasst bei der Suva eingehen. Dies erschwert die automatisierte Texterkennung und somit das ganze Verfahren der automatisierten Datenverarbeitung. Eine weitere grosse Schwierigkeit zeigt sich in der automatisierten Diagnoseextraktion. Diesbezüglich eine hohe Qualität zu erreichen, wäre vielversprechend, nicht nur für die Bearbeitung der Versicherungsfälle, sondern auch hinsichtlich einer Prognoseerstellung, was diversen, mittlerweile automatisierten Prozessen in der Schadenabwicklung dienlich wäre. Die Realität sieht aufgrund der hohen Komplexität hinsichtlich der Diagnoseextraktion weniger vielversprechend aus. Ob jemals eine solch gute Qualität bei der automatisierten Diagnoseextraktion aus medizinischen Dokumenten erreicht werden kann, dass sich daraus verlässliche Prognosen ableiten lassen, bleibt ungewiss.

      Der Weg zur Qualitätssteigerung führt unweigerlich über «gelabelte» Daten. Die Suva muss sich in Zukunft der Aufgabe stellen, diese Daten zu erfassen und zu pflegen. Dabei gilt es, die nicht zu unterschätzende Schwierigkeit zu überwinden, die Mitarbeiterinnen und Mitarbeiter zu motivieren, die Arbeit der Maschine regelmässig zu prüfen und Rückmeldung in Form von Feedback zu geben. Nur so kann gewährleistet werden, dass die Maschine ihre Arbeit richtig durchführt und dass sie aus den zurückgemeldeten Daten lernen kann. Es muss gelingen, den Mehrwert aufzuzeigen, den die Maschine für den Menschen erbringen kann. Nur ein Mehrwert für die Mitarbeiterinnen und Mitarbeiter rechtfertigt den Mehraufwand, welcher bei der Kontrolle der Maschine entsteht. Dieser Mehraufwand muss durch geeignete Feedbackfunktionen so gering wie möglich gehalten werden, damit möglichst kontinuierlich Feedback erhoben werden kann, getreu dem Motto «If feedback is good, more feedback is better»!

      Korrespondenzadresse

      Literaturverzeichnis

      1. Texterkennung. Wikipedia. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter: https://de.wikipedia.org/wiki/Texterkennung
      2. Ralf Otte, Künstliche Intelligenz für Dummies, 1. Auflage 2019; WILEY-VCH Verlag, Weinheim; Kapitel 4 (Seite 73-109) und Kapitel 8 (Seite 213-260).
      3. Computerlinguistik. Wikipedia. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter: https://de.wikipedia.org/wiki/Computerlinguistik
      4. Text Mining. Wikipedia. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter: https://de.wikipedia.org/wiki/Text_Mining
      5. Ralf Otte, Künstliche Intelligenz – Risiko und Chance, 1. Auflage 2021; WILEY-VCH Verlag, Weinheim; Kapitel 10 (Seite 181-211).
      6. National Library of Medicine. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter: https://www.nlm.nih.gov/research/umls/index.html
      7. Bundesinstitut für Arzneimittel und Medizinprodukte. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter: https://www.dimdi.de/dynamic/de/startseite
      8. Parser. Wikipedia. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter: https://de.wikipedia.org/wiki/Parser
      9. Live Counter. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter:
        https://live-counter.com/wie-gross-ist-das-internet/

      Finden Sie diese Seite hilfreich?