Le traitement automatisé de données en médecine des assurances: fort potentiel ou simple conte des temps modernes?
La numérisation poursuit sa progression et ne s’arrête pas aux portes de la Suva. En s’intéressant à un projet interne à la Suva, cet article présente les possibilités et les limites du traitement automatisé de données en exposant aussi bien son potentiel important que les difficultés qu’il soulève.
Table des matières
Comment l’histoire a commencé
En 2018, la Suva a lancé – sous la direction et la responsabilité de la division médecine d’assurance –, le projet «Système expert pour les analyses médicales et juridiques». Celui-ci avait pour but de rendre le travail avec le dossier de cas électronique plus efficace et efficient, en particulier pour les médecins et les juristes de la Suva.
Un médecin de la médecine d’assurance ou de la médecine du travail disposait jusqu’à présent, pour répondre aux questions de gestion des cas de la division du même nom à la Suva, du dossier de cas électronique («dossier électronique») comme aide utile pour chercher des informations. Le passage au dossier électronique était certes déjà en soi une étape importante pour la Suva, au vu des montagnes de dossiers au format papier qui jonchaient les bureaux. Cependant, les documents les plus divers ont tendance à s’accumuler aussi dans le dossier électronique, de sorte que dans les cas d’assurance longs et complexes, les dossiers comptant des centaines de documents sont plutôt la règle que l’exception. Et il s’agit de tous les traiter. Dans les cas d’assurance complexes, l’étude du dossier prend donc énormément de temps.
Un cas d’application approprié a été identifié sous la forme d’un résumé technique et orienté sur les problèmes à l’échelle du cas d’assurance. Les principaux événements du cas sont extraits et représentés sur une frise chronologique afin de donner à l’utilisatrice ou à l’utilisateur une vue d’ensemble rapide, notamment dans les cas complexes. Outre les médecins, les juristes et les gestionnaires aussi pourraient bénéficier du «système expert» à travers des résumés de cas personnalisés en fonction des intérêts et des méthodes de travail des différents groupes d’utilisateurs.
Le cas d’application «Résumé du cas sur une frise chronologique» devait être au cœur du projet. En complément, d’autres cas d’application ont été définis:
- Extraction des diagnostics et codification: la reconnaissance de texte automatique devait permettre, en plus des événements liés au cas d’assurance tels que les examens ou les opérations, d’extraire les diagnostics des rapports médicaux et de les représenter sur une frise chronologique. Il était également prévu une affectation automatique des codes CIM-10 dans ce cadre.
- Finalisation de dossiers: particulièrement chronophages sont les dossiers dans lesquels il manque des documents médicaux pertinents pour l’évaluation du point de vue de la médecine des assurances ou du travail, comme les rapports de consultation ou les comptes rendus radiologiques. Afin de réduire le nombre de rejets, il était prévu de contrôler automatiquement l’exhaustivité des dossiers.
- Bases de connaissances: le but était de mettre automatiquement à la disposition du médecin des références bibliographiques appropriées concernant une lésion dans un cas d’assurance donné pour lui permettre de répondre aux questions de l’administration.
- Cas similaires: de la même façon que pour les bases de connaissances, il était prévu de pouvoir rechercher des cas d’assurance similaires (schéma de lésion identique ou similaire) dans le dossier électronique de la Suva et de mettre à la disposition du médecin, pour l’évaluation médicale, les évaluations existantes en matière de médecine des assurances ou du travail ainsi que les décisions juridiques prises. Par rapport aux bases de connaissances, la difficulté est ici de mettre en œuvre l’anonymisation des cas de comparaison imposée par la loi sur la protection des données qui doit être impérativement respectée.
Pour répondre aux exigences posées par les cas d’application précités, il faut disposer d’un outil technique servant de base au traitement automatisé de données.
Les éléments-clés du traitement de données
OCR signifie «optical character recognition», soit «reconnaissance optique de caractères» en français ou encore, reconnaissance de texte automatique. Ce procédé consiste à reconnaître des lettres (caractères) en tant que telles. Dans un document médical par exemple, les blocs de texte sont distingués des éléments graphiques, les structures de lignes identifiées et les caractères individuels isolés. Pour finir, à l’échelle des mots ou des lettres, un logiciel OCR effectue une comparaison avec des schémas connus. Il est ainsi possible de comparer rapidement de très nombreux schémas, ce qui permet aussi de faire la distinction entre des caractères proches comme la lettre «B» et le chiffre «8». À l’origine, des polices de caractères ont été spécifiquement développées pour la reconnaissance de texte automatique. Mais les performances des ordinateurs modernes permettent désormais de reconnaître les polices courantes et même les écritures manuscrites [1, 2].
La technique OCR constitue une base précieuse pour l’extraction et le traitement des informations contenues dans les textes. La reconnaissance de texte permet de reconnaître caractères et mots en tant que tels. Toutefois, le cas d’application «Résumé du cas sur une frise chronologique» comportait une exigence technique supplémentaire: la possibilité de trouver des événements tels que des examens ou des opérations et des diagnostics dans des rapports médicaux, de les associer à une date et de les représenter dans l’ordre chronologique sur une frise. Or il faut pour cela davantage que la seule reconnaissance de texte, à savoir des dictionnaires médicaux appropriés pour la «comparaison de schémas», des règles, des modèles pour l’apprentissage automatique et une bonne dose de savoir-faire humain.
Un autre module technique est par ailleurs nécessaire, ce que l’on appelle le traitement automatique du langage naturel («natural language processing», NLP). Il s’agit d’une combinaison de différentes étapes permettant le traitement du langage parlé et écrit par la machine. Cette technique débouche sur des solutions capables de reconnaître une langue, de l’analyser et d’extraire son sens en vue d’un traitement ultérieur. Il existe dans ce domaine différents angles d’approche. Une solution de traitement de texte est offerte par le «modèle en pipeline de Sarrebruck» («Saarbrücker Pipelinemodell») qui repose successivement sur les étapes suivantes:
- Reconnaissance vocale
- Segmentation ou «tokenisation» (segmentation de la chaîne de lettres en phrases et en mots)
- Analyse morphologique (extraction des informations grammaticales pour ramener les mots à leur forme de base)
- Analyse syntaxique (analyse de la fonction structurelle, par exemple sujet, objet, article)
- Analyse sémantique (affectation d’une signification, par exemple le diagnostic)
- Analyse du dialogue et du discours (analyse de la relation entre des phrases qui se suivent)
Parmi les applications pratiques, on trouve aujourd’hui notamment la correction de texte automatique, la recherche d’informations dans de gros volumes de données linguistiques, la traduction dans d’autres langues et le traitement du langage parlé. Des progrès significatifs sont attendus dans les années qui viennent grâce à l’utilisation d’ordinateurs plus performants. À l’avenir, les domaines d’application pourraient par exemple s’étendre au résumé cohérent de textes longs, à l’écriture automatique de textes, à la reconnaissance de l’état d’esprit du locuteur et à la détection de figures de style comme l’ironie, les questions rhétoriques ou le sarcasme [3, 4].
L’apprentissage automatique joue ici un rôle central. Défini dès 1959 par Arthur Samuel, ingénieur électricien et informaticien américain, comme un champ d’application de l’intelligence artificielle, il utilise des méthodes statistiques pour donner à des systèmes informatiques la possibilité d’apprendre à partir de données sans avoir été explicitement programmés pour cela. De ce fait, des données génèrent de la connaissance. La connaissance ainsi générée peut être représentée au moyen de règles statistiques, de modèles ou de réseaux de neurones artificiels. Les données sont des expériences, des exemples ou des faits provenant de différentes sources. Les systèmes actuels peuvent apprendre des liens, des modèles, des règles, des structures et des «clusters» de façon entièrement autonome [5].
On distingue deux méthodes d’apprentissage automatique: l’apprentissage «supervisé» et «non supervisé», qui se distinguent essentiellement par les jeux de données d’entraînement utilisés et les possibilités d’application. Dans le cadre de l’apprentissage supervisé, la machine se voit proposer pour s’entraîner des jeux de données déjà répartis en différentes catégories, ce qui signifie que le bon résultat est connu et fourni pour l’entraînement. L’objectif est de faire en sorte que la machine apprenne des schémas pour être en mesure de les appliquer à des données inconnues par la suite. Cette méthode convient notamment à la classification, par exemple de documents médicaux (comptes rendus radiologiques, rapports de consultation, rapports opératoires). À l’inverse, dans l’apprentissage non supervisé, les jeux de données prédéfinis ne correspondent à aucune classification préalable. Cette méthode consiste à repérer rapidement des schémas ou des liens inconnus dans de très gros volumes de données [2].
Voilà pour la théorie, mais qu’en est-il de la pratique dans le cadre du projet de système expert de la Suva?
L’architecture technique du système expert
En coopération avec des spécialistes externes, un prototype offrant des possibilités de traitement automatisé des données a été développé (fig. 1). Ce prototype a ensuite été installé sur un serveur de la Suva dans le but de consolider le savoir-faire interne concernant la solution développée.
La première pierre du cas d’application «Résumé du cas sur une frise chronologique» était posée. La figure 2 montre comment l’architecture technique de la version actuelle de la frise est structurée de façon à permettre la représentation des diagnostics médicaux, des opérations, des consultations, des examens et des informations relatives à l’imagerie (fig. 2).
Elle représente deux étapes de traitement reposant l’une sur l’autre, le «pipeline d’enrichissement» et le «pipeline d’annotation des documents». Sans trop entrer dans les détails techniques, il convient d’expliquer brièvement les différents composants. À chaque fois, le point de départ est un document médical.
«Pipeline d’enrichissement»: une fois le document médical traité par le logiciel OCR, des données brutes sont disponibles. Le logiciel OCR a déjà identifié la structure du document et divisé le texte en unités logiques telles que titres, paragraphes, tableaux, etc. Ces données brutes sont introduites dans le pipeline d’enrichissement, dont il ressort des données enrichies par des informations. Le traitement est effectué par le «structural enricher», qui constitue un élément du pipeline d’enrichissement. Le but est d’extraire des informations structurées de documents médicaux et de générer un texte enrichi qui est alors plus simple à traiter. Pour cela, les informations complexes et entremêlées du logiciel OCR sont simplifiées et les informations inutiles supprimées. Les titres, paragraphes, tableaux, etc. sont détectés, de même que la date du document. On obtient ainsi une structure simplifiée. Les principaux défis résident dans la grande diversité des formats et contenus des documents médicaux, les différentes langues, les erreurs du logiciel OCR et les textes manuscrits.
«Pipeline d’annotation des documents»: le «structural enricher» effectue un filtrage global en se focalisant sur la structure du document médical. L’«annotation des documents» consiste à l’inverse à rechercher des termes et expressions spécifiques au moyen d’un recoupement avec des dictionnaires médicaux (p. ex. UMLS, DIMDI) [6, 7]. De plus, les termes trouvés sont soumis à des règles pour pouvoir identifier des expressions plus longues et les extraire. C’est ainsi que l’on parvient finalement à trouver les diagnostics médicaux, les opérations, les examens et les informations relatives à l’imagerie dans les documents médicaux et à les représenter. Les défis sont ici la qualité des résultats, les dictionnaires et les règles appliquées.
Les règles appliquées sont appelées règles d’analyse syntaxique («parsing rules»). L’analyse syntaxique consiste à décomposer une phrase en différents éléments grammaticaux [8]. Dans le cas d’application «Résumé du cas sur une frise chronologique», ces règles servent d’une part à associer un événement donné, un examen par exemple, à une date et d’autre part, à identifier et extraire dans le texte des expressions liées au diagnostic en recherchant des noms de lésions, des parties du corps et des adjectifs proches les uns des autres. Ce n’est qu’une fois qu’un événement a été associé à une date que la représentation chronologique sur la frise peut avoir lieu. De plus, les règles d’analyse syntaxique sont indispensables pour identifier des expressions qui font sens dans le document et pas seulement des fragments épars d’un événement ou d’un diagnostic. Ces règles diffèrent en fonction de la langue puisque chaque langue a ses propres règles grammaticales.
Avant d’être représentés sur la frise, les diagnostics trouvés sont comparés et regroupés. Cela permet d’éviter de sortir plusieurs fois le même diagnostic. La difficulté est double: il s’agit d’une part de trouver des diagnostics similaires de façon automatisée, et d’autre part la machine n’est pas (encore) en mesure d’opérer la distinction entre un diagnostic «bon» ou «mauvais» en termes de qualité.
La frise chronologique
Entre-temps, le prototype de frise chronologique a été développé, de sorte qu’en plus de la représentation du déroulement du cas (liste de tous les documents médicaux dans l’ordre chronologique), il est désormais possible d’afficher également sur la frise un résumé du cas qui constitue une source d’information alternative dans le dossier électronique. Des points de différentes couleurs servent à représenter les diagnostics (marron), les opérations (rose) et les examens (bleu). Subdivisées en trois catégories («hospitalisation», «thérapies ambulatoires» et «autres thérapies»), les thérapies sont affichées sous forme de barres vertes. La frise offre une vue d’ensemble rapide, notamment dans les cas d’assurance complexes avec de très nombreux documents médicaux (fig. 3).
La date de l’événement et la durée du traitement sont automatiquement extraites des documents médicaux et des factures. Chaque catégorie d’événement peut être filtrée séparément, ce qui permet de consulter directement le document médical correspondant dans lequel l’événement a été trouvé.
La fonction de feed-back intégrée est destinée à améliorer la qualité des données issues du traitement automatisé, et donc les informations figurant sur la frise chronologique.
En effet, la machine ne fonctionne pas (encore) sans intervention humaine. Elle représente une aide précieuse et peut rendre le travail plus simple, plus efficace et donc plus intéressant, et même en améliorer l’aspect qualitatif. Mais pour que la machine puisse faire correctement son travail et que la qualité s’améliore en permanence, le contrôle par l’homme reste nécessaire ainsi que – et surtout – le plus grand nombre de données possible.
Avec le «Big» Data, tout serait soi-disant plus simple
La formule magique dans le monde d’aujourd’hui dominé par la technologie? Le «Big Data»! Où qu’on se trouve, on n’entend parler que de ça. Et pour cela, plus besoin de se tourner vers les géants de la technologie que sont Apple, Google and Co. Le thème du «Big Data» s’est depuis longtemps imposé chez nous aussi, en Europe et en Suisse.
On évalue le volume actuel de données sur Internet à plus de 22 zettaoctets et on estime que celui-ci atteindra 1 yottaoctet (=1000 zettaoctets) en 2030. À titre de comparaison, le nombre total de grains de sable sur toutes les plages du monde s’élèverait à environ 1 zettaoctet, soit 1021 octets [5, 9].
Reste à savoir comment utilise toutes ces données. Les pionniers de l’analyse de données sont les grandes entreprises technologiques comme Google, Meta (anciennement Facebook), Amazon et autres. Prenons l’exemple de Meta: 2,5 milliards de contenus, 2,7 milliards de «likes» et 300 millions de photos y sont traités par jour, pour un nombre d’utilisateurs atteignant lui aussi plusieurs milliards [5]. De telles quantités de données étant impossibles à traiter par des personnes, on fait aujourd’hui appel à l’intelligence artificielle.
Comme indiqué précédemment, ces données génèrent de la connaissance qui sert d’une part à l’entreprise et, d’autre part, contribue à améliorer la qualité grâce aux feed-back, car la machine apprend de ces retours et, ainsi, s’améliore en permanence (c’est ce qu’on appelle l’apprentissage automatique). Bien que cela soit sans commune mesure avec le volume de données brassées par Meta, la Suva aussi dispose d’un jeu de données très conséquent sous la forme de documents médicaux. Toutefois, ces données et les documents médicaux ne sont utiles à l’apprentissage automatique qu’à partir du moment où ils sont classés par catégories et où les événements et diagnostics qu’ils contiennent ont été repérés. On parle alors de données «étiquetées», et celles-ci sont nécessaires pour l’apprentissage «supervisé».
Un contrôle qualité du système de traitement automatisé de données utilisé a montré qu’à la Suva, la machine avait encore des progrès à faire en matière d’apprentissage. Des collaboratrices et collaborateurs de la Suva ont marqué manuellement, dans plusieurs centaines de documents, la date d’établissement, les opérations, les examens et les diagnostics afin d’établir une base de données. La machine a ensuite analysé ces mêmes documents, ce qui a permis d’évaluer la qualité de son travail.
Les résultats de ce contrôle qualité associés au feed-back des utilisateurs ont montré que la qualité du traitement automatisé des données à la Suva pour le cas d’application concret «Résumé du cas sur une frise chronologique» n’était pas encore suffisante pour générer une plus-value par rapport à la méthode de travail actuelle. Une hausse notable de la qualité nécessiterait de meilleurs dictionnaires et plusieurs milliers d’événements et diagnostics repérés dans des documents médicaux (données «étiquetées»), ou bien le maximum de feed-back à partir desquels la machine pourrait apprendre.
Quelle que soit la taille de l’entreprise, les données jouent le premier rôle dans le monde actuel. Cela explique l’insatiable appétit des grandes entreprises technologiques pour toujours plus de données, selon le principe «If data is good, more data is better».
Tout cela n’est-il qu’un conte des temps modernes... ou pas?
La Suva a pu démontrer le fort potentiel du traitement automatisé des données à travers le projet «Système expert». Cependant, cela donne lieu également à des difficultés qu’il s’agit de surmonter.
La Suva est certes parvenue à mettre en œuvre une solution technique prometteuse avec son système expert, mais le principal défi reste la nécessaire hausse de qualité du traitement automatisé des données afin d’obtenir une réelle plus-value dans le travail quotidien des collaboratrices et collaborateurs du traitement des cas et de pouvoir utiliser la frise chronologique comme nouvel outil de travail.
Les rapports médicaux sont un obstacle majeur, car ils sont soumis à la Suva dans les formats les plus divers et sont parfois encore rédigés à la main. Cela complique la reconnaissance de texte automatique et par là même, l’ensemble du processus de traitement automatisé des données. Une autre difficulté importante concerne l’extraction automatisée des diagnostics. Obtenir une qualité satisfaisante dans ce domaine serait prometteur, non seulement pour le traitement des cas d’assurance, mais aussi en vue de l’établissement des pronostics, ce qui serait utile dans le cadre de plusieurs processus désormais automatisés du traitement des cas. Du fait de la grande complexité de l’extraction des diagnostics, la réalité est moins encourageante. Il n’est pas certain qu’il soit possible d’obtenir un jour une qualité telle de l’extraction automatisée des diagnostics dans des documents médicaux qu’elle permette d’en déduire des pronostics fiables.
La voie vers l’amélioration de la qualité passe inéluctablement par les données «étiquetées». La Suva devra s’atteler à l’avenir à la saisie et à la gestion de données de ce type. Il faudra alors surmonter une autre difficulté à ne pas sous-estimer: arriver à motiver le personnel pour qu’il contrôle régulièrement le travail de la machine et donne des retours sous forme de feed-back. C’est en effet le seul moyen pour s’assurer que la machine fasse correctement son travail et qu’elle puisse apprendre des données qui lui seront retournées. Il faut parvenir à démontrer que la machine peut représenter une valeur ajoutée pour l’homme, car seul un bénéfice pour les collaboratrices et collaborateurs pourra justifier le surcroît de travail généré par le contrôle de la machine. Il conviendra de limiter le plus possible cette charge de travail supplémentaire grâce à des fonctions de feed-back adaptées afin qu’un maximum de retours puissent être collectés en continu, selon la devise «If feedback is good, more feedback is better»!
Adresse de correspondance
Dr. med. Michael Müller
Coordinatrice Cochrane
Bibliographie
- Texterkennung. Wikipedia. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter: https://de.wikipedia.org/wiki/Texterkennung
- Ralf Otte, Künstliche Intelligenz für Dummies, 1. Auflage 2019; WILEY-VCH Verlag, Weinheim; Kapitel 4 (Seite 73-109) und Kapitel 8 (Seite 213-260).
- Computerlinguistik. Wikipedia. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter: https://de.wikipedia.org/wiki/Computerlinguistik
- Text Mining. Wikipedia. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter: https://de.wikipedia.org/wiki/Text_Mining
- Ralf Otte, Künstliche Intelligenz – Risiko und Chance, 1. Auflage 2021; WILEY-VCH Verlag, Weinheim; Kapitel 10 (Seite 181-211).
- National Library of Medicine. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter: https://www.nlm.nih.gov/research/umls/index.html
- Bundesinstitut für Arzneimittel und Medizinprodukte. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter: https://www.dimdi.de/dynamic/de/startseite
- Parser. Wikipedia. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter: https://de.wikipedia.org/wiki/Parser
- Live Counter. [Internet]. [Abgerufen am 1. Dezember 2022] Verfügbar unter:
https://live-counter.com/wie-gross-ist-das-internet/