Le Pôle interministériel de prospective et d’anticipation des mutations économiques vient de publier un rapport soulignant « Une législation contraignante et une crispation globale des acteurs français (tous secteurs confondus) possédant des données conduisent beaucoup d’innovateurs à rechercher des données d’expérimentation voire même partir à l’étranger pour développer leurs produits et services ». Rencontre avec Stanley Durrleman, co-chef de l’équipe ARAMIS et directeur du centre de neuroinformatique à l’Institut du Cerveau, qui travaille au cœur de cette problématique dans le domaine de la santé.
Quel est votre ressenti sur ce rapport ministériel ?
Ce rapport est dans la continuité d’autres rapports et actions des pouvoirs publics sur le développement de l’intelligence artificielle en France. Je ne peux que me réjouir de voir nos représentants se saisir de ce sujet, par nature très technique mais avec des conséquences très importantes en termes d’innovation, d’emploi, de croissance et de progrès social. Je pense que la puissance publique a bien compris ces enjeux, ces promesses mais aussi les risques afférents. En revanche, je suis beaucoup plus inquiet sur la manière de transformer ces promesses en réalité. La vision dominante de la puissance publique me semble un peu naïve : il y aurait d’un côté des acteurs français, l’assurance maladie ou les hôpitaux par exemple, « assis sur des trésors de données », et de l’autre d’excellents chercheurs en intelligence artificielle et en science des données, privés de l’accès à ces données. Il suffirait donc que le législateur force les serrures des coffres-forts pour que l’innovation jaillisse « comme par miracle »… La situation me semble plus compliquée en réalité.
A quel niveau se situe la complexité du système ?
Une des principales difficultés est d’être capable d’agréger un grand nombre de données de qualité, c’est-à-dire des données vérifiées, annotées, répertoriées, inter-opérables et accessibles ; ce que nous appelons dans le jargon, un entrepôt de données, et qui est l’interface permettant de brancher et tester des algorithmes innovants de manière fluide et rapide. Dans le domaine de la santé, la construction de tels entrepôts est un vrai casse-tête, et je parle en connaissance de cause, étant chargé d’en construire un à l’Institut du Cerveau - ICM. La difficulté ne se situe pas au niveau du cadre règlementaire ou de la bonne volonté des acteurs, du moins pas essentiellement, mais plutôt sur la nécessité de remettre à plat les processus de production et de gestion des données, et donc de repenser des processus fondamentaux dans des organisations aussi complexes et tendues que les hôpitaux. Au cœur du problème se trouvent donc des difficultés organisationnelles et managériales qui, non seulement ne se seront pas résolues par la loi, mais se démultiplient face à une multitude de situations très différentes les unes des autres.
Quel est le résultat dans des situations concrètes ?
Prenons des exemples. La situation la plus favorable, vraisemblablement, est celle de l’assurance maladie. La France a la chance d’avoir un assureur unique qui centralise toutes les informations des assurés. Ces données sont fiables et bien structurées. Faciliter l’accès à celles-ci, dans un cadre réglementaire adéquat, permettra vraisemblablement voir émerger de nouveaux outils de veille sanitaire, de rationalisation du parcours de soin, ou d’aide à la prise de décision en matière de politique publique de la santé.
Un autre cas assez favorable est celui de la radiologie où les données sont numériques par nature, les formats standardisés, et où la lecture des radiographies et des scanners fait l’objet de procédures spécifiques, rendant la pratique des radiologues assez rationnelle et objective. L’infrastructure informatique l’est également : tous les services de radiologie de l’AP-HP partagent par exemple la même infrastructure, le PACS. D’autre part, les algorithmes de traitements d’images ont connu des progrès fulgurants ces dernières années. Il est donc légitime de penser que la constitution et l’ouverture de grands entrepôts de données en radiologie est un gisement d’innovation à venir pour réduire les coûts, augmenter la fiabilité de la lecture radiologique, notamment en limitant les erreurs humaines, et niveler la pratique radiologique au niveau des meilleurs centres experts sur tout le territoire national. Je pense d’ailleurs que la plupart des rapports publiés sur l’intelligence artificielle en santé ont été écrits sur la base de ce cas d’usage.
Mais la radiologie, aussi importante soit-elle, ne fait pas tout ! Vous remarquerez que le radiologue pose très rarement le diagnostic final ou prescrit des traitements. Et la situation de nombreuses autres spécialités médicales est beaucoup moins favorable. Agréger de grandes quantités de comptes-rendus médicaux est un vrai défi. Tous ne sont pas numérisés et le recueil d’information ne fait pas l’objet de procédures standardisées. Ils laissent une grande place au texte libre où le style très personnel de chaque médecin rend très difficile une analyse automatisée. La qualité et la quantité d’informations varient beaucoup d’un cas à l’autre. Rapprocher ces données d’autres données de santé comme des analyses biologiques ou des images médicales est encore plus complexe car les bases de données n’ont pas été conçues pour être interopérables. Pourtant l’analyse de ces données recèle les promesses d’une meilleure médecine pour les patients avec des traitements plus précoces et plus personnalisés.
C’est toute une organisation à changer donc ?
Oui, absolument. Construire de grands entrepôts de données de santé nécessite de revoir l’ensemble de notre système de santé. Il va falloir réfléchir et mettre en place, dans chaque spécialité médicale, des procédures de recueil et de gestion de données standardisées qui permettront de croiser les données d’un même patient qu’elles soient issues d’un cabinet libéral, d’un service hospitalier, d’une clinique privée ou d’un laboratoire d’analyse par exemple. Cela implique bien sûr de trouver un nouveau cadre règlementaire, de faire travailler ensemble des structures concurrentes, mais aussi et surtout de faire évoluer les pratiques médicales. Il s’agit d’un chantier gigantesque, un travail de fourmi, qui nécessite l’implication très forte de tous les acteurs de la chaîne. Sans cela, ce n’est pas un tas d’or que vont trouver les chercheurs en intelligence artificielle mais plutôt un tas de plomb !
Je suis assez surpris que cet aspect soit presque absent du débat passionné autour de l’intelligence artificielle, alors que tous les acteurs sérieux dans ce domaine, qu’ils soient académiques, institutionnels ou industriels, se battent aujourd’hui pour construire de tels ensembles de données de qualité.
L’entrepôt de données de neuroscience que nous développons à l’Institut du Cerveau - ICM nous demande par exemple de déployer beaucoup de ressources sur ce chaînon manquant que nous appelons le « data management ». Nous bénéficions d’un écosystème exceptionnel, avec de très bons chercheurs en informatique qui développent des algorithmes très prometteurs, et de très bons chercheurs cliniciens ou neuroscientifiques qui s’appuient sur des plateformes technologiques de pointe pour produire des données de grande qualité. Le data management est l’aspect sur lequel nous investissons le plus d’effort actuellement, pour travailler main dans la main avec chaque chercheur, chaque clinicien, afin de rationaliser, automatiser, standardiser les flux de données. Ce travail sert non seulement les chercheurs eux-mêmes dans leur travail, mais permet aussi l’analyse et le croisement de leurs données avec d’autres. Pour cela, le recrutement de personnels spécifiques, les data managers ou gestionnaires de données, est indispensable.
L’enjeu humain se situerait donc au niveau de ces métiers ?
Oui, pour une part importante. Je trouve surprenant que la puissance publique ne se pose pas la question de faire émerger des filières d’excellence pour ces métiers. Aujourd’hui on a des solutions pour construire de bonnes infrastructures pour traiter de grandes quantités de données. Nous avons aussi de bons data scientists, compétents en mathématique et en informatique, grâce aux filières de formations d’excellence que nous avons la chance d’avoir en France. En revanche, trouver un bon data manager et de bonnes formations certifiantes en gestion de données est, d’expérience, beaucoup plus difficile.
L’enjeu est de réussir à faire travailler tous ces métiers main dans la main. Je crois qu’il est indispensable de créer des lieux couvrant tout le spectre de la donnée, depuis la production jusqu’à son exploitation. Nous le voyons tous les jours à l’Institut du Cerveau - ICM, où les cliniciens, les biologistes, les gestionnaires de données, les informaticiens et les data scientists travaillent au sein d’une même structure intégrée. C’est indispensable pour avoir une compréhension fine des enjeux et des métiers, et pour que l’intelligence artificielle et la médecine, deux champs disciplinaires que tout oppose, puissent se rencontrer. Je constate aujourd’hui en France, notamment avec les projets d’instituts inter-disciplinaires en intelligence artificielle, une concentration des forces en présence sur la recherche dans ce domaine. C’est une bonne chose ! Mais à côté de ça, quels moyens sont prévus dans le plan gouvernemental sur l’intelligence artificielle pour aider à rationaliser le recueil de données de santé chez l’ensemble des acteurs du système de soin ?
Une des réponses de l’Etat face à cet enjeu d’ouverture des données est l’initiative Health Data Hub. Qu’en pensez-vous ?
Le Health Data Hub est assez symptomatique de la situation actuelle. Il y a au plus haut niveau ministériel, l’ambition, la volonté, l’énergie de créer les conditions pour développer une recherche sur données de qualité. Elle se concrétise par des actions comme la décision de créer le Health Data Hub. Ces actions permettent d’éveiller les consciences et de mobiliser un certain nombre d’acteurs. C’est très bien ! Nous avons d’ailleurs répondu à leur appel à projets pilotes. Mais quels sont les contours de ce hub ? Quelle sera la stratégie suivie pour créer cet entrepôt national quand nous savons la grande difficulté déjà à créer des entrepôts locaux sur des périmètres plus réduits ? Le hub aura-t-il les moyens de son ambition ? Tant sur le personnel qualifié que sur les infrastructures ? Le flou persiste encore sur beaucoup de sujets.
Quelles sont vos recommandations pour avancer sur ce sujet ?
Le pouvoir public doit continuer à investir ce terrain et lever les verrous réglementaires. Il doit aussi être vigilant à la tentation très centralisatrice et planificatrice de l’état. Je remarque un fourmillement d’initiatives locales, l’Institut du Cerveau - ICM en est une, de nombreux autres instituts comparables se mettent en ordre de marche. Je découvre presque chaque jour des services hospitaliers dans toute la France où des praticiens lancent des projets et essaient d’avancer. Ces initiatives doivent être encouragées et fédérées. Aujourd’hui, toutes ces personnes travaillent relativement isolement, se posent des questions qu’elles essayent chacune à leur manière de résoudre. La puissance publique doit aller sur le terrain, comprendre quelles sont les bonnes pratiques, où il y a eu des échecs et des succès, et construire progressivement des standards à la fois pour les données et les pratiques qui permettront de connecter l’ensemble de ces initiatives locales. De mon point de vue, ce n’est pas du rôle de l’état de créer un entrepôt de données national ex nihilo. En revanche, il doit faire émerger un cadre à la fois règlementaire et technique dans lequel chacun va pouvoir progressivement s’inscrire, pour s’assurer que toutes ces initiatives locales ne resteront pas qu’un éparpillement de petits entrepôts de données non interopérables. Une fédération d’entrepôts de données locaux, qui échangent et bénéficient de la force de l’ensemble, c’est ainsi que je vois le futur des données en santé.