L’intégration de l’intelligence artificielle dans les dispositifs médicaux bouleverse les logiques
traditionnelles de régulation. Entre exigences du RDM, contraintes de l’AI Act, gouvernance des risques
algorithmiques et gestion des données (RGPD, Data Act), les entreprises doivent repenser leur stratégie
de conformité face à un cadre européen complexe mêlant des contraintes à la fois juridiques, éthiques
et technologiques.
Un bouleversement technologique et réglementaire
L’intégration de l’intelligence artificielle (IA) dans les dispositifs médicaux (DM) transforme les pratiques industrielles, réglementaires et cliniques. De l’imagerie assistée au monitoring prédictif, ces dispositifs embarquent des algorithmes capables d’apprendre, de s’ajuster et de prendre part à la décision médicale. Face à cette révolution technologique, le droit européen propose un double encadrement : le règlement (UE) 2017/745 sur les dispositifs médicaux (RDM) et le règlement (UE) 2024/1689 sur l’intelligence artificielle (AI Act), entré en vigueur le 1er août 2024. Pour les organisations, l’enjeu est double : garantir la conformité dans un paysage réglementaire complexe et en faire un levier stratégique de confiance.
Des dispositifs évolutifs sous surveillance réglementaire renforcée
Contrairement à un logiciel traditionnel, l’IA modifie en profondeur la nature du dispositif médical. Elle introduit un comportement non figé, qui peut évoluer après la mise sur le marché, par mise à jour ou réentraînement du modèle. Cette dynamique algorithmique impose un suivi continu de la conformité. Le référentiel dispositifs médicaux, fondé sur les exigences de sécurité et de performance clinique, prévoit une surveillance post-commercialisation et une documentation technique exhaustive.
L’AI Act vise précisément les dispositifs médicaux faisant l’objet d’une évaluation de la conformité par un tiers comme des « systèmes d’IA à haut risque », soumis à des obligations spécifiques : transparence, contrôle humain, gestion des données d’apprentissage, traçabilité des décisions, gouvernance des risques et également une surveillance post-marketing.
Le défi d’une synergie réglementaire
Les deux textes sont complémentaires, mais non parfaitement superposables. Le référentiel dispositifs médicaux vise le produit dans son ensemble, tandis que l’AI Act cible spécifiquement la brique IA. Une passerelle réglementaire permet, sous conditions, de reconnaître la conformité au titre de l’un via l’évaluation de l’autre. Cette articulation suppose une documentation cohérente et des équipes de conformité interdisciplinaires ainsi que des organismes notifiés désignés et formés. À cela s’ajoute le Data Act qui impose au plan conceptionnel pour les dispositifs médicaux connectés, l’intégration de fonctionnalité servant l’interopérabilité et à terme le nouveau règlement sur l’espace européen des données de santé.
Trois axes de vigilance doivent notamment guider l’action des organisations
D’abord, la traçabilité : pouvoir reconstituer l’environnement dans lequel l’algorithme a pris une décision, via des journaux techniques et des métadonnées.
Ensuite, l’explicabilité : rendre intelligibles, pour l’utilisateur, les logiques internes du système, même si elles s’appuient sur des modèles complexes.
Enfin, la responsabilité : clarifier la chaîne des opérateurs et documenter les choix algorithmiques pour se prémunir contre les contentieux liés à des biais, des erreurs ou un défaut de contrôle humain dans le contexte de la Directive sur la responsabilité des produits défectueux récemment modifiée et alourdissant considérablement le régime applicable.
L’autre grande difficulté tient à l’évolution du modèle après sa certification. En lien avec la réalité technologique, l’AI Act admet, sous conditions, l’adaptation du système post-marché, notamment via la notion de « modification substantielle ». Cela implique la mise en place d’un monitoring actif, d’un dispositif d’alerte, mais également de processus interne de suivi continu. L’entreprise doit donc construire une conformité dynamique, fondée sur une veille réglementaire, des audits réguliers et un pilotage de qualité, robuste. Au-delà du respect des textes, la gouvernance de l’IA appliqué aux dispositifs médicaux doit aussi répondre à des exigences éthiques : éviter les biais, opérationnaliser le contrôle humain, garantir la transparence clinique. Certains industriels choisissent déjà d’aller plus loin, en mettant en place des comités d’éthique algorithmique ou des chartes internes en lien avec la spécificité française de la garantie humaine visée au Code de la Santé publique pour les dispositifs médicaux numériques. Cette approche responsable peut être un facteur de différenciation sur un marché de plus en plus sensible à la confiance numérique.
L’innovation juridique comme stratégie d’entreprise
L’enjeu n’est donc pas seulement juridique. Il est stratégique. Car l’IA dans les dispositifs médicaux ne se résume pas à une fonctionnalité technologique : elle redéfinit le produit, sa valeur, sa régulation, sa relation à l’utilisateur, ici le plus souvent, patient ou professionnel de santé. Pour l’entreprise, cela impose de penser la conformité comme un processus vivant, transversal, évolutif et de faire de la régulation, non un frein, mais un vecteur d’innovation durable.
Les points clés
L’intégration de l’IA dans les dispositifs médicaux oblige les entreprises à repenser la conformité dans un cadre européen désormais structuré autour de trois textes : le RDM, l’AI Act et le Data Act. Cinq enjeux majeurs sont à appréhender :
- La nécessaire articulation des trois règlements ;
- La traçabilité, l’explicabilité et l’interopérabilité des systèmes ;
- La répartition des responsabilités dans la chaîne d’acteurs ;
- La gestion continue des modifications algorithmiques ;
- L’éthique comme levier de différenciation stratégique.
L’IA impose de penser la conformité non plus comme un jalon figé, mais comme un processus vivant. Appliqué aux dispositifs médicaux, c’est un véritable changement de paradigme et un challenge critique d’accès et de maintien sur le marché.
Par Nathalie BESLAY et Olivia RIME