Août 2021 : la loi Bioéthique inscrit « l’explicabilité du fonctionnement » des algorithmes d’IA en santé dans le Code de la Santé Publique.

Juin 2024 : le législateur européen l’intègre dans la notion de « transparence » des IA. Le terme – et l’adjectif en dérivant – n’est pourtant utilisé que deux fois dans le règlement IA, et ce dans les « considérants », éléments dépourvues de valeur contraignante (CJUE, 26 octobre 2023, n° C‑307/22).

Août 2024 : le laboratoire d’innovation numérique de la CNIL (LINC) lance une étude sur cette explicabilité, soulignant l’absence de consensus « sur l’objectif de l’explication ou encore sur ce qui fait l’explication ».

Les autorités législatives seraient-elles alors allées trop vite en besogne? La publication de la CNIL sur le sujet le suggère, en tout cas.

Mais pour un texte de loi, être en avance (de phase), est-ce problématique, ou l’IA va-t-elle juste devoir patienter, à l’instar de tout humain, pour son rendez-vous avec la bioéthique? En d’autres termes, comment l’article L4001-3, III du Code de la Santé Publique?

Une explicabilité limitée à certaines formes d’IA
Aujourd’hui, tout fournisseur d’une IA dédiée à une utilisation pour un acte de production de soins (prévention, diagnostic ou soin) doit-il s’assurer de l’explicabilité de son produit?

Non. Et ce pour plusieurs raisons.

Déjà parce que le texte pose deux conditions de fond à cette exigence:

1️⃣ l’IA doit s’analyser comme un dispositif médical : la condition devrait être fréquemment – pour ne pas dire presque systématiquement – remplie;
2️⃣ Elle doit avoir été entrainée à partir de données massives.

Si la 1ère ne prête théoriquement pas à discussion, la 2nde ouvre désormais de nouvelles questions : quid par exemple en cas d’entrainement sur la base de données synthétiques? Quid des autres forme d’entrainement? Quelle définition légale pour l’expression « données massives »?

L’arrêté attendu n’empêche pas d’appliquer la loi
D’aucuns diront qu’en tout état de cause, l’arrêté établissant la nature des DM concernés, qui doit être pris après avis de la HAS… et de la CNIL, est toujours attendu.

Faut-il voir dans les travaux du LINC les prémisses de cet arrêté? Possible. Rien ne permet de l’affirmer pour autant.

Quoi qu’il en soit, le Gouvernement est en retard et en ce cas, c’est à la pratique, sous le contrôle du juge, qu’il convient de déterminer la possibilité d’application directe d’une disposition législative suffisamment précis (CE, 27 mai 2021, n° 441660).

En l’occurrence, l’arrêté n’ayant pas vocation à préciser ce qu’il faut entendre par explicabilité, mais seulement à restreindre le périmètre de l’obligation… le Code de la Santé Publique devrait être applicable.

Sécurité et fluidité devraient conduire à expliquer
Dans un souci de sécurité juridique, mais aussi de fluidification des relations avec les « déployeurs » hospitaliers, les fournisseurs d’IA « santé » devraient donc s’astreindre à documenter… quelque chose que la science et la future autorité de surveillance du marché et de contrôle des SIA ne savent pas cerner avec précision.

Et en pratique? Faites au mieux pour permettre la compréhension du fonctionnement de l’IA. A l’impossible, nul n’est tenu : il s’agira vraisemblablement d’une obligation de moyens.

Le Gouvernement traine, les industriels trinquent…

Nihil novi sub sole, me direz-vous.

Avez-vous été confronté à des difficultés sur le sujet? A quoi correspondrait l’explicabilité, pour vous? J’aimerais connaître votre expérience sur ces points. Partagez la en commentaire.

Des questions délicates à gérer ? Des doutes quant à la conformité de vos IA en santé ? ou sur leur statut de DM? N’hésitez pas à me contacter.