
Et l’UE s’arrêta au milieu du gué…
Ambitieux. Extraterritorial. Anticipatoire. Quelques-uns des qualificatifs lus à propos du cadre juridique dont l’UE a voulu se doter pour l’IA. A voulu?
Oui, a voulu. Car in fine, le cadre est inachevé.
Vous l’avez sans doute lu de-ci de-là, la Commission européenne a décidé de mettre fin à ses travaux sur la responsabilité en matière d’IA (COM(2025) 45 final). L’idée d’une harmonisation des règles de responsabilité, de la création de présomption quant aux dommages causés par un SIA… pour l’exécutif européen, impossible de s’accorder dessus.
Curieuse concordance de temps entre cette annonce et le sommet de l’IA. Mais ce n’est pas le sujet.
Ce qui est ici troublant, c’est le retour au statu quo ante après 2 ans. Rappelez-vous, au début de la décennie, le Parlement européen avait été jusqu’à envisagé la création d’une sorte de personnalité électronique pour traiter facilement le sujet. L’idée avait été abandonnée, au regard notamment de la déresponsabilisation que cela pourrait susciter, au niveau des fournisseurs, déployeurs et autres opérateurs.
Autre option, appliquer la directive produits défectueux? Si elle peut trouver à s’appliquer à des logiciels (St Albans City and District Council v ICL, 1996), il risque d’être difficile d’établir la défectuosité d’une IA. A fortiori alors que l’explicabilité de l’IA – qui conditionne l’utilisation de certaines IA dans le domaine de la santé (Art. L4001-3 CSP).
Reste toujours la responsabilité contractuelle à l’égard du fournisseur. Mais là encore, là chose n’est peut-être pas si simple. Il faut alors tenir compte des circonstances de chaque cas d’espèce.
Par exemple, lorsque l’entraînement s’est fait sur les données du déployeur. Ou pourquoi pas sur des données synthétiques dont la pertinence aurait été mal appréciée?
Est-ce vraiment un retour en arrière, en fait? Pas nécessairement. L’ébauche de législation européenne peut alimenter les réflexions. Des pouvoirs publics français, certes. Mais également des praticiens.
Par exemple en insérant dans les contrats des clauses s’inspirant de ce qui était proposé par la directive. Ou en en reprenant les raisonnements et en les soumettant aux juges.
Quoi qu’il en soit, en attendant, bon courage aux assureurs pour déterminer l’étendue de leur couverture sur ces sujets.
Et vous, qu’en pensez-vous? Si vous utilisez des IA, vous êtes-vous déjà posé la question de votre responsabilité? Ou avez-vous déjà été confronté à des incidents? Partagez vos RETEX en commentaires.
Besoin de cadrer contractuellement les sujets de responsabilité? D’encadrer les usages de l’IA dans votre organisation ? N’hésitez pas à me contacter.