Santé : quand l’IA se trompe, à qui incombe la responsabilité ?
L’intelligence artificielle s’installe progressivement au cœur des pratiques médicales. Elle est en train de transformer en profondeur la manière de diagnostiquer, de traiter et de suivre les patients. Cependant, l’accueil de l’innovation peut être mitigé en raison de questions inédites pour les professionnels de santé. L’exemple récent d’un service lancé aux États-Unis permettant de renouveler certaines prescriptions via un chatbot illustre à la fois les promesses et les zones d’ombre de cette révolution. Derrière l’amélioration de l’accès aux soins se profile une interrogation essentielle qui ne cesse de gagner en importance : celle de la responsabilité en cas d’erreur.
Les outils d’aide à la décision et les chatbots médicaux participent désormais à la prise en charge des malades et peuvent être associés à des événements indésirables. Dès lors, la question n’est pas seulement de savoir si une erreur s’est produite, mais de déterminer s’il y a eu négligence et surtout d’identifier qui en porte la responsabilité : le clinicien qui utilise l’outil ou le concepteur qui l’a développé. La réponse, pour l’instant, reste relativement constante dans les milieux juridiques et médico-légaux. Tant que l’intelligence artificielle est considérée comme un instrument, elle s’inscrit dans la continuité des dispositifs médicaux classiques et le médecin endosse pleinement la responsabilité.
En pratique, le professionnel de santé est censé conserver la maîtrise du raisonnement clinique. Il interprète les résultats produits par l’algorithme, les intègre à son analyse et valide ou non les suggestions générées par l’IA. Cette appropriation implique une responsabilité pleine et entière, avec une exigence renforcée de justification et de traçabilité. Utiliser un outil d’intelligence artificielle ne dispense pas de vigilance, bien au contraire. Il impose de s’appuyer sur des solutions validées, d’en connaître les limites et de vérifier les résultats dans la mesure du possible.
Ce qui est rassurant, c’est que l’intelligence artificielle peut aussi contribuer à réduire le risque médico-légal. Certaines expériences, notamment dans des services d’urgence, ont montré une diminution des plaintes lorsque des outils d’analyse assistée sont utilisés, en particulier en imagerie. L’amélioration de la précision diagnostique et la standardisation des procédures participent à renforcer la sécurité des patients et à limiter les contentieux. Ce constat ne doit cependant pas masquer la complexité des situations où une erreur survient.
Attribuer la responsabilité devient alors un exercice délicat. Les recommandations classiques, comme la vérification systématique des résultats, se heurtent parfois à la réalité du terrain. Lorsque l’intelligence artificielle analyse des quantités inimaginables de données ou de littérature, contrôler chaque élément peut annuler le gain de temps attendu. Le praticien doit choisir entre efficacité et exhaustivité.
L’avenir pourrait rendre cette écomplexifier davantage cette équation. Le développement de systèmes de plus en plus autonomes, combinant intelligence artificielle et robotique, laisse entrevoir des scénarios où l’intervention humaine va s’amenuiser. Dans ces configurations, la distinction entre la responsabilité du médecin et celle du fabricant devra être clairement redéfinie, à l’image de ce qui existe déjà pour d’autres technologies médicales.
Sur le plan juridique, les cadres actuels restent évolutifs. La mise en cause d’un fabricant pour défaut de produit est possible, mais difficile à établir. Quant à l’idée d’accorder une personnalité juridique à l’intelligence artificielle, elle demeure pour l’instant théorique, même si certains experts n’excluent pas qu’elle puisse émerger dans les années à venir.
Un basculement est peut-être en train de s’opérer. Aujourd’hui, la responsabilité repose sur celui qui utilise l’intelligence artificielle. Aussi invraisemblable que cela puisse paraître, elle pourrait peser sur celui qui choisit de ne pas y recourir. Pour les professionnels de santé, l’enjeu n’est plus de savoir si l’intelligence artificielle doit être intégrée, mais comment le faire de manière éclairée, sécurisée et responsable.