Accueil A la uneIntelligence artificielle et responsabilité médicale : le regard de l’Académie nationale de médecine

Intelligence artificielle et responsabilité médicale : le regard de l’Académie nationale de médecine

par Rémy Teston

Face à l’essor de l’intelligence artificielle en santé et notamment le déploiement de solutions pour la pratique médicale, l’Académie nationale de médecine a publié un rapport sur ses travaux autour de la responsabilité médicale à l’ère de l’IA. Découverte.

L’essor de l’intelligence artificielle (IA) dans le domaine de la santé ouvre des perspectives prometteuses en matière de diagnostic, de pronostic et de personnalisation des soins. Mais il soulève également de nombreuses interrogations éthiques, juridiques et déontologiques. L’Académie nationale de médecine s’est récemment penchée sur ces enjeux dans deux communications riches et structurantes.

L’intelligence artificielle transforme en profondeur les pratiques médicales. En s’appuyant sur des algorithmes d’apprentissage automatique et sur d’immenses bases de données, les outils d’IA sont aujourd’hui capables d’aider à la détection de pathologies, de prédire des risques cliniques, ou encore de suggérer des options thérapeutiques personnalisées.

Ces technologies, si elles sont bien encadrées, peuvent améliorer la qualité et l’efficience des soins. Mais elles ne sont pas exemptes de limites : biais algorithmiques, opacité des modèles (black box), dépendance technologique, ou encore risques de désengagement du jugement clinique.

Responsabilité médicale à l’ère de l’IA : un flou juridique

La question de la responsabilité est au cœur des préoccupations soulevées par l’Académie nationale de médecine. En cas d’erreur médicale impliquant un outil d’IA, qui est responsable ? Le médecin ? Le développeur de l’algorithme ? L’établissement de santé ? L’Académie nationale de médecine souligne l’absence d’un cadre juridique clair. Le droit actuel repose essentiellement sur la responsabilité du professionnel de santé, censé garder la maîtrise de la décision médicale. Or, face à des IA de plus en plus autonomes, la frontière entre aide à la décision et décision automatisée devient floue.

L’un des messages clés des travaux de l’Académie est que le médecin demeure, à ce jour, le seul responsable légal des décisions cliniques, même lorsqu’il s’appuie sur une IA. Cette position repose sur le principe de non-délégation du jugement médical. Cela implique une nécessité forte de formation des professionnels à l’usage des outils d’IA, mais aussi de transparence sur le fonctionnement des algorithmes utilisés. Le médecin doit pouvoir expliquer et justifier ses choix, y compris lorsque ceux-ci sont guidés par une IA.

L’Académie appelle à une évolution du cadre juridique vers une responsabilité partagée et mieux adaptée à l’IA. Elle plaide notamment pour :

  • La traçabilité des décisions algorithmiques ;
  • L’exigence de transparence et d’explicabilité des modèles ;
  • Une certification des outils d’IA médicaux par des autorités compétentes ;
  • La création de référentiels de bonnes pratiques ;
  • L’instauration d’un cadre de coresponsabilité, associant les développeurs, les utilisateurs et les structures de soins.

Au-delà du droit, l’Académie souligne l’importance de préserver une éthique médicale humaniste, centrée sur le patient. L’IA ne doit pas devenir un outil de déshumanisation du soin, ni remettre en cause l’autonomie des patients et des soignants.

L’usage de l’intelligence artificielle en santé doit ainsi reposer sur trois piliers fondamentaux : Sécurité / Transparence / Responsabilité.

Les prises de position de l’Académie nationale de médecine sont une contribution majeure au débat public sur l’IA en santé. Alors que les outils se multiplient dans les établissements et que les textes européens (comme l’IA Act) avancent, il devient urgent d’harmoniser les pratiques, d’encadrer les usages et d’impliquer les soignants dans la gouvernance de l’innovation.

Source : Académie nationale de médecine

Vous pouvez également aimer

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00