L’OMS dévoile ses recommandations sur l’éthique et la gouvernance de l’IA

Avec le déploiement des IA génératives dans le monde de la santé, l’Organisation mondiale de la Santé (OMS) publie de nouvelles lignes directrices sur l’éthique et la gouvernance des grands modèles multimodaux (ou LMM). Présentation.

En 2021, l’Organisation Mondiale de la Santé avait publié un premier rapport mondial sur l’intelligence artificielle appliquée à la santé. Face à l’essor des IA génératives, l’OMS a publié de nouvelles recommandations en juin 2023.

L’OMS continue de s’intéresser à l’IA et ses impacts sur le monde de la santé avec la publication de nouvelles lignes directrices sur l’éthique et la gouvernance des grands modèles multimodaux (ou « LMM », de l’anglais « large multi-modal models »), une technologie d’intelligence artificielle (IA) générative qui se développe rapidement et a des applications dans tout le secteur la santé.

Ces lignes directrices présentent plus de 40 recommandations à l’intention des gouvernements, des entreprises technologiques et des prestataires de soins, le but étant de garantir le bon usage des LMM pour promouvoir et protéger la santé des populations.

Les LMM permettent de saisir des données d’entrée d’un ou plusieurs types (texte, vidéo ou image) et de générer divers résultats sans se limiter au type de données utilisé au départ. Ils se distinguent par leur capacité à imiter la communication humaine et à exécuter des tâches pour lesquelles ils n’ont pas été explicitement programmés. Jamais une application grand public n’a été adoptée aussi rapidement que les LMM : l’apparition de plusieurs plateformes comme ChatGPT, Bard ou Bert, a marqué la conscience collective en 2023.

« Les technologies d’IA générative ont la capacité d’améliorer les soins, mais seulement si ceux qui les développent, les réglementent et les utilisent identifient les risques associés et en tiennent pleinement compte », a déclaré le Dr Jeremy Farrar, Scientifique en chef de l’OMS. « Nous avons besoin d’informations et de politiques transparentes pour gérer la conception, la mise au point et l’utilisation des LMM afin d’obtenir de meilleurs résultats en santé et de corriger les inégalités persistantes dans ce domaine. »

Les nouvelles lignes directrices de l’OMS présentent cinq grandes applications des LMM pour la santé :

  1. Diagnostic et soins cliniques, par exemple pour répondre aux questions écrites des patients ;
  2. Utilisation guidée par le patient, par exemple pour se renseigner sur les symptômes et les possibilités de traitement ;
  3. Tâches administratives, notamment pour préparer des résumés de consultations et les ajouter aux dossiers de santé électroniques ;
  4. Formation des médecins et du personnel infirmier, par exemple pour permettre aux internes de simuler des consultations ;
  5. Recherche scientifique et mise au point de médicaments, y compris pour identifier de nouveaux composés.

Même si les LMM commencent à être employés pour des usages particuliers en santé, il existe des risques documentés de voir ces systèmes produire des affirmations fausses, imprécises, biaisées ou incomplètes, ce qui pourrait nuire aux personnes qui s’en servent pour prendre des décisions. De plus, il arrive que les données d’apprentissage soient de mauvaise qualité ou présentent des biais liés à la race, à l’appartenance ethnique, à l’ascendance, au sexe, à l’identité de genre ou encore à l’âge.

Le document présente également les risques que ces systèmes font peser plus globalement sur les systèmes de santé, notamment du point de vue de l’accès à coût abordable aux LMM les plus efficaces. Les LMM peuvent aussi favoriser un « biais d’automatisation » chez les professionnels de santé et les patients : des erreurs passent inaperçues alors qu’elles auraient pu être identifiées, des choix difficiles sont délégués à un LMM alors que cela n’aurait pas dû être le cas. Les LMM, comme les autres formes d’IA, sont également vulnérables face aux risques de cybersécurité, lesquels pèsent sur les informations fournies par les patients et pourraient aussi nuire à la fiabilité de ces algorithmes et entraver la fourniture des soins.

L’OMS souligne dans un communiqué que, pour créer des LMM sûrs et efficaces, il faut veiller à ce que les différentes parties prenantes (gouvernements, entreprises technologiques, prestataires de soins, patients et société civile) participent à toutes les étapes de la mise au point et du déploiement, y compris à la supervision et à la réglementation de ces technologies.

« Les gouvernements de tous les pays doivent diriger ensemble, en coopération, les efforts déployés pour réglementer efficacement la mise au point et l’utilisation des technologies d’IA telles que les LMM » a déclaré le Dr Alain Labrique, Directeur du Département Santé numérique et innovation à la Division des sciences de l’OMS.

Des recommandations sur l’usage de ces modèles d’IA

L’OMS publie donc une série de recommandations aux gouvernements, à qui il revient en premier lieu de définir des normes pour la mise au point et le déploiement des LMM et leur intégration et utilisation à des fins médicales ou de santé publique :

  • Investir dans les infrastructures à but non lucratif ou publiques auxquelles les développeurs des secteurs public, privé ou à but non lucratif ont accès – notamment la puissance de calcul et les bases de données publiques – ou les mettre à disposition, en veillant à ce que les utilisateurs qui y accèdent adhèrent à certains principes et valeurs éthiques.
  • S’appuyer sur la législation, les politiques et la réglementation pour garantir que les LMM et les applications utilisées en santé et en médecine, indépendamment des risques ou des avantages associés à la technologie d’IA en question, respectent des obligations éthiques et des normes en matière de droits humains, notamment sur la dignité et l’autonomie des personnes ou le respect de la vie privée.
  • Confier à un organisme de réglementation, nouveau ou existant, la responsabilité d’évaluer et d’approuver les LMM et les applications destinées à un usage en santé ou en médecine, en fonction des ressources disponibles.
  • Mettre en place des dispositifs obligatoires d’audit et d’évaluation d’impact par des tiers indépendants, notamment en matière de protection des données et de droits humains, lorsqu’un LMM est déployé à grande échelle. Ces audits et études d’impact doivent être publiés et présenter les résultats et les impacts en les ventilant par type d’utilisateur (par exemple selon l’âge, la race ou le handicap).

Plusieurs grandes recommandations sont destinées aux développeurs de LMM, qui doivent veiller à ce que :

  • Les LMM ne soient pas conçus uniquement par des scientifiques et des ingénieurs. Les utilisateurs potentiels ainsi que l’ensemble des parties prenantes directes et indirectes (y compris les prestataires médicaux, les chercheurs scientifiques, les professionnels de la santé et les patients) doivent prendre part à la mise au point des IA dès les premiers stades, selon des modalités structurées, inclusives et transparentes, et avoir la possibilité de soulever des questions éthiques, de faire part de leurs préoccupations et à faire des observations sur l’application d’IA en question.
  • Les LMM soient conçus pour exécuter des tâches bien précises avec le niveau de précision et de fiabilité requis pour améliorer la capacité des systèmes de santé et promouvoir les intérêts des patients. Les développeurs doivent également être en mesure de prévoir et de comprendre les conséquences indirectes potentielles de ces systèmes.

 

Source : Organisation mondiale de la Santé (OMS)

Articles Similaires

Grands Prix Check Up Santé BFM Business 2024 : le verdict est tombé !

La gamification au service des DYS

Devenez expert marketing digital santé avec le MBA DMB #HEALTH !