IA et santé mentale : un rapport inédit par le Collectif MentalTech

A l’occasion de la Journée Mondiale de la Santé Mentale le 10 octobre dernier, le Collectif MentalTech a dévoilé un rapport inédit mettant en lumière le rôle prometteur, mais non sans danger, de l’intelligence artificielle (IA) dans le domaine de la santé mentale. Présentation.

La santé mentale, et particulièrement celle des jeunes adultes, connaît une dégradation alarmante depuis plusieurs années : recrudescence des troubles de l’humeur, consultations d’urgences en psychiatrie, errance diagnostic, tabou de la santé mentale … autant d’éléments qui favorisent l’émergence d’outils numériques et d’innovation afin d’améliorer la précision des diagnostics, la personnalisation des traitements et l’accès aux soins. Toutefois, ces avancées technologiques indispensables soulèvent des interrogations cruciales quant à la protection des données et l’éthique.

En collaboration avec Stane Groupe, le Collectif MentalTech publie donc un rapport où il appelle à la mise en place d’un cadre de « numéricovigilance » pour garantir une utilisation responsable et transparente des innovations, tout en maximisant les bénéfices pour les patients.

Ce rapport identifie quatre principaux cadres d’intervention de l’IA en santé mentale aujourd’hui :

  • La prédiction de valeur : l’IA est capable de prédire des états psychiques à partir d’une large gamme de données. Par exemple, elle peut détecter des émotions en analysant des vidéos ou des conversations textuelles, permettant ainsi d’intervenir avant même l’apparition de symptômes graves.
  • La génération de texte et de dialogue : les modèles de langage, tels que les agents conversationnels, peuvent interagir directement avec les patients, favorisant une relation continue et personnalisée. Ces systèmes d’IA peuvent analyser en temps réel l’état psychologique des individus à travers leurs réponses verbales ou écrites, et fournir un premier niveau d’assistance ou de recommandations
  • La création d’activités thérapeutiques : l’IA peut générer des programmes d’activités, comme des jeux sérieux ou des exercices de relaxation, adaptés aux besoins spécifiques des patients. Cela inclut des outils comme la réalité virtuelle pour aider à traiter des phobies ou des troubles de stress post-traumatique en simulant des environnements thérapeutiques contrôlés.
  • La recommandation de ressources : l’IA offre également la possibilité de recommander des ressources pertinentes aux patients ou aux professionnels de santé, comme des articles, des vidéos, ou des protocoles de soin, selon les besoins exprimés ou détectés. Par exemple, un patient souffrant d’anxiété peut recevoir des conseils pratiques pour mieux comprendre et gérer ses symptômes.

La forte présence des solutions d’IA dans le domaine de la santé mentale pose des enjeux et défis éthiques à relever. Même si les promesses de cette technologie sont grandes, ce rapport souligne les défis éthiques majeurs que son utilisation soulève dans le domaine de la santé mentale, notamment la protection des données sensibles des patients. En effet, les algorithmes d’IA reposent souvent sur une quantité importante de données personnelles, ce qui augmente le risque de violation de la confidentialité. Dans un domaine aussi intime que la santé mentale, ces risques doivent être strictement contrôlés pour préserver la vie privée des individus.

Un autre point est soulevé dans ce rapport : le risque de déshumanisation des soins. En déléguant certaines tâches à des machines, comme l’analyse des émotions ou la coordination des interventions thérapeutiques, il est crucial de veiller à ce que les décisions prises par l’IA soient toujours validées par des professionnels de santé.

Enfin, un autre défi majeur est l’explicabilité des algorithmes. Les modèles d’IA, souvent qualifiés de “boîtes noires”, peuvent prendre des décisions complexes sans que leur logique ne soit toujours compréhensible pour les utilisateurs humains, notamment les médecins. Le rapport insiste sur la nécessité de développer des systèmes plus transparents, capables de justifier leurs décisions et d’assurer ainsi une meilleure intégration dans la pratique clinique.

Le Collectif MentalTech appelle à la mise en place d’un cadre de numéricovigilance

En partant de ce contexte et des constats autour du déploiement de l’IA dans le domaine de la santé, le collectif MentalTech préconise la mise en place d’un cadre de numéricovigilance pour garantir la sécurité des patients en détectant rapidement les dérives potentielles des dispositifs d’IA, comme une mauvaise interprétation des données ou une surgénéralisation des résultats.  À terme, cela permettrait de maintenir un équilibre entre l’innovation technologique et le respect des principes éthiques fondamentaux dans la prise en charge de la santé mentale.

Dans ce rapport le Collectif MentalTech émet 10 principes du cadre de numéricovigilance :

  1. L’élaboration d’une notice d’information : créer un document explicatif pour les utilisateurs, détaillant le fonctionnement de l’IA, ses avantages, ses risques, la population cible et les mesures en cas de dysfonctionnement, avec un langage accessible.
  2. La constitution d’un comité scientifique pluridisciplinaire : former un comité composé d’au moins un médecin, un.e expert.e en IA, un.e éthicien.ne et un.e spécialiste du Réglementaire pour superviser le développement et l’évaluation des systèmes d’IA.
  3. L’implication des professionnels de santé : engager les professionnels de santé dans le processus de développement de l’IA pour garantir la robustesse et la fiabilité des systèmes.
  4. La formation des professionnels de santé : proposer des formations sur l’IA, ses applications en médecine et les principes d’évaluation des systèmes de machine learning.
  5. L’installation personnalisée pour les utilisateurs : adapter l’utilisation des outils d’IA aux appréhensions des utilisateurs, en développant des protocoles spécifiques pour chaque cas d’usage.
  6. L’absence de conflits d’intérêts : veiller à ce qu’il n’y ait pas de conflits d’intérêts entre les entités impliquées dans le dépistage et le traitement des troubles.
  7. L’adaptation des métriques d’évaluation : ajuster les métriques d’évaluation de l’algorithme selon le cas d’usage et garantir la transparence et l’efficacité des mécanismes de sécurité.
  8. Le retracement des décisions de l’IA : documenter le processus décisionnel de l’IA, en expliquant les résultats générés, tout en prévoyant des exceptions lorsque des bénéfices médicaux substantiels peuvent être démontrés.
  9. La sélection de la population d’entraînement : assurer la représentativité des données utilisées pour l’entraînement de l’IA, et mener des études complémentaires pour prévenir les biais algorithmiques si nécessaire.
  10. La collecte parcimonieuse des données : suivre les recommandations de la CNIL en ne collectant que les données indispensables, afin de tester les IA de manière pragmatique et efficace.

 

Source : MentalTech


Le collectif MentalTech est le premier collectif français dédié à l’émergence de solutions numériques en santé mentale. Il est créé en mars 2022 par 7 membres fondateurs, rejoints depuis par une trentaine d’acteurs : institutionnels, startups et professionnels de santé. Il a vocation de rassembler organismes privés et publics autour d’une ambition forte : répondre à l’urgence de déployer des outils numériques éthiques dans la prévention et la prise en charge de la santé psychique.

Articles Similaires

Doctolib lance son assistant IA de consultation

France 2030 : nouvel appel à projets PEPR SantéNum

La FHF lance un outil de fact-checking pour lutter contre la désinformation en santé