L’utilisation de l’IA dans le domaine médical est en train de passer d’être un thème de niche et restreint à une petite gamme d’auditeurs à un thème d’intérêt marqué pour le public. Un public varié, attentif et sensible comme celui qui a participé à la breakout session AI4health pendant la Belgian AI Week d’AI4Belgium.
L’événement « AI4belgium Ethics & Law : Kick-off AI Assessement Tool Project » avait pour objectif de lancer la conception d’un outil pratique, utilisable par chacun et spécifique à des domaines précis, en se basant sur la Trustworthy AI Assessment List, proposée à la Commission Européenne le 17 juillet 2020 par le High-Level Expert Group on Artificial Intelligence (AI HLEG). Au cours de cette première séance ouverte à tous, l’intention d’obtenir des commentaires de divers partenaires et experts dans les secteurs de la Santé, des Ressources Humaines et des services publics, a été atteinte avec succès.
Nathalie Smuha (chercheuse à la KU Leuven, co-lead du groupe AI Ethics & Law ex-coordinatrice de l’AI HLEG) et de Jelle Hoedemaekers (ICT standardisation expert Agoria, co-lead du groupe Ethics & Law) ont introduit les objectifs et les contenus de la Trustworthy AI Assessement List pour ouvrir le débat. Les participants ont ensuite été divisés dans les sessions parallèles relatives aux domaines spécifiques (Santé, RH et Services Publics). Le Secrétaire d’Etat en charge du Digital et de la simplification administrative Mathieu Michel s’est quant à lui dédié aux services publics.
La session breakout AI4Health, dirigée par le Dr. Giovanni Briganti (co-lead du groupe AI4Health), a vu se dérouler un débat passionné sur l’applicabilité de la Trustworthy AI Assessment List aux dispositifs AI dans le domaine médical. Après des questions préliminaires proposées aux participants, le groupe s’est focalisé sur comment détailler l’outil dans le domaine de la santé.
Une première remarque concernait l’attention à accorder à l’utilisateur final de l’instrument AI. En particulier, la suggestion faite était d’évaluer d’éventuelles exigences supplémentaires dans le cas de sujets fragiles tels que les enfants, en s’assurant par exemple de la facilité d’utilisation ou d’une augmentation de sécurité.
Une autre observation utile a été la possibilité de fragmenter la Trustworthy AI Assessment List par type d’application IA medicale, ou mieux, de créer plus ou moins de conditions spécifiques en fonction de l’utilisation médicale de l’instrument.
En particulier, on s’est demandé si les fins du suivi des patients, de prédiction et de diagnostic, exigent des conditions ad hoc pour chaque objectif qui doivent être détaillées dans la Trustworthy Assessement List. En suivant ce courant de raisonnement, on s’est demandé si, il n’y avait pas à considérer une autre différenciation, c’est-à-dire celle entre AI tools pour le support décisionnel et les instruments AI capables de prendre des décisions autonomes.
Enfin, en constatant certaines lacunes dans la réglementation européenne en ce qui concerne les dispositifs AI dans le domaine de la santé, il est apparu opportun de rappeler qu’une liste d’exigences éthiques ne veut pas et ne peut en aucun cas se substituer à une réglementation concrète. L’intention de la Trustworthy AI Assessment List, comme souligné par Nathalie Smuha, est celui de stimuler la conscience dans l’utilisation et le développement des instruments basés sur l’IA, ce qui se montre encore plus important dans la délicate sphère médicale.
Poursuivre un débat constructif est donc nécessaire afin de fournir une base solide pour l’élaboration de futures interventions normatives.
Sofia Palmieri, Doctorante à Metamedica (UGent)
Pour l’équipe AI4Belgium – AI4Health et AI4Law and Ethics (Giovanni Briganti, Nathanael Ackerman, Nathalie Smuha)
Lire ausssi: L’intelligence artificielle en médecine en 2021 (Dr Giovanni Briganti)