L’utilisation de l’IA dans les soins de santé suscite chez certaines personnes un sentiment d’enthousiasme, d’autres de peur, et d’autres encore des deux. En fait, un nouvelle enquête de l’American Medical Association a montré que près de la moitié des médecins sont tout aussi enthousiastes et préoccupés par l’introduction de l’IA dans leur domaine.
Parmi les principales raisons pour lesquelles les gens ont des réserves à l’égard de l’IA dans le domaine des soins de santé, on peut citer les craintes que la technologie ne soit pas suffisamment réglementée et que les personnes utilisant les algorithmes d’IA ne comprennent souvent pas leur fonctionnement. La semaine dernière, HHS finalisé une nouvelle règle qui vise à répondre à ces préoccupations en établissant des exigences de transparence pour l’utilisation de l’IA dans les établissements de soins de santé. Il devrait entrer en vigueur d’ici fin 2024.
L’objectif de ces nouvelles réglementations est d’atténuer les biais et les inexactitudes dans le paysage de l’IA en évolution rapide. Certains dirigeants d’entreprises développant des outils d’IA dans le domaine de la santé estiment que les nouvelles règles de sécurité constituent un pas dans la bonne direction, tandis que d’autres sont sceptiques quant à la nécessité ou à l’efficacité des nouvelles règles.
La règle finalisée exige que les développeurs d’IA dans le domaine de la santé fournissent aux clients davantage de données sur leurs produits, ce qui pourrait aider les fournisseurs à déterminer les risques et l’efficacité des outils d’IA. La règle ne s’applique pas uniquement aux modèles d’IA explicitement impliqués dans les soins cliniques : elle s’applique également aux outils qui affectent indirectement les soins aux patients, tels que ceux qui facilitent la planification ou la gestion de la chaîne d’approvisionnement.
En vertu de la nouvelle règle, les fournisseurs d’IA doivent partager des informations sur le fonctionnement de leurs logiciels et sur la manière dont ils ont été développés. Cela signifie divulguer des informations sur qui a financé le développement de leurs produits, quelles données ont été utilisées pour entraîner le modèle, les mesures qu’ils ont utilisées pour éviter les biais, comment ils ont validé le produit et pour quels cas d’utilisation l’outil a été conçu.
Un leader de l’IA dans le domaine de la santé : Ron Vianu, PDG d’une société de technologie de diagnostic basée sur l’IA Couverture Santé – a qualifié la nouvelle réglementation de « phénoménale ».
« Soit ils amélioreront considérablement la qualité des sociétés d’IA dans leur ensemble, soit ils réduiront considérablement le marché aux plus performants, éliminant ainsi ceux qui ne résistent pas au test », a-t-il déclaré.
Dans le même temps, si les mesures utilisées par les sociétés d’IA dans leurs rapports ne sont pas standardisées, les prestataires de soins de santé auront du mal à comparer les fournisseurs et à déterminer quels outils sont les meilleurs à adopter, a noté Vianu. Il a recommandé que le HHS normalise les mesures utilisées dans les rapports de transparence des développeurs d’IA.
Un autre cadre dans le domaine de l’IA dans le domaine de la santé : Dave Latshaw, PDG d’une startup de développement de médicaments pour l’IA BioPhy – a déclaré que la règle est « idéale pour les patients », car elle cherche à leur donner une image plus claire des algorithmes qui sont de plus en plus utilisés dans leurs soins. Cependant, les nouvelles réglementations posent un défi aux entreprises développant des produits de santé basés sur l’IA, car elles devront respecter des normes de transparence plus strictes, a-t-il noté.
« En aval, cela entraînera probablement une augmentation des coûts et de la complexité du développement, mais il s’agit d’une étape nécessaire pour garantir des solutions informatiques de santé plus sûres et plus efficaces », a expliqué Latshaw.
De plus, les sociétés d’IA ont besoin de conseils du HHS sur les éléments d’un algorithme qui doivent être divulgués dans l’un de ces rapports, a souligné Brigham Hyde. Il est PDG de Santé Atroposune entreprise qui utilise l’IA pour fournir des informations aux cliniciens sur le lieu d’intervention.
Hyde a applaudi la règle, mais a déclaré que les détails seront importants en ce qui concerne les exigences en matière de reporting – « à la fois en termes de ce qui sera utile et interprétable et aussi de ce qui sera réalisable pour les développeurs d’algorithmes sans étouffer l’innovation ni nuire au développement de la propriété intellectuelle pour l’industrie ».
Certains dirigeants du monde de l’IA dans le domaine de la santé dénoncent complètement la nouvelle règle. Leo Grady – ancien PDG de Paige.AI et actuel PDG de Jonaune startup de tests du microbiome intestinal basée sur l’IA – a déclaré que la réglementation était « une idée terrible ».
« Nous disposons déjà d’une organisation très efficace qui évalue les biais, la sécurité et l’efficacité des technologies médicales et appose une étiquette sur chaque produit, y compris les produits d’IA : la FDA. Il n’y a aucune valeur ajoutée d’un label supplémentaire facultatif, non uniforme, non évalué, non appliqué et ajouté uniquement aux produits médicaux basés sur l’IA – qu’en est-il des produits médicaux non-IA biaisés ou dangereux ? il a dit.
De l’avis de Grady, la règle finalisée est, au mieux, redondante et déroutante. Au pire, il pense que cela représente « une énorme perte de temps » et ralentira le rythme auquel les fournisseurs sont en mesure de fournir des produits bénéfiques aux cliniciens et aux patients.
Photo : Andrzej Wojcicki, Getty Images