Ce mois-ci, le Organisation Mondiale de la Santé libéré nouvelles lignes directrices sur l’éthique et la gouvernance de grands modèles de langage (LLM) dans les soins de santé. Les réactions des dirigeants des entreprises d’IA dans le domaine de la santé ont été majoritairement positives.
Dans ses orientations, l’OMS a décrit cinq grandes applications du LLMS dans le domaine des soins de santé : le diagnostic et les soins cliniques, les tâches administratives, l’éducation, la recherche et le développement de médicaments et l’apprentissage guidé par le patient.
Alors que les LLM ont le potentiel d’améliorer l’état des soins de santé dans le monde en réduisant par exemple l’épuisement clinique ou en accélérant la recherche sur les médicaments, les gens ont souvent tendance à « surestimer et surestimer » les capacités de l’IA, a écrit l’OMS. Cela peut conduire à l’utilisation de « produits non éprouvés » qui n’ont pas été soumis à une évaluation rigoureuse de leur sécurité et de leur efficacité, a ajouté l’organisation.
Cela s’explique en partie par le « solutionnisme technologique », un état d’esprit incarné par ceux qui considèrent les outils d’IA comme des solutions miracles capables d’éliminer de profondes barrières sociales, économiques ou structurelles, indiquent les lignes directrices.
Les lignes directrices stipulaient que les LLM destinés aux soins de santé ne devaient pas être conçus uniquement par des scientifiques et des ingénieurs : d’autres parties prenantes devaient également être incluses, telles que les prestataires de soins de santé, les patients et les chercheurs cliniciens. Les développeurs d’IA devraient donner à ces acteurs de la santé la possibilité d’exprimer leurs préoccupations et de donner leur avis, ajoutent les lignes directrices.
L’OMS a également recommandé aux entreprises d’IA dans le domaine de la santé de concevoir des LLM pour effectuer des tâches bien définies qui améliorent les résultats pour les patients et renforcent l’efficacité des prestataires, ajoutant que les développeurs devraient être capables de prédire et de comprendre tous les résultats secondaires possibles.
De plus, les directives indiquaient que les développeurs d’IA doivent garantir que la conception de leurs produits est inclusive et transparente. Cela permet de garantir que les LMM ne sont pas formés sur des données biaisées, qu’elles soient biaisées par la race, l’origine ethnique, l’ascendance, le sexe, l’identité de genre ou l’âge.
Les dirigeants des entreprises d’IA dans le domaine de la santé ont réagi positivement aux nouvelles lignes directrices. Par exemple, Piotr Orzechowski – PDG de Infirmerieune société d’IA dans le domaine de la santé qui travaille à améliorer l’analyse préliminaire des symptômes et le triage numérique, a qualifié les orientations de l’OMS de « étape importante » vers une utilisation responsable de l’IA dans les établissements de santé.
« Il plaide en faveur d’une collaboration mondiale et d’une réglementation stricte dans le secteur de la santé par l’IA, suggérant la création d’un organisme de réglementation similaire à celui des dispositifs médicaux. Cette approche garantit non seulement la sécurité des patients, mais reconnaît également le potentiel de l’IA pour améliorer le diagnostic et les soins cliniques », a-t-il fait remarquer.
Orzechowsk a ajouté que les directives équilibrent la nécessité de progrès technologiques avec l’importance de maintenir la relation prestataire-patient.
Jay Anders, médecin-chef d’une société de logiciels de santé Systèmes Médicompa également salué les règles, affirmant que toute IA dans le domaine de la santé nécessite une réglementation externe.
“[LLMs] doivent démontrer l’exactitude et la cohérence de leurs réponses avant d’être placés entre le clinicien et le patient », a déclaré Anders.
Un autre responsable du secteur de la santé – Michael Gao, PDG et co-fondateur de Plus intelligentDxune société d’IA qui propose des examens cliniques et des audits de qualité des réclamations médicales, a noté que même si les lignes directrices étaient correctes en déclarant que les hallucinations ou les résultats inexacts faisaient partie des risques majeurs des LMM, la peur de ces risques ne devrait pas entraver l’innovation.
« Il est clair que davantage de travail doit être fait pour minimiser leur impact avant que l’IA puisse être déployée en toute confiance en milieu clinique. Mais l’inaction face à la flambée des coûts des soins de santé, qui a un impact à la fois sur la capacité des hôpitaux à desservir leurs communautés et sur la capacité des patients à payer les soins, constitue un risque bien plus grand », a-t-il expliqué.
De plus, un cadre d’une société de données synthétiques MDClone a souligné que les orientations de l’OMS ont peut-être manqué un sujet majeur.
Luz Eruz, directeur de la technologie de MDClone, a déclaré qu’il accueille favorablement les nouvelles directives, mais a remarqué qu’elles ne mentionnent pas les données synthétiques – des données non réversibles créées artificiellement qui reproduisent les caractéristiques statistiques et les corrélations des données brutes du monde réel.
« En combinant des données synthétiques avec des LLM, les chercheurs ont la possibilité d’analyser et de résumer rapidement de grandes quantités de données sur les patients sans problèmes de confidentialité. En raison de ces avantages, nous prévoyons une croissance massive dans ce domaine, ce qui présentera des défis pour les régulateurs cherchant à suivre le rythme », a déclaré Eruz.
Photo : Valéry Brojinski, Getty Images