Il s’agit du premier article d’une série explorant les préoccupations éthiques concernant le consentement éclairé des patients lorsque l’intelligence artificielle est utilisée pour la prise de décision clinique.
L’un des principes fondamentaux de la bioéthique est que les patients doivent être respectés en tant qu’êtres autonomes et que leurs préférences doivent déterminer ce qui est acceptable et inacceptable dans leurs soins de santé. L’opinion du juge Benjamin Cardozo de 1914 dans l’affaire Schloendorff c. Société des hôpitaux de New York « Tout être humain majeur et sain d’esprit a le droit de déterminer ce qu’il doit faire de son propre corps » a inscrit l’éthique dans la loi. Les modèles d’intelligence artificielle (IA) destinés à améliorer la capacité des cliniciens à diagnostiquer, traiter et pronostiquer sont largement déployés. Une question non résolue dans la littérature éthique, et jusqu’à présent non testé dans le système juridiqueest de savoir dans quelle mesure les patients doivent être informés que des modèles d’IA sont utilisés dans leurs soins de santé et doivent en retour donner leur consentement. D’un point de vue éthique, avec une application potentielle au droit, quelle est la relation du patient avec le modèle d’IA, et quelles sont les attentes normatives et juridiques de cette relation ? Les patients se rapportent aux modèles d’IA de plusieurs manières pertinentes : en tant que patients, en tant que donneurs de données, en tant que sujets d’apprentissage et, dans certains cas, en tant que sujets de recherche.
Les patients en tant que patients
Les patients, en tant qu’êtres autonomes, doivent être informés de la manière dont les recommandations médicales sont formulées et des raisons pour lesquelles elles le sont. Cela inclut la collaboration ou non de leur médecin avec un modèle d’IA. Collaborer avec un modèle d’IA diffère de la consultation d’un article de revue ou d’un parcours clinique, ou de la consultation d’un collègue à plusieurs égards éthiquement pertinents.
Premièrement, un clinicien peut supposer que les articles de revues, les parcours cliniques et les opinions des collègues sont fondés sur des preuves scientifiques et que la recommandation est la plus bénéfique et la moins nocive pour le patient. Avant qu’une nouvelle version d’un traitement ou d’une procédure ne soit adoptée, il faut non seulement prouver qu’elle fournit le résultat ou l’effet qu’elle prétend, mais aussi qu’elle est plus bénéfique et/ou moins nocive que l’itération précédente. Dans la plupart des cas, les modèles d’IA n’ont pas été soumis au même niveau de rigueur scientifique. Bien que les modèles puissent avoir été validés pour leur précision, cela ne se traduit pas automatiquement par un bénéfice accru et/ou une diminution des dommages. Par exemple, on pourrait émettre l’hypothèse qu’un modèle d’IA qui prédit quels patients développeront une maladie rénale chronique serait bénéfique. Le modèle pourrait être programmé et entraîné pour prouver la prédiction et son haut degré de précision. Cependant, cela ne prouve pas automatiquement que le le modèle est plus bénéfique et/ou moins nocif qu’un clinicien ne le serait sans le support décisionnel du modèle.
De plus, dans le cas d’un article de revue, d’un parcours clinique ou d’un collègue, un clinicien peut comprendre le raisonnement qui sous-tend la recommandation et l’expliquer au patient en s’appuyant sur des preuves scientifiques. Ce n’est pas le cas de la plupart des modèles d’IA, dans lesquels les variables exactes sur lesquelles repose la prédiction du modèle sont inconnues. Enfin, un clinicien peut s’appuyer sur les conclusions d’articles de revues, de parcours cliniques et de collègues pour donner la priorité au bénéfice du patient par rapport à d’autres valeurs concurrentes telles qu’une efficacité accrue ou des économies de coûts. Bien que plusieurs résultats puissent être obtenus simultanément, le bénéfice du patient doit toujours passer en premier. Les médecins sont éthiquement tenus de donner la priorité aux intérêts de leurs patients, mais rien ne garantit que les modèles d’IA donnent également la priorité au bénéfice du patient par rapport à d’autres résultats concurrents.
La capacité d’un patient à prendre des décisions concernant les traitements repose sur le respect de son autonomie. Ce respect exige non seulement que le patient soit informé, mais aussi qu’il puisse avoir confiance dans la véracité et la transparence du raisonnement clinique du clinicien, qu’il se réfère à un article de revue, à un parcours clinique ou à un collègue pour prendre une décision médicale. Cette obligation s’étend aux collaborations entre cliniciens et modèles d’IA. En raison des différences importantes entre la collaboration avec un modèle d’IA et la façon dont les cliniciens prennent généralement des décisions, la nécessité d’informer les patients lorsque des modèles d’IA sont utilisés dans leurs soins de santé est encore plus grande que dans d’autres contextes. Le fait de ne pas le faire porte atteinte au droit du patient de décider ce qui est fait à son corps et ne respecte pas la norme du consentement éclairé. De plus, le fait de ne pas le faire peut conduire à la méfiance et à une nouvelle forme de paternalisme dans laquelle le clinicien et le modèle d’IA prétendent savoir mieux que le patient ce qu’il convient de faire.
Les patients comme donneurs
Pour que les patients puissent recevoir une prédiction d’un modèle d’IA, le modèle doit avoir accès aux informations personnelles de santé du patient. Une fois les informations du patient partagées avec le modèle et la prédiction effectuée, les informations du patient peuvent également être utilisées à l’avenir pour former d’autres modèles. Étant donné que les informations personnelles de santé des patients sont utilisées pour former les modèles d’IA, les patients doivent être en mesure de prendre la décision volontaire et éclairée de donner leurs données.
Le L’histoire de la médecine regorge d’exemples de prélèvements de tissus sur des patients Les tissus sont des éléments qui sont utilisés à l’insu du patient ou sans son consentement et qui ne sont pas utilisés au bénéfice du patient sur lequel ils ont été prélevés. À l’ère de la technologie, les informations médicales d’un patient constituent son phénotype numérique et font partie de lui au même titre que ses tissus. Alors que les tissus d’un patient contiennent ses informations génétiques, son dossier médical est un compte rendu de la manière dont ses gènes individuels sont exprimés, supprimés, mutés, supprimés, brisés et réparés.
Lorsque des patients sont utilisés comme sujets d’apprentissage, que ce soit par des humains ou des machines, les patients doivent en être informés et leur participation doit être volontaire. Actuellement, très peu de modèles utilisés dans le domaine de la santé sont « déverrouillés » et capables d’apprendre à l’avenir à partir des prédictions qu’ils ont faites dans le passé. Cependant, les modèles d’IA à apprentissage continu ont le potentiel d’être extrêmement puissants, car ils améliorent continuellement la précision de leurs prédictions. Les modèles à apprentissage continu sont presque certains de constituer la prochaine génération de modèles d’IA, et les patients seront leurs sujets d’apprentissage.
Les patients comme sujets de recherche
Enfin, la participation à la recherche sur les humains doit être informée et volontaire. Les patients sont utilisés à deux étapes du développement du modèle d’IA : pour démontrer la validité d’un modèle d’IA et pour prouver que le modèle est cliniquement bénéfique. La première étape est la mieux classée dans la catégorie « amélioration de la qualité » et ne nécessite donc pas le consentement éclairé des patients. Au cours de cette étape, le modèle est prouvé comme étant précis et performant comme il le prétend. Cependant, la deuxième étape, celle de la preuve des bénéfices, constitue une recherche. On établit les bénéfices en démontrant que le modèle d’IA, seul ou en collaboration avec un clinicien, est aussi bon ou meilleur que le clinicien seul. Pour que les chercheurs démontrent que le modèle est bénéfique, les patients doivent être randomisés dans chacun des trois volets : (1) modèle seul, (2) clinicien seul et (3) clinicien et modèle ensemble. Étant donné que les conclusions d’une telle étude sont généralisables, cette étape est mieux classée dans la catégorie « recherche ». (Même si l’on prétend qu’un projet pilote clinique est en réalité une initiative d’amélioration de la qualité plutôt qu’une étude de recherche, cela ne nie pas automatiquement la nécessité du consentement éclairé des patients.) La relation médecin-patient est telle que les patients peuvent légitimement s’attendre à certaines choses de la part de leurs médecins, comme la véracité, la confidentialité, un bénéfice maximal et un préjudice minimal. Mais les médecins ne peuvent pas s’attendre à ce que les patients fassent don de leurs données de santé ou soient des sujets d’apprentissage ou de recherche.
Le fait de ne pas informer les patients que les modèles d’IA font des prédictions sur leur santé non seulement érode la confiance dans la relation médecin-patient, mais rend également le modèle d’IA et les prédictions du modèle opaques. Si les patients ne sont pas informés en premier lieu que les prédictions de l’IA sont faites, il est peu probable qu’ils soient informés de la prédiction elle-même. Cela pourrait normaliser la pratique consistant à utiliser les informations de santé des patients pour faire toute prédiction souhaitée par un système de santé ou un organisme payeur sans que le patient en soit informé ou donne son consentement.
Une fois de plus, l’histoire de la médecine regorge d’exemples plus nombreux qu’elle ne le devrait. les cliniciens font des choses aux patients qu’ils n’ont pas le droit de faire sans le consentement éclairé des patients. Apparemment, qu’il s’agisse effectuer des examens intimes sous anesthésie, effectuer plusieurs opérations par le même chirurgien en même tempsou en pratiquant une opération, comme dans le cas de Schloendorff, les cliniciens n’ont pas remis en question la nécessité d’un consentement éclairé ou ont examiné et rejeté les affirmations selon lesquelles un consentement éclairé était nécessaire. L’histoire menace de se répéter à mesure que les modèles d’IA sont introduits dans les soins de santé. L’éthique n’a pas toujours été le fil conducteur. Lorsque l’éthique échoue, la loi et la réglementation peuvent prévaloir.