L’article précédent de cette série, Le consentement éclairé est-il nécessaire lorsque l’intelligence artificielle est utilisée pour les soins aux patients : application de l’éthique issue de l’opinion du juge Cardozo dans l’affaire Schloendorff c. Society of New York Hospitala fait valoir que les patients devraient être informés lorsque l’IA est utilisée pour prendre leurs décisions en matière de soins de santé. Cet article explorera l’éventail des préjudices potentiels attribuables aux modèles d’IA et se demandera si le consentement éclairé à lui seul atténue la responsabilité.
Tout traitement médical comporte un risque de préjudice dans la poursuite d’un bénéfice potentiel. Les bénéfices peuvent être une augmentation de la fonction, une survie prolongée ou une amélioration de la qualité de vie. Par exemple, les infections des plaies sont un risque bien connu associé à la chirurgie de l’appendicite aiguë. Les chirurgiens ont le devoir d’informer leurs patients de leur risque relatif d’infection de la plaie après la chirurgie. Des facteurs attribuables aux patients, tels que le tabagisme et le diabète, et des facteurs attribuables aux chirurgiens, tels que leur technique et l’administration d’antibiotiques, peuvent affecter le risque d’infection de la plaie pour un patient individuel. Les chirurgiens ont également le devoir d’atténuer le risque de développer une infection de la plaie pour le patient, soit en conseillant au patient d’arrêter de fumer, soit en administrant des antibiotiques appropriés avant l’opération. Ainsi, les médecins ont le devoir d’informer les patients de leur risque spécifique de préjudice, mais aussi celui d’atténuer le préjudice.
Les patients doivent être informés des risques de préjudice qu’ils courent afin qu’ils puissent prendre ces informations en compte dans leur prise de décision. Un patient peut évaluer les risques de préjudice par rapport aux avantages qu’il recherche. En n’informant pas un patient du risque de préjudice qu’il court, le médecin ne respecte pas sa capacité à prendre des décisions autonomes concernant ses soins de santé. Opinion du juge Cardozo dans l’affaire Schloendorff c. Society of New York Hospitalune partie essentielle de la décision sur ce qui doit être fait à son corps consiste à considérer la valeur du bénéfice proposé et le risque de préjudice que pourrait entraîner la tentative de réaliser ce bénéfice.
Bien que nécessaire, informer les patients du risque de préjudice n’est pas suffisant. Les médecins ont également l’obligation d’atténuer le risque de préjudice dans la mesure du possible. Un médecin qui manque à son obligation d’atténuer le préjudice causé à un patient en assume la responsabilité. L’étendue de la responsabilité serait déterminée en fonction de l’ampleur du préjudice et du degré auquel celui-ci pourrait être atténué. Un médecin qui a les moyens mais ne parvient pas à prévenir un préjudice prévisible néglige son devoir de fournir des soins bénéfiques et non préjudiciables.
Comment la responsabilité et l’obligation de rendre compte des médecins en cas de préjudice causé aux patients s’appliquent-elles aux modèles d’IA ?
Si un patient subit un préjudice et que le modèle d’IA a participé à la décision qui a entraîné le préjudice sans que le patient n’en soit informé ou n’ait donné son consentement, le patient pourrait faire valoir avec force que son autonomie n’a pas été respectée. De plus, si un patient subit un préjudice du fait d’un modèle d’IA et que le risque de préjudice était connu et aurait pu être atténué mais ne l’a pas été, le médecin aurait manqué à son devoir envers le patient, de la même manière qu’il n’administrerait pas d’antibiotiques lorsque cela était indiqué pour réduire le risque d’infection d’une plaie.
Quels types de préjudices, attribuables au modèle lui-même, pourraient être associés à l’utilisation d’une IA pour les décisions en matière de soins de santé ? L’un des préjudices les plus importants serait l’échec intrinsèque du modèle à faire la prédiction pour laquelle il a été programmé. L’inexactitude dans la prédiction d’un modèle peut être due à un certain nombre de facteurs. Le modèle peut avoir été formé et validé sur un groupe démographique de patients spécifique mais déployé sur un groupe démographique différent. Ainsi, les modèles que le modèle a appris à associer à un résultat dans les données de formation ne prédisent pas avec précision le résultat lorsqu’ils sont utilisés pour faire des prédictions sur un ensemble de données différent.
Un autre danger, dont le potentiel a été bien documenté dans la littérature, est que le modèle sera biaisé dans la mesure où il répartira inéquitablement les avantages et les charges. Cela peut se produire parce que les données sur lesquelles le modèle a été formé étaient elles-mêmes biaisées et que le modèle perpétuera ce biais. Aux États-Unis, par exemple, les patients noirs reçoivent des soins complets contre le cancer de moindre qualité. En conséquence, les patients noirs ont globalement un taux de mortalité lié au cancer plus élevé que les patients blancs. En raison de la forte association statistique, mais non biologique, entre le fait d’être noir et un taux accru de mortalité liée au cancer, les modèles formés à partir de ces données prédiront que les patients noirs sont plus susceptibles de mourir d’un cancer. Cette prédiction est basée sur le fait que le patient est noir et ne tient pas compte des déterminants structurels de la santé qui influencent l’accès des patients noirs à des soins complets de qualité contre le cancer.
Bien qu’un patient puisse être directement lésé par une prédiction inexacte d’un modèle basée sur des données d’entraînement non représentatives ou un biais historique, un patient peut également être lésé par une prédiction précise. Cela peut se produire notamment si un modèle d’IA prédit avec précision un risque de préjudice, comme le VIH ou une maladie rénale chronique, et que le risque prédit n’est pas atténué, et que le patient développe une maladie qui aurait pu être évitée. Prenons par exemple un Un modèle d’IA qui prédit très précisément le risque d’un patient de contracter le VIH Le modèle d’IA se base sur les informations contenues dans le dossier médical électronique (DME) du patient. Lorsque le patient se rend chez son médecin pour une consultation, celui-ci ouvre le DME et reçoit une alerte l’informant que le patient est considéré comme présentant un risque élevé de contracter le VIH. Le modèle d’IA recommande ensuite au médecin de discuter avec lui du risque du patient et, si le patient est considéré comme présentant un risque élevé de contracter le VIH, de discuter également avec lui des médicaments susceptibles de réduire ce risque, à savoir la prophylaxie pré-exposition au VIH (PrEP).
Dans cet exemple, le médecin peut manquer à son devoir de limiter le préjudice causé au patient d’au moins deux façons. Tout d’abord, il peut tout simplement ignorer la prédiction. Ou bien il peut considérer la prédiction et la rejeter unilatéralement sans la corroborer avec le patient. Dans le premier cas, le patient peut être venu au cabinet du médecin pour une évaluation de la douleur au genou après une longue course et non pour une évaluation de santé complète qui impliquerait une discussion sur le VIH. Le médecin peut ne pas avoir établi de relation thérapeutique avec le patient et être mal à l’aise d’aborder un sujet sensible comme le VIH. Le médecin peut être sceptique à l’égard du modèle et mécontent de devoir aborder le risque de VIH lors d’une visite ciblée pour un tout autre problème. Le médecin peut être en retard dans la clinique et ne pas avoir le temps de se lancer dans une longue discussion sur le risque de VIH et la prévention. N’importe laquelle de ces considérations, et bien d’autres, peut amener un médecin à ignorer l’invite du modèle. Si le médecin ignore des informations fiables selon lesquelles le patient risque de subir un préjudice, il n’a pas rempli son devoir envers le patient. Le médecin dispose d’informations susceptibles de protéger le patient contre tout préjudice et des moyens de l’atténuer. Il est du devoir du médecin de fournir des soins centrés sur le patient, en donnant la priorité à son bien-être et en minimisant le préjudice.
Outre le choix d’ignorer la prédiction du modèle, le médecin pourrait également l’envisager mais la rejeter en fonction de son jugement clinique. Cependant, l’exercice du jugement clinique ne nie pas la responsabilité d’intégrer la prédiction de l’IA dans une évaluation holistique du patient basée sur les meilleures pratiques. Bien que chargée de valeur, discuter du risque de VIH du patient est une entreprise clinique à faible risque et potentiellement à haut rendement. La base clinique d’un médecin pour considérer et rejeter une prédiction valide et fiable selon laquelle un patient présente un risque élevé de VIH est limitée. Cela est d’autant plus vrai que certains des comportements qui exposent un patient à un risque de VIH sont également stigmatisants et peuvent ne pas être apparents dans le DME du patient. Le préjudice causé par un médecin qui a envisagé mais rejeté la prédiction d’un modèle d’IA qui, si elle avait été mise en pratique, aurait pu atténuer ce risque est similaire au préjudice causé par un diagnostic tardif ou un traitement inefficace. Dans tous les cas, le préjudice résultait de l’exercice du jugement clinique du médecin.
Enfin, les prédictions de l’IA qui sont faites sans que le patient soit informé de la prédiction en premier lieu, ou sans l’informer de la prédiction elle-même, risquent de nuire aux patients d’une manière dont ils peuvent ne pas être conscients. Dans l’exemple précédent du VIH, si un patient n’est ni informé de la prédiction en cours ni de la prédiction elle-même, s’il contracte le VIH, il peut même ne pas savoir qu’il existe une possibilité d’atténuer son risque. Si le VIH est un exemple dramatique, de nombreuses autres prédictions potentielles peuvent être faites qui, si le patient n’est pas informé de la prédiction, pourraient entraîner des dommages. La plupart de ces prédictions sont faites parce qu’on pense qu’elles sont bénéfiques pour les patients à certains égards. Cependant, une telle approche risque de normaliser la pratique selon laquelle les informations sur les patients peuvent être utilisées pour faire n’importe quelle prédiction que le clinicien, le développeur, le système de santé ou le payeur souhaite connaître.
Informer les patients que des prédictions de l’IA sont faites et les informer de la prédiction elle-même est non seulement une expression de respect de l’autonomie du patient dans la prise de décision médicale, mais cela garantit également que les patients, ainsi que les cliniciens, peuvent intégrer ces informations dans leur propre prise de décision. En outre, les patients peuvent évaluer eux-mêmes les avantages et les inconvénients du préjudice potentiel ainsi que les possibilités d’atténuation. Les prédictions de l’IA ne sont pas comme les tests de laboratoire et les études radiologiques et elles ne nécessitent pas le même type de considération clinique que les médecins. Contrairement à d’autres types de données médicales, les patients peuvent interpréter eux-mêmes la plupart des prédictions de l’IA et décider s’ils veulent atténuer leur risque de préjudice et comment. La loi sur les remèdes du 21e siècle exige que certaines informations utilisées pour prendre des décisions cliniques soient partagées avec les patients. Cette exigence devrait s’appliquer aux prédictions faites par les modèles d’IA.