Quatre patients sur 10 perçoivent un parti pris implicite chez leur médecin, selon un Enquête MITRE-Harris sur l’expérience patient. En plus du fait que les patients sont extrêmement sensibles aux préjugés des prestataires, il a également été démontré que l’utilisation d’outils d’IA et de modèles d’apprentissage automatique tend vers les préjugés raciaux.

Sur une note connexe, un Une étude récente a révélé que 60 % des Américains seraient mal à l’aise avec les prestataires qui comptent sur l’IA pour leurs soins de santé. Mais entre les pénuries de prestataires, la diminution des remboursements et l’augmentation des demandes des patients, les prestataires pourraient à terme n’avoir d’autre choix que de se tourner vers les outils d’IA.

Nouvelles de l’informatique de la santé s’est entretenu avec Jean-Claude Saghbini, expert en IA et directeur de la technologie chez Lumeris, une société de technologie et de services de soins basée sur la valeur, pour discuter de ces préoccupations concernant l’IA dans les soins de santé – et de ce que les dirigeants et les cliniciens des TI de la santé des organisations prestataires peuvent faire à leur sujet .

Q. Comment les DSI des organisations de prestataires de soins de santé et autres responsables informatiques de la santé peuvent-ils lutter contre les préjugés implicites dans l’intelligence artificielle alors que la popularité des systèmes d’IA explose ?

UN. Lorsque nous parlons d’IA, nous utilisons souvent des mots comme “formation” et “apprentissage automatique”. En effet, les modèles d’IA sont principalement formés sur des données générées par l’homme et, en tant que tels, ils apprennent nos préjugés humains. Ces biais sont un défi important en IA et ils sont particulièrement préoccupants dans les soins de santé où la santé d’un patient est en jeu et où leur présence continuera à propager les inégalités en matière de soins de santé.

Pour lutter contre cela, les responsables informatiques de la santé doivent développer une meilleure compréhension des modèles d’IA intégrés aux solutions qu’ils adoptent. Peut-être plus important encore, avant de mettre en œuvre de nouvelles technologies d’IA, les dirigeants doivent s’assurer que les fournisseurs qui proposent ces solutions comprennent les dommages que le biais d’IA peut causer et ont développé leurs modèles et outils en conséquence pour l’éviter.

Cela peut aller de s’assurer que les données de formation en amont sont impartiales et diversifiées, ou d’appliquer des méthodes de transformation aux sorties pour compenser les biais inextricables dans les données de formation.

Chez Lumeris, par exemple, nous adoptons une approche à plusieurs volets pour lutter contre les préjugés dans l’IA. Premièrement, nous étudions et nous adaptons activement aux disparités en matière de santé représentées dans les données sous-jacentes dans le cadre de notre engagement envers la justice et l’équité dans les soins de santé. Cette approche implique l’analyse des données de formation en soins de santé pour les modèles démographiques et l’ajustement de nos modèles pour s’assurer qu’ils n’ont pas d’impact injuste sur des groupes de population spécifiques.

Deuxièmement, nous entraînons nos modèles sur des ensembles de données plus diversifiés pour nous assurer qu’ils sont représentatifs des populations qu’ils desservent. Cela comprend l’utilisation d’ensembles de données plus inclusifs qui représentent un plus large éventail de données démographiques sur les patients, de problèmes de santé et de milieux de soins.

Enfin, nous intégrons des caractéristiques de soins de santé non traditionnelles dans nos modèles, telles que les déterminants sociaux des données sur la santé, garantissant ainsi que les modèles prédictifs et les scores de risque tiennent compte des conditions socio-économiques uniques des patients. Par exemple, deux patients présentant des présentations cliniques très similaires peuvent être orientés vers des interventions différentes pour des résultats optimaux lorsque nous intégrons les données SDOH dans les modèles d’IA.

Nous adoptons également une approche transparente pour le développement et le déploiement de nos modèles d’IA, et intégrons les commentaires des utilisateurs et appliquons une surveillance humaine pour nous assurer que nos recommandations d’IA sont conformes aux meilleures pratiques cliniques.

La lutte contre les préjugés implicites dans l’IA nécessite une approche globale qui prend en compte l’ensemble du cycle de vie du développement de l’IA et ne peut pas être une réflexion après coup. C’est essentiel pour vraiment promouvoir la justice et l’équité dans l’IA des soins de santé.

Q. Comment les systèmes de santé trouvent-ils un équilibre entre les patients qui ne veulent pas que leurs médecins se fient à l’IA et les médecins surchargés qui cherchent de l’aide à l’automatisation ?

UN. Examinons d’abord deux faits. Le fait n ° 1 est que dans le laps de temps entre le réveil le matin et la rencontre lors d’une visite au cabinet, il est probable que le patient et le médecin aient déjà utilisé l’IA plusieurs fois, par exemple en interrogeant Alexa sur la météo, en s’appuyant sur un appareil Nest pour le contrôle de la température, Google Maps pour des directions optimales, etc. L’IA contribue déjà à de nombreuses facettes de nos vies et est devenue incontournable.

Le fait n° 2 est que nous nous dirigeons vers une pénurie de 10 millions de cliniciens dans le monde d’ici 2030, selon l’Organisation mondiale de la santé. L’utilisation de l’IA pour faire évoluer les capacités des cliniciens et réduire l’impact désastreux de cette pénurie n’est plus facultative.

Je comprends parfaitement que les patients soient inquiets, et à juste titre. Mais je nous encourage à considérer l’utilisation de l’IA dans les soins aux patients, par opposition aux patients «traités» par des outils d’IA, ce qui, je pense, est ce qui inquiète la plupart des gens.

Ce scénario a été beaucoup médiatisé ces derniers temps, mais le fait est que les moteurs d’IA ne remplaceront pas les médecins de sitôt, et avec les nouvelles technologies telles que l’IA générative, nous avons une opportunité passionnante de fournir l’échelle indispensable pour le bénéfice du patient et du médecin. L’expertise et l’expérience humaines demeurent des composantes essentielles des soins de santé.

Trouver un équilibre entre les patients qui ne veulent pas être traités par l’IA et les médecins surchargés qui se tournent vers les systèmes d’IA pour obtenir de l’aide est une question délicate. Les patients peuvent craindre que leurs soins soient délégués à une machine, tandis que les médecins peuvent se sentir dépassés par le volume de données qu’ils doivent examiner pour prendre des décisions éclairées.

La clé est l’éducation. De nombreux titres dans les actualités et en ligne sont créés pour catastrophiser et obtenir des clics. En évitant ces articles trompeurs et en se concentrant sur des expériences réelles et des cas d’utilisation de l’IA dans les soins de santé, les patients peuvent voir comment l’IA peut compléter les connaissances d’un médecin, accélérer l’accès à l’information et détecter des modèles qui sont cachés dans les données et qui peuvent facilement être manqués même par le meilleur des médecins.

De plus, en nous concentrant sur les faits et non sur les gros titres, nous pouvons également expliquer que cet outil (et l’IA n’est qu’un outil), s’il est correctement intégré dans les flux de travail, peut amplifier la capacité d’un médecin à fournir des soins optimaux tout en gardant le médecin dans le siège du conducteur en termes d’interactions et de responsabilité envers le patient. L’IA est et peut continuer d’être un outil précieux dans le domaine de la santé, fournissant aux médecins des informations et des recommandations pour améliorer les résultats des patients et réduire les coûts.

Je pense personnellement que la meilleure façon de trouver un équilibre entre les besoins des patients et ceux des médecins en matière d’IA est de veiller à ce que l’IA soit utilisée comme un outil complémentaire pour soutenir la prise de décision clinique plutôt que comme un substitut à l’expertise humaine.

La technologie Lumeris, par exemple, alimentée par l’IA ainsi que d’autres technologies, est conçue pour fournir aux médecins des informations significatives et des recommandations exploitables qu’ils peuvent utiliser pour guider leurs décisions en matière de soins tout en leur permettant de prendre la décision finale.

De plus, nous pensons qu’il est essentiel d’impliquer les patients dans la conversation autour du développement et du déploiement des systèmes d’IA, en veillant à ce que leurs préoccupations et leurs préférences soient prises en compte. Les patients peuvent être plus disposés à accepter l’utilisation de l’IA s’ils comprennent les avantages qu’elle peut apporter à leurs soins.

En fin de compte, il est important de se rappeler que l’IA n’est pas une solution miracle pour les soins de santé, mais plutôt un outil qui peut aider les médecins à prendre de meilleures décisions et à faire évoluer et transformer de manière exponentielle les processus de soins de santé, en particulier avec certains des nouveaux modèles fondamentaux tels que GPT, par exemple.

En s’assurant que l’IA est utilisée de manière appropriée et transparente et en impliquant les patients dans le processus, les organisations de soins de santé peuvent trouver un équilibre entre les préférences des patients et les besoins des médecins surchargés.

Q. De quoi les cadres des prestataires et les cliniciens doivent-ils se méfier alors que de plus en plus de technologies d’IA prolifèrent ?

UN. L’utilisation de l’IA dans l’informatique de la santé suscite en effet beaucoup d’attention et constitue une catégorie d’investissement de premier plan, selon le dernier rapport AI Index publié par Stanford, mais nous sommes confrontés à un dilemme en tant que leaders de la santé.

L’excitation suscitée par les possibilités nous pousse à agir rapidement, mais la nouveauté et parfois la nature de la boîte noire de la technologie déclenchent des alarmes et nous poussent à ralentir et à jouer la sécurité. Le succès dépend de notre capacité à trouver un équilibre entre l’accélération de l’utilisation et l’adoption de nouvelles capacités basées sur l’IA tout en garantissant que la mise en œuvre se fait avec la plus grande sûreté et sécurité.

L’IA s’appuie sur des données de haute qualité pour fournir des informations et des recommandations précises. Les organisations prestataires doivent s’assurer que les données utilisées pour former les modèles d’IA sont complètes, exactes et représentatives des populations de patients qu’elles desservent.

Ils doivent également être vigilants dans la surveillance de la qualité et de l’intégrité continues de leurs données pour s’assurer que l’IA fournit les informations les plus précises et les plus à jour. Cela s’applique également à l’utilisation de grands modèles de langage pré-formés, où l’objectif de qualité et d’intégrité demeure même si l’approche de la validation est nouvelle.

Comme je l’ai mentionné, les biais en matière d’IA peuvent avoir des conséquences importantes sur les soins de santé, notamment en perpétuant les disparités en matière de santé et en réduisant l’efficacité de la prise de décision clinique. Les organisations prestataires doivent se méfier des modèles d’IA qui ne compensent pas adéquatement les biais.

Alors que l’IA devient de plus en plus omniprésente dans les soins de santé, il est essentiel que les organisations prestataires restent transparentes sur la manière dont elles utilisent l’IA. De plus, ils doivent s’assurer qu’il existe une surveillance et une responsabilité humaines pour l’utilisation de l’IA dans les soins aux patients afin d’éviter que des erreurs ou des erreurs ne passent inaperçues.

L’IA soulève une foule de considérations éthiques dans le domaine de la santé, y compris des questions sur la confidentialité, la propriété des données et le consentement éclairé. Les organisations prestataires doivent être conscientes de ces considérations éthiques et veiller à ce que leur utilisation de l’IA, à la fois directement et indirectement via les fournisseurs, soit conforme à leurs principes et valeurs éthiques.

L’IA est là pour rester et évoluer, dans le domaine de la santé et au-delà, en particulier avec les nouvelles avancées passionnantes de l’IA générative et des grands modèles de langage. Il est pratiquement impossible d’arrêter cette évolution – et il n’est pas judicieux de le faire car après quelques décennies d’adoption rapide de la technologie dans les soins de santé, nous n’avons pas encore fourni de solutions qui réduisent la charge des cliniciens tout en offrant de meilleurs soins.

Au contraire, la plupart des technologies ont ajouté de nouvelles tâches et du travail supplémentaire pour les prestataires. Avec l’IA, et plus précisément avec l’avènement de l’IA générative, nous voyons de grandes opportunités pour enfin faire des progrès significatifs vers cet objectif insaisissable.

Pourtant, pour les raisons que j’ai énumérées, nous devons mettre en place des garde-fous pour la transparence, la partialité et la sécurité. Assez intéressant, s’ils sont bien pensés, ce sont ces garde-corps qui assureront une voie accélérée vers l’adoption en nous éloignant des échecs qui provoqueraient des réactions excessives contre-évolutives à l’adoption et à l’utilisation de l’IA.

Suivez la couverture HIT de Bill sur LinkedIn : Bill Siwicki
Envoyez-lui un courriel : [email protected]
Healthcare IT News est une publication HIMSS Media.

01130
84675
66158
76462
04843
57867
69491
76948
06801
77804
32136
42533
58187
12053
00807
78783
65454
59911
00147
74017
84713
42586
17417
91565
11677
00369
38800
46451
00073
40384

By mrtrv