Pour tester cette possibilité, les chercheurs ont formé un modèle d’apprentissage en profondeur pour prédire le niveau de douleur autodéclaré du patient à partir de la radiographie du genou. Si le modèle résultant avait une précision terrible, cela suggérerait que la douleur autodéclarée est plutôt arbitraire. Mais si le modèle avait une très bonne précision, cela fournirait la preuve que la douleur autodéclarée est en fait corrélée avec les marqueurs radiographiques de la radiographie.
Après avoir mené plusieurs expériences, notamment pour écarter tout facteur de confusion, les chercheurs ont découvert que le modèle était beaucoup plus précis que KLG pour prédire les niveaux de douleur autodéclarés pour les patients blancs et noirs, mais en particulier pour les patients noirs. Il a réduit de près de moitié la disparité raciale à chaque niveau de douleur.
L’objectif n’est pas nécessairement de commencer à utiliser cet algorithme dans un cadre clinique. Mais en surpassant la méthodologie de KLG, il a révélé que la méthode standard de mesure de la douleur était imparfaite, à un coût beaucoup plus élevé pour les Noirs. Cela devrait inciter la communauté médicale à rechercher les marqueurs radiographiques que l’algorithme pourrait voir et à mettre à jour sa méthodologie de notation.
«Cela met en évidence une partie vraiment passionnante de l’endroit où ces types d’algorithmes peuvent s’intégrer dans le processus de découverte médicale», déclare Obermeyer. «Cela nous dit s’il y a quelque chose ici qui vaut la peine d’être examiné et que nous ne comprenons pas. Cela prépare le terrain pour que les humains interviennent ensuite et, en utilisant ces algorithmes comme outils, essaient de comprendre ce qui se passe.
«Ce qui est cool à propos de cet article, c’est qu’il envisage les choses sous un angle complètement différent», déclare Irene Chen, chercheuse au MIT qui étudie comment réduire les inégalités en matière de soins de santé dans l’apprentissage automatique et qui n’a pas participé à l’article. Au lieu de former l’algorithme sur la base de connaissances d’experts bien établies, dit-elle, les chercheurs ont choisi de traiter l’auto-évaluation du patient comme une vérité. Grâce à cela, il a révélé des lacunes importantes dans ce que le domaine médical considère généralement comme la mesure de la douleur la plus «objective».
«C’était exactement le secret», reconnaît Obermeyer. Si les algorithmes ne sont jamais formés pour correspondre aux performances des experts, dit-il, ils ne feront que perpétuer les lacunes et les inégalités existantes. «Cette étude est un aperçu d’un pipeline plus général que nous sommes de plus en plus capables d’utiliser en médecine pour générer de nouvelles connaissances.»
L’article L’IA pourrait rendre les soins de santé plus équitables – en nous aidant à croire ce que disent les patients est apparu en premier sur zimo news.