Voir la traduction automatique
Ceci est une traduction automatique. Pour voir le texte original en anglais cliquez ici
#Actualités du secteur
{{{sourceTextContent.title}}}
Médecine 5.0 : algorithmes d'apprentissage automatique dans le domaine de la santé par Medica Magazine
{{{sourceTextContent.subTitle}}}
Alena Buyx, directrice de l'Institut d'histoire et d'éthique de la médecine, chaire d'éthique en médecine et technologies de la santé, Université technique de Munich (TUM) et membre du Conseil d'éthique allemand
{{{sourceTextContent.description}}}
L'intelligence artificielle est porteuse de la promesse du salut en médecine : elle est destinée à décharger les professionnels de la santé, à économiser du temps et de l'argent et à accomplir des tâches de manière fiable et infatigable. Mais avant d'autoriser les algorithmes d'IA à diagnostiquer les maladies, de nombreuses questions techniques et éthiques nécessitent encore des réponses. Découvrez comment l'IA et la "Médecine 5.0" peuvent transformer la santé au salon MEDICA 2019 dans le MEDICA ECON FORUM by TK.
Dans cette interview avec MEDICA-tradefair.com, le professeur Alena Buyx parle des algorithmes de boîte noire de l'apprentissage machine et décrit les défis qu'ils posent pour la médecine et la politique.
Prof. Buyx, qu'est-ce que "Médecine 5.0" ?
Alena Buyx : "Médecine 5.0" fait référence aux algorithmes d'apprentissage machine qui peuvent aussi prendre des décisions autonomes. "Autonome" dans ce contexte signifie qu'ils peuvent apprendre eux-mêmes les règles de traitement à partir de grandes données, c'est-à-dire de grands ensembles de données, et les utiliser pour effectuer un diagnostic et recommander un traitement par la suite. Cependant, nous ne comprenons pas toujours ce qui se cache derrière chacune des étapes qu'ils ont utilisées pour formuler ces recommandations.
Ces algorithmes fonctionnent-ils comme des boîtes noires dont on ne connaît pas les processus ?
Buyx : La médecine essaie d'éviter l'utilisation des algorithmes classiques de la boîte noire. Il s'agit d'une exigence éthique, qui fait également partie des points de vue que je défends : Nous devons encore être capables de comprendre ce qui se passe à l'intérieur de la boîte noire. Cela ne concerne pas nécessairement toutes les étapes, mais nous devons identifier les paramètres de décision qu'un algorithme utilise. Il devrait s'agir de critères médicaux et non de critères qui sont statistiquement significatifs mais non pertinents sur le plan clinique.
Un exemple bien connu est un algorithme qui a été chargé de diagnostiquer la tuberculose au moyen de radiographies. Entre autres choses, l'algorithme a examiné les bords des images radiographiques et, après l'enseignement lui-même, a déterminé que les images radiographiques mobiles présentent souvent des anomalies compatibles avec la tuberculose. Cependant, c'est en fait parce que les systèmes mobiles sont plus couramment utilisés dans les pays où la charge de morbidité de la tuberculose est élevée. Inutile de dire que c'est un facteur entièrement non médical qui ne favorise pas l'exactitude clinique. Ce modèle de boîte noire ne doit pas être autorisé. Il a besoin d'une annotation pour décrire les critères bruts. Nous devons également être en mesure de modifier l'algorithme de manière à ce qu'il n'utilise plus un certain critère.
Quel serait l'impact de ces algorithmes sur le système de santé ?
Buyx : Jusqu'à présent, les algorithmes autonomes n'ont pas fait l'objet d'une mise en œuvre pratique à grande échelle parce qu'ils ne sont pas encore assez bons et comportent de nombreux défis. Si nous parvenons à concevoir des algorithmes éthiques, cela peut déclencher une transformation positive en médecine. Mais seulement s'ils peuvent poser un diagnostic plus précis qu'un médecin ou faire des recommandations thérapeutiques qui font autorité et si nous avons suffisamment d'informations sur les raisons pour lesquelles ils le font et si ces conclusions sont fondées sur un fondement médical raisonnable. C'est alors qu'ils pouvaient libérer du temps pour les patients, éviter les erreurs et réduire les coûts.
Vous en avez brièvement parlé tout à l'heure : Quels problèmes ou préoccupations éthiques ces algorithmes soulèvent-ils ?
Buyx : Tout d'abord, les algorithmes doivent présenter des données probantes complètes et fonctionner de façon fiable et précise pour éviter les risques et les dommages. Nous ne devons tout simplement pas devenir la proie de notre obsession pour la technologie. Deuxièmement, cela ne doit pas donner lieu à des idées fausses selon lesquelles les algorithmes et l'IA remplaceront les médecins ou les autres professionnels de la santé. Les algorithmes exécutent une tâche précise et bien définie et sont incapables de rechercher d'autres caractéristiques qu'un médecin voit lorsqu'il examine un patient, ce qui signifie qu'ils ne peuvent établir un diagnostic différentiel complet.
Troisièmement, il ne doit pas y avoir de biais algorithmique découlant des ensembles de données ou de la programmation. Nous avons tous entendu parler des algorithmes de reconnaissance faciale où les ensembles de données respectifs ne sont pas aussi divers que le monde réel. C'est pourquoi ces types d'algorithmes sont excellents pour identifier les visages des hommes blancs, mais luttent pour reconnaître les visages des femmes ou des personnes de couleur. Nous devrons corriger cela grâce aux données sur la formation.
Nous devons également examiner comment et dans quelle mesure nous éduquons les patients sur le rôle des algorithmes et comment nous assurons l'autonomie du patient lorsque les algorithmes atteignent le statut d'une consultation médicale réelle comme système d'assistance.
Que doivent faire les décideurs politiques pour créer le bon cadre ?
Buyx : Les décideurs politiques doivent absolument fournir un cadre pour que ces types d'algorithmes soient approuvés comme dispositifs médicaux. Il va sans dire que le processus d'approbation diffère de celui d'un appareil à ultrasons. L'une des tâches majeures à cet égard est de rendre ces processus durables, éthiques et socialement responsables. Le plus grand défi réside dans le domaine commercial et les applications liées à la santé. Les exigences imposées dans ce domaine sont loin d'être aussi strictes que celles imposées aux dispositifs médicaux.
Un certain nombre d'applications de santé mentale utilisent des algorithmes artificiellement intelligents. Nous devons décider comment nous prévoyons gérer la situation si ces applications engagent directement les consommateurs ou les patients sans la supervision et la participation d'un médecin. Si les applications sont destinées à fournir efficacement un soutien clinique qui relevait auparavant (et à juste titre) des responsabilités d'un médecin, nous devons nous assurer que ces applications sont classées et traitées comme des dispositifs médicaux potentiels.