Voir la traduction automatique
Ceci est une traduction automatique. Pour voir le texte original en anglais cliquez ici
#Actualités du secteur
{{{sourceTextContent.title}}}
Comprendre la faille cruciale de l'IA dans le domaine des soins de santé et sa solution à venir
{{{sourceTextContent.subTitle}}}
Découvrez la faille essentielle de l'IA et pourquoi, une fois qu'elle aura été résolue, les prestataires pourront transformer leur façon de diagnostiquer, de prescrire et de soigner.
{{{sourceTextContent.description}}}
Selon IDC FutureScape, dans les 5 prochaines années, 30% des décisions commerciales et cliniques prises par les organisations de santé et de sciences de la vie seront éclairées par l'intelligence artificielle et, en 2023, la collaboration modérée entre les humains et les machines transformera le mode de fonctionnement d'un système de santé sur trois.
L'engouement des soins de santé pour l'IA
Les médecins et les infirmières traitent une grande quantité d'informations et de variables complexes. L'IA a fait des merveilles dans le traitement de ces informations. De plus, elle a même exploité ces informations pour établir des diagnostics prédictifs pour les patients sans l'intervention des médecins. La Fondation du NHS de l'hôpital ophtalmologique de Moorfield a testé cette capacité de l'IA avec son projet DeepMind.
L'IA du logiciel a été formée sur plus de 15.000 scanners oculaires différents provenant de 7.500 patients différents. Grâce à ces données, le système a pu recommander les mêmes traitements qu'un panel de 8 médecins avec un taux de réussite de 94%.
Malheureusement, lorsqu'il s'agit de la vision ou de la vie d'un patient, même une inexactitude de 1 % justifie un double ou un triple contrôle des résultats. Et c'est là que réside le principal problème de l'IA médicale. Il n'y a pas de véritable "double vérification" de la réponse d'une IA car elle n'est pas transparente quant à la manière dont elle parvient à cette réponse.
L'énigme de la "boîte noire
L'IA n'est pas humaine, même si nous essayons catégoriquement de brouiller cette ligne. Elle ne peut pas fournir de justification ou expliquer son point de vue. Tout ce qu'elle peut faire, c'est fournir ce point de vue.
En effet, les algorithmes qu'un système d'IA utilise pour trouver une réponse sont souvent si complexes qu'il est difficile de tracer une ligne de démarcation entre la réponse proposée et les mesures prises pour la trouver. C'est pourquoi beaucoup parlent de l'IA comme d'une opération de "boîte noire", dans laquelle le processus derrière la réponse fournie est caché derrière un rideau et tout ce que l'opérateur humain voit est le résultat. Mais que se passerait-il si l'IA pouvait expliquer sa réponse ?
IA explicable : supprimer le rideau
L'IA explicable (XAI) est un ensemble d'algorithmes complexes qui peuvent expliquer le raisonnement qui sous-tend sa réponse. Ils existent aujourd'hui, mais ils se limitent à des algorithmes plus simples et plus faciles à retracer, comme les arbres de décision. Malheureusement, les algorithmes plus puissants, tels que les réseaux de neurones, sacrifient l'explicabilité au profit de la précision.
Il est probable que la prochaine percée en matière d'IA sera les systèmes d'IA "interprétables", dans lesquels des algorithmes complexes et puissants peuvent également être observés pour leur raisonnement. Nombreux sont ceux qui tentent d'atteindre le XAI en mettant en œuvre un "moteur de raisonnement", c'est-à-dire un moteur intégré à l'IA conçu pour établir des liens entre de petits bouts d'informations transparentes et la solution réelle proposée. Les applications d'un tel système seraient impressionnantes.
Médecine de précision assistée par l'IA
La médecine de précision désigne un traitement adapté et personnalisé à un patient en fonction de tout, de son mode de vie et de ses habitudes à son environnement et même de sa génétique. Bien entendu, les données statistiques sur toutes ces variables sont vastes et étendues, ce qui en fait des candidats parfaits pour être traités par un programme d'IA d'apprentissage profond.
Les médecins pourront se fier aux plans de traitement qui leur seront fournis par les algorithmes, car le programme fournira un raisonnement exact pour le traitement proposé.
Diagnostic assisté par l'IA
Un professionnel peut utiliser l'IA pour vérifier ou confirmer les diagnostics.
Prenons le cas d'une personne qui aurait pu attraper la grippe. Un système XAI peut dire à un médecin : "Non, ce patient n'a pas la grippe", puis justifier cette déclaration en ajoutant : "le patient présente des éternuements et des maux de tête mais pas de fatigue, un symptôme très courant de la grippe"
A partir de là, le médecin en exercice peut donner son accord. Au contraire, il peut ne pas être d'accord, peut-être parce qu'il a remarqué quelque chose que le système a manqué, comme un symptôme différent ou une facette de l'historique de santé du patient qui augmente la probabilité de contracter la grippe.
Vers une AI transparente et précise
L'IA continuera à se développer en termes de polyvalence et d'application, à mesure que nous la perfectionnerons au fil des ans. Pour en savoir plus sur ces applications passionnantes et sur ce qu'elles signifient pour le secteur de la santé, contactez un professionnel de Cybernet dès aujourd'hui.