Voir la traduction automatique
Ceci est une traduction automatique. Pour voir le texte original en anglais cliquez ici
#Actualités du secteur
{{{sourceTextContent.title}}}
Le réseau d'étude profond détecte, localise des fractures sur des rayons X de poignet
{{{sourceTextContent.subTitle}}}
Une équipe de Singapour a démontré qu'un réseau neurologique circonvolutionnaire de détection d'objet (CNN) pourrait exactement détecter et localiser des fractures sur des rayons X de poignet, selon une étude du 30 janvier éditée en radiologie : Intelligence artificielle. La méthode peut être plus vérifiable que CNNs traditionnel.
{{{sourceTextContent.description}}}
Les études antérieures ont démontré que CNNs peut détecter des fractures sur des radiographies, ont écrit le premier l'auteur Yee Liang Thian, DM, d'université nationale de Singapour et de collègues, mais ces méthodes se concentrent sur classifier des images en tant que des fractures ou non-fractures sans le composant de localisation. Cette large classification le rend dur pour que les cliniciens vérifient des résultats.
« La tâche de la détection d'objet implique deux questions fondamentales au sujet d'une image : quel objet est dans lui, et où il est dans l'image, » Thian s'est et autres ajouté. « Ce contraste avec des études antérieures comportant l'étude profonde qui a approché la détection de fracture comme problème de classification d'image, qui décrit ce qui est dans l'image, mais pas où il est. »
Les auteurs ont extrait plus de 7 300 radiographies de poignet à partir d'un hôpital PACS, et les radiologues ont annoté toutes les fractures de rayon et de cubitus. Quatre-vingt-dix pour cent des données ont été employés pour former le modèle, 10 pour cent des images ont été sauvés pour la validation.
De façon générale, le modèle détecté et correctement localisé 91 pour cent (310/340 d'images) et 96 pour cent (236/245 d'images) de toutes les fractures de rayon et de cubitus sur les vues frontales et latérales, respectivement. Sur une base de par-image le CNN a réalisé une sensibilité, une spécificité et un AUC de 96 pour cent, 83 pour cent et 0,92, respectivement pour la vue frontale. Pour les vues latérales ces nombres étaient de 97 pour cent, 86 pour cent et 0,93, respectivement. La sensibilité, la spécificité et les AUC de par-étude étaient de 98 pour cent, 73 pour cent et 0,89, respectivement.
« Le réseau de détection d'objet utilisé dans notre étude fournit la classification aussi bien que l'information spatiale de localisation, qui est plus instructive qu'un label simple de classification et facilement vérifiable par le clinicien, » les auteurs a écrit. « Une telle informations sur l'emplacement seraient utiles en développant des algorithmes cliniques de étude profonds pour aider des radiologues dans le reportage. »
Thian et collègues ont rapporté que leur réseau a fait les labels faussement positifs sur de vieilles fractures ou les défauts de forme, qu'ils ont crus s'est dirigé pour recouvrir dans les caractéristiques instruites des fractures aiguës. En dépit de ceci, le groupe les a écrits a démontré la faisabilité de leur réseau de détection d'objet qui peut fournir une pierre de progression importante pour le futur développement d'AI.
« La capacité de prévoir les informations sur l'emplacement de l'anomalie avec les réseaux neurologiques profonds est une étape importante vers développer médicalement les outils utiles d'intelligence artificielle pour augmenter le radiologue rapportant, » les auteurs ont conclu.