Voir la traduction automatique
Ceci est une traduction automatique. Pour voir le texte original en anglais cliquez ici
#Tendances produits
{{{sourceTextContent.title}}}
Un logiciel repère les lésions cutanées suspectes sur les photos de smartphones
{{{sourceTextContent.subTitle}}}
Le mélanome, qui représente plus de 70 % de tous les cancers de la peau, se produit lorsque des cellules productrices de pigments appelées mélanocytes se multiplient de manière incontrôlée. Ce cancer est généralement diagnostiqué par l'inspection visuelle des lésions pigmentaires suspectes (LPS), et cette détection précoce des lésions dans le cabinet d'un médecin permet souvent de sauver des vies. Cependant, cette approche présente plusieurs inconvénients, notamment le grand nombre de lésions potentielles qu'il faut biopsier et tester avant de confirmer un diagnostic.
{{{sourceTextContent.description}}}
Pour surmonter ces problèmes, des chercheurs du MIT et de quelques autres institutions autour de Boston, ont développé un nouvel outil d'apprentissage profond pour identifier plus facilement les lésions nocives à partir de photographies prises avec un smartphone.
L'article, publié dans Science Translational Medicine, décrit le développement de l'outil à l'aide d'une branche de l'intelligence artificielle appelée réseaux neuronaux convolutifs profonds (DCNNs). Les chercheurs ont entraîné leur outil en utilisant plus de 20 000 images, prises chez 133 patients et provenant de bases de données publiques. Il est important de noter que les images ont été prises à l'aide de différents appareils photo personnels, afin de s'assurer que l'outil fonctionne avec des exemples réels.
Une fois l'outil entraîné à l'aide d'exemples connus, il a démontré une sensibilité de plus de 90,3 % et une spécificité de 89,9 % pour distinguer les LPS des lésions non suspectes, de la peau et des fonds complexes.
Un aspect intéressant qui distingue cet outil des autres repose sur l'identification des lésions à l'aide du critère du "vilain petit canard". Cette méthode, actuellement utilisée par les dermatologues, part du principe que la plupart des grains de beauté d'un individu sont semblables les uns aux autres et ne sont généralement pas suspects, les grains de beauté d'apparence différente étant classés comme "vilains petits canards" et devant faire l'objet d'un examen plus approfondi.
En entraînant le système sur différentes caractéristiques des grains de beauté, telles que la circularité, la taille et l'intensité, la précision des prédictions a été considérablement améliorée : l'algorithme correspondait au consensus de dermatologues chevronnés dans 88 % des cas et à l'opinion de dermatologues individuels dans 86 % des cas. Si cette technologie est confirmée, elle pourrait permettre de réaliser des économies importantes en termes de temps clinique et de coûts liés à l'imagerie et à l'analyse des lésions individuelles.
"Notre recherche suggère que les systèmes exploitant la vision par ordinateur et les réseaux neuronaux profonds, en quantifiant des signes aussi courants, peuvent atteindre une précision comparable à celle des dermatologues experts", a déclaré M. Soenksen, premier auteur de l'article, dans un communiqué de presse du MIT. "Nous espérons que nos recherches relancent le désir d'offrir des dépistages dermatologiques plus efficaces dans les établissements de soins primaires afin de susciter des orientations adéquates".