Nouvelles
Des réseaux de neurones profonds identifient les tumeurs
Une équipe de chercheurs en intelligence artificielle développe une nouvelle méthode d’apprentissage profond pour identifier et délimiter des tumeurs dans des images médicales.
Le logiciel permet d’analyser automatiquement plusieurs modalités d’images médicales. Par un processus d’autoapprentissage qui s’inspire du fonctionnement des neurones du cerveau, il identifie automatiquement les tumeurs au foie, délimite les contours de la prostate pour la radiothérapie ou permet de compter le nombre de cellules à l’échelle microscopique avec une performance similaire à l’œil d’un expert humain.
Cet algorithme présenté dans l’édition de février 2018 de la revue Medical Image Analysis par des chercheurs de Polytechnique Montréal et du Centre de recherche du Centre hospitalier de l’Université de Montréal (CRCHUM), en collaboration avec l’Institut des algorithmes d’apprentissage de Montréal (MILA) et Imagia, fait la démonstration de la puissance de l’apprentissage profond (deep learning) en imagerie biomédicale. Ce projet, intitulé « Liver Cancer Detection using recent advances in deep learning », a débuté en 2015 grâce à une subvention de MEDTEQ.
« Nous avons développé un logiciel qui pourrait être intégré aux outils de visualisation pour aider les médecins dans l’analyse avancée de différentes modalités d’imagerie médicale. L’algorithme permet d’automatiser des tâches de prétraitement, de détection et segmentation – c’est-à-dire la délimitation – d’images qui ne sont pas réalisées actuellement parce que cela prend trop de temps pour un humain », explique Samuel Kadoury, professeur agrégé au Département de génie informatique et génie logiciel de Polytechnique Montréal, chercheur au CRCHUM et auteur senior de l’étude. « Notre modèle est très versatile, il fonctionne pour des images de tomodensitométrie (CT scan) du foie, des images par résonance magnétique (IRM) de la prostate et des images de cellules en microscopie électronique. »
Prenons l’exemple d’un patient ayant un cancer du foie. Actuellement, lorsqu’il passe un examen de tomodensitométrie, l’image doit être standardisée et normalisée avant d’être lue par le radiologiste. Cette étape de prétraitement relève un peu de la magie. « Il faut ajuster les nuances de gris, parce que souvent l’image est trop foncée ou trop pâle pour discerner les tumeurs », explique le Dr An Tang, radiologiste au Centre hospitalier de l’Université de Montréal, professeur à l’Université de Montréal et coauteur de l’étude. « Cet ajustement avec les techniques d’aide au diagnostic assisté par ordinateur de type CAD est imparfait et parfois on rate ou on détecte à tort des lésions. D’où l’idée d’améliorer la vision par ordinateur. La nouvelle technique par apprentissage profond élimine cette étape de prétraitement. »
Combinaison de réseaux de neurones
Comment les ingénieurs en intelligence artificielle ont-ils conçu ce logiciel intelligent d’imagerie pour visualiser les anomalies du corps humain?
« Nous avons eu l’idée de combiner deux types de réseaux de neurones convolutifs qui se complémentaient très bien pour obtenir une méthode optimisée de segmentation d’images », résume Michal Drozdzal, premier auteur de l’étude, auparavant postdoctorant à Polytechnique Montréal et co-supervisé par Imagia, et maintenant chercheur chez Facebook AI Research à Montréal. « Le premier réseau utilise une donnée biomédicale brute et apprend la normalisation optimale des données. Le second réseau utilise la sortie du premier réseau pour modéliser des cartes de segmentation. »
« Proposer des architectures d’apprentissage automatique spécialement adaptées aux contextes cliniques représente un réel défi. Imagia a donc pris l’initiative de créer une synergie entre le monde médical et le monde de la recherche en intelligence artificielle grâce à des équipes à forte expertise dans les deux domaines », explique Lisa Di Jorio, responsable des collaborations académiques chez Imagia et co-auteure de l'étude.
Un réseau de neurones est en quelque sorte une série complexe d’opérations informatiques qui permet à l’ordinateur d’apprendre par lui-même en lui présentant des quantités importantes d’exemples. Les réseaux de neurones convolutifs (Convolutional Neural Networks ou CNN en anglais) fonctionnent un peu comme notre cortex visuel, en empilant plusieurs couches de traitement pour produire un résultat – une image – de sortie. On peut les représenter comme un empilement de blocs de construction. Il existe plusieurs types de réseaux de neurones, chacun présentant une architecture distincte.
Les chercheurs ont donc combiné deux réseaux de neurones, soit un réseau entièrement connecté (Fully Convolutional Network ou FCN en anglais) avec un réseau résiduel entièrement convolutif (Fully Convolutional Residual Network ou FC-ResNet en anglais).
« Il a fallu entraîner le nouvel algorithme pour qu’il découvre les lésions par lui-même », explique Samuel Kadoury, également titulaire de la Chaire de recherche du Canada en interventions assistées et imagerie médicale. « On présente à l’ordinateur des milliers d’exemples de lésions identifiées manuellement par des humains. C’est ce qu’on dénomme l’étalon de référence, ou gold standard. Ensuite, les réseaux de neurones corrigent les informations par un processus répétitif et l’algorithme finit par apprendre sans supervision comment reconnaître l’image ».
Les chercheurs ont comparé les résultats obtenus par leur algorithme à d’autres algorithmes. « À l’œil, on voit que notre algorithme performe aussi bien, voire mieux que d’autres algorithmes et se rapproche beaucoup de ce qu’un humain ferait s’il avait des heures pour segmenter de nombreuses images. Éventuellement, notre algorithme pourrait être utilisé pour standardiser les images qui proviennent de différents centres hospitaliers », fait valoir Samuel Kadoury.
En imagerie du cancer, les médecins aimeraient mesurer la charge tumorale, c’est-à-dire le volume de toutes les tumeurs dans le corps d’un patient.
« Le nouvel algorithme pourrait être employé comme outil de détection et de suivi de la charge tumorale, pour obtenir un portrait beaucoup plus complet de l’étendue de la maladie », fait valoir le Dr Tang.
Comme ce nouvel algorithme est très polyvalent, il serait possible de l’entraîner pour différentes pathologies comme le cancer du poumon ou du cerveau. Entraîner un algorithme, c’est très long (des heures, voire des jours), mais une fois entraîné, ce logiciel intelligent pourrait analyser les images en fractions de seconde et atteindre un niveau de performance en détection et classification comparable à celui de l’humain.
Il faudra cependant attendre encore plusieurs années avant que les avancées en intelligence artificielle ne soient transférées à la pratique dans nos hôpitaux, estime le Dr Tang : « Nous en sommes à la preuve de concept. Ça fonctionne sur un jeu de données. Si on prend les images de scans réalisées avec différentes techniques et doses de colorant, provenant de manufacturiers ou d’hôpitaux différents, est-ce que l’algorithme va fonctionner aussi bien? Il y a encore plusieurs défis à relever pour appliquer ces algorithmes à large échelle. On est encore dans le registre de la recherche et du développement. Nous devrons valider auprès d’une large population, dans différents scénarios d’acquisitions d’images pour confirmer la robustesse de cet algorithme. »
Et cette grande question qui soulève des débats : est-ce que ces nouvelles avancées en intelligence artificielle vont remplacer l’humain en médecine? « Non, au contraire. L’intelligence artificielle va nous permettre de réaliser des tâches qu’on ne peut pas faire actuellement parce que ça prend trop de temps. Ça nous donne des outils additionnels. On n’élimine pas d’emplois, on vient ajouter de nouvelles capacités pour analyser un grand nombre d'images », conclut le Dr An Tang.
L’article « Learning normalized inputs for iterative estimation in medical image segmentation » a été publié dans l’édition de février 2018 de la revue Medical Image Analysis, et précédemment en ligne le 14 novembre 2017. Cette recherche a été financée par Imagia, MITACS, MEDTEQ, les Fonds de recherche du Québec - santé (FRQS) et la Fondation de l’Association des radiologistes du Québec. L’étude a été menée par Samuel Kadoury, Michal Drozdzal et les coauteurs Gabriel Chartrand, Eugene Vorontsov, Mahsa Shakeri, Lisa Di Jorio, An Tang, Adriana Romero, Yoshua Bengio et Chris Pal. Pour en savoir plus, consultez l’étude : DOI : 10.1016/j.media.2017.11.005.

Segmentation de lésions dans un organe à l’aide de techniques d’apprentissage automatique, à partir d’une image source de tomodensitométrie (CT scan) (à gauche), réalisée par une architecture de réseaux de neurones convolutifs (au centre) et manuellement (à droite). (Photo : Eugene Vorontsov)

Samuel Kadoury, professeur agrégé au Département de génei informatique et génie logiciel de Polytechnique Montréal et chercheur au CRCHUM, et Dr An Tang, radiologiste au Centre hospitalier de l’Université de Montréal et professeur à l’Université de Montréal.
En savoir plus
Fiche d'expertise du professeur Samuel Kadoury
Fiche d'expertise de la Chaire de recherche du Canada en interventions assistées et en imagerie médicale
Site du Département de génie informatique et génie logiciel de Polytechnique Montréal
Site du Centre de recherche du Centre hospitalier de l’Université de Montréal