La sclérose en plaques est une maladie inflammatoire auto-immune qui affecte le cerveau et la moelle épinière, causant des déficits moteurs, sensoriels et cognitifs. Le diagnostic de la sclérose en plaques repose en grande partie sur la détection visuelle des lésions sur les images cérébrales, ce qui peut s’avérer difficile et fastidieux pour les radiologues et les neuroscientifiques. De nouvelles avancées en intelligence artificielle pourraient permettre d’automatiser une partie de ce processus, ce qui réduirait les risques d’erreurs et fournirait aux professionnels de la santé des hôpitaux canadiens des informations précieuses sur la gravité et l’évolution de la maladie.

La sclérose en plaques (SP) est une maladie dans laquelle le système immunitaire « attaque » la gaine de myéline qui recouvre et protège les fibres nerveuses, créant des lésions dans le cerveau et la moelle épinière qui peuvent entraîner des problèmes de mobilité, des douleurs, de la fatigue et bien d’autres symptômes. En 2020, la Société canadienne de la sclérose en plaques du Canada rapportait que près de 12 Canadiens sont diagnostiqués chaque jour. Bien qu’il n’existe actuellement aucun traitement curatif pour la SP, la possibilité de mesurer la présence et l’évolution des lésions permet aux cliniciens de savoir si l’état d’un patient va s’améliorer ou se détériorer et les aide à décider du traitement qui offrira aux patients la meilleure qualité de vie possible. Cependant, le diagnostic de la sclérose en plaques à l’aide des images cérébrales des patients prend beaucoup de temps et est sujet à l’erreur humaine ainsi qu’à une certaine variabilité lorsqu’il est effectué manuellement. L’objectif de mon projet de recherche à Polytechnique Montréal est de développer des algorithmes d’IA capables d’analyser automatiquement les lésions de SP en utilisant des images cérébrales de patients de plusieurs hôpitaux canadiens pour les entraîner. L’espoir est d’aider les personnes souffrant de SP à recevoir un traitement optimal, tout en permettant aux radiologues d’en faire plus avec moins.

La SP se caractérise par la présence de lésions nerveuses visibles sur les images tridimensionnelles du cerveau ou de la moelle épinière générées par imagerie par résonance magnétique (IRM). Un examen minutieux de ces images est nécessaire, puisque les lésions dans les différentes parties du cerveau et de la moelle épinière peuvent entraîner des conséquences différentes. Par exemple, des lésions sur la colonne vertébrale peuvent mener à des troubles de l’équilibre ou à une paralysie, tandis que les lésions sur le cerveau peuvent occasionner, selon leur emplacement, des pertes de mémoire et des troubles de la concentration. Récemment, une équipe de chercheurs de Polytechnique Montréal a constaté que la taille et l’emplacement des lésions étaient associés à la gravité et à l’évolution du handicap physique du patient.

Pour quantifier la taille et l’emplacement des lésions de SP, il faut « segmenter » les lésions individuelles sur chaque coupe de cerveau générée par IRM, le nombre de lésions pouvant atteindre des centaines pour un seul patient. Un expert doit donc entourer manuellement chaque lésion possible sur chaque coupe, ce qui peut prendre des heures pour un seul patient. En raison de cette lourde charge de travail, cette méthode ne fait actuellement pas partie de la routine clinique.

L’IA peut contribuer à automatiser ce processus en entraînant un algorithme à l’aide d’images qui ont déjà été segmentées par un radiologue afin que l’algorithme puisse apprendre à reproduire sur d’autres images semblables les décisions de l’expert. S’il est bien entraîné, un tel algorithme automatisé pourrait aider à détecter des lésions qu’un œil humain pourrait manquer. Quantifier la taille des lésions est aussi un défi pour un humain : il est relativement « facile » de les compter, mais beaucoup plus difficile de dire dans quelle mesure elles ont grossi depuis les dernières images, une tâche que l’IA peut faire en une fraction de seconde.

Pour les entraîner, les algorithmes ont besoin d’un grand nombre d’exemples d’images d’IRM sur lesquelles un radiologue a segmenté manuellement des lésions de SP. Ce type de données est rare en raison des préoccupations liées à la protection de la vie privée et au coût élevé de la réalisation des images et de leur segmentation. Les algorithmes sont donc souvent entraînés sur de petits ensembles d’images cérébrales, ce qui s’avère un problème, puisque les images générées par IRM peuvent être très différentes les unes des autres selon le type d’appareil ou les paramètres d’acquisition utilisés. La différence entre les images réside principalement dans le contraste ou les couleurs utilisés pour voir des structures cérébrales précises, par exemple en mettant l’accent sur la matière blanche, la matière grise ou les vaisseaux sanguins. Les algorithmes actuels sont principalement entraînés à l’aide d’images utilisant le même type de contraste et ne parviennent donc pas à détecter les lésions sur des images générées en employant d’autres paramètres. Contrairement aux humains, les algorithmes sont incapables d’apprendre un concept et de le généraliser afin de l’appliquer à de nouvelles situations. Par exemple, si un algorithme a été entraîné à détecter des ours et n’a été exposé qu’à des exemples visuels d’ours noirs, il pourrait ne pas être en mesure de détecter un ours polaire lorsqu’il en voit un. Il en va de même pour les lésions sur les images provenant de différents environnements d’IRM.

Nos recherches actuelles à Polytechnique Montréal tentent de surmonter ce défi. Mon objectif est de créer un algorithme plus général qui pourrait être utilisé dans plusieurs hôpitaux, indépendamment du type d’appareil ou des paramètres d’acquisition employés. La construction d’un tel algorithme général reste un problème non résolu, mais nous croyons pouvoir relever ce défi en l’entraînant avec une plus grande quantité de données diverses provenant de différents hôpitaux. Pour y arriver, nous utiliserons la nouvelle plateforme CODA, une initiative canadienne qui nous permet d’utiliser de manière sécuritaire les données de différents hôpitaux pour entraîner notre algorithme. Le mécanisme d’entraînement de CODA est fondé sur une technique appelée « apprentissage fédéré » qui consiste en un premier temps à entraîner séparément des algorithmes adaptés à chaque hôpital et, dans un deuxième temps, à les fusionner en un algorithme plus général. Cette approche permet d’éviter le partage de données confidentielles entre les hôpitaux et donne aux chercheurs un accès sûr à des images d’IRM très différentes, ce qui permet à l’algorithme d’être exposé à « toutes les espèces d’ours » pour qu’il n’échoue pas lorsqu’il est devant une couleur de fourrure différente.

La plateforme CODA est une initiative prometteuse pour le développement d’algorithmes plus efficaces pour aider à diagnostiquer la sclérose en plaques. Des améliorations de pointe à la détection et à la quantification automatiques de lésions pourraient, un jour, être généralisées à d’autres pathologies par l’entremise de l’utilisation privée et sécuritaire de données cliniques et, par le fait même, pourraient possiblement fournir une aide cruciale aux professionnels de la santé et à leurs patients.

Cet article a été réalisé par Louis-François Bouchard, Doctorat en Génie biomédical (Polytechnique Montréal), avec l’accompagnement de Claudia Picard-Deland, conseillère en vulgarisation scientifique, dans le cadre de notre initiative « Mon projet de recherche en 800 mots ».