Previous Up Next

Résumé

Les appareils d’imagerie par résonance magnétique (IRM) fournissent des données brutes dont l’interprétation nécessite un processus algorithmique nommé reconstruction. Jusqu’à la dernière décennie, cette reconstruction se faisait au moyen d’algorithmes de complexité modérée, notamment grâce à d’importants efforts dans l’optimisation de l’instrumentation. Récemment, de nouvelles techniques ont inversé cette tendance en permettant, avec un renfort de la partie algorithmique, de réduire les contraintes instrumentales. Alors que ces nouvelles méthodes souffrent d’une complexité de calcul de plus en plus élevée, cette thèse se concentre sur le développement d’algorithmes de reconstruction algorithmiquement plus efficaces.

Dans un premier temps, nous présentons les principes sous-jacents à l’acquisition des données IRM et nous justifions le modèle linéaire classique. Sur la base de cette équation continue, nous présentons des implémentations efficaces du modèle discret équivalent. Une revue des algorithmes standards et des solutions actuellement proposées est présentée dans un cadre général où la reconstruction est vue comme un problème d’optimisation pouvant naturellement inclure une régularisation.

Nous présentons ensuite de nouveaux outils de simulation destinés à la validation des méthodes de reconstruction. Ces outils, modélisant la sensibilité de l’antenne de réception, permettent de simuler des expériences d’IRM parallèle. Pour tenir compte de la nature continue de la physique, nous proposons l’utilisation de fantômes analytiques. Contrairement aux simulations discrètes, ces fantômes ne génèrent pas de repliement spectral, nous offrant ainsi la possibilité d’étudier comment ce repliement spectral affecte la qualité des reconstructions. Dans ce but, nous résolvons analytiquement la transformée de Fourier de régions paramétriques permettant de reproduire de manière réaliste des caractéristiques anatomiques. Nos résultats montrent que la situation dite de crime inverse affecte de manière significative l’évaluation de la performance des méthodes de reconstruction; plus particulièrement celles non linéaires.

Finalement, nous examinons la conception d’algorithmes réalisant la reconstruction avec une contrainte de parcimonie dans un domaine d’ondelettes. En nous appuyant sur les dernier développements en optimisation convexe à large échelle, nous proposons une stratégie d’accélération qui tient compte du problème d’IRM et nous apportons des preuves théoriques de son avantage. Nous développons ceci en une méthode pratique combinant les bénéfices de la rapidité et de la qualité. Appliquée sur des problèmes ambitieux, avec des données simulées et in vivo, notre méthode réduit significativement le temps de reconstruction par rapport à d’autres méthodes de pointe, sans compromettre la qualité de reconstruction.





Mots-clés: IRM, problème inverse, ondelettes, parcimonie, reconstruction non-linéaire, sous-échantillonnage, spirale, non-Cartésien, variation totale, acquisition comprimée, algorithme de seuillage itératif, ISTA, FISTA, FWISTA, simulation analytique, fantôme de Shepp et Logan, crime inverse, IRM parallèle


Previous Up Next