CM 3 : Radiomique en imagerie médicale – Notes détaillées
Introduction
- Augmentation massive de la numérisation des données médicales ⇒ besoin d’outils d’analyse automatisés.
- Intelligence artificielle (IA) : apporte de nouvelles approches (machine learning, deep learning) pour traiter données et images.
- Objectifs : alléger les tâches répétitives des cliniciens et fournir une aide à la décision.
- Big data : volumes massifs, véloces, variés, nécessitant des technologies avancées pour acquisition, archivage, distribution et analyse.
Les *-omiques (« *-omics »)
- Vise la caractérisation/quantification d’ensembles moléculaires afin de lire le phénotype.
- Exemples : génomique (ADN), transcriptomique (ARN), protéomique (protéines), métabolomique (métabolites).
- Radiomique : branche appliquée à l’image médicale.
- Extraction quantitative de signaux cachés (intensité, forme, texture) présents dans les pixels (2 D) ou voxels (3 D).
- Hypothèses : (1) le processus physiopathologique se reflète dans l’image ; (2) certaines informations sont invisibles à l’œil humain.
- Peut être couplée à l’IA.
Modalités d’imagerie médicale
- Principe général : mesurer un paramètre physique et encoder spatialement la mesure.
- Tableau récapitulatif (paramètre ↔ modalité) :
- Ondes ultrasonores → échogénicité → échographie.
- Résonance magnétique → temps de relaxation T1, T2 → IRM.
- Rayonnement électromagnétique visible → endoscopie.
- Rayons X → radiographie, tomodensitométrie (CT).
- Rayons γ → scintigraphie / médecine nucléaire (ex. TEP).
- Intensités ordonnées en lignes/colonnes puis converties en niveaux de gris (0 = noir, 255 = blanc) ou codage couleur (RGB).
- Possible codage en entiers relatifs, décimaux, nombres complexes (images paramétriques) ou vecteurs (ex. IRM de diffusion).
- Connexité :
- 2 D : 4-connexité ou 8-connexité (pixel central + voisins).
- 3 D : 6, 18 ou 26-connexités selon les directions prises.
Radiomique : vue d’ensemble
- 4 étapes canoniques (ordre chronologique validé par Q10 des annales) :
- Segmentation
- Traitement d’image
- Extraction d’information (textures)
- Réduction des dimensions / sélection de variables
- Objectif global : transformer une image en biomarqueurs quantitatifs exploitables cliniquement.
Étape 1 : Segmentation
- Délimite la zone/volume d’intérêt (ROI 2 D / VOI 3 D).
- Types :
- Manuelle : précise mais chronophage, variabilité intra/inter-observateur.
- Semi-automatique : traçage partiel + interpolation.
- Automatique (deep learning) : reproductible mais dépend du domaine d’apprentissage.
- Implémentation : génération d’une carte de labels (0 = autre, 1 = tumeur, 2 = œdème, 3 = nécrose, etc.). Plusieurs cartes possibles si informations exclusives.
- Validation cruciale : démontrer faible variabilité et bonne robustesse.
Étape 2 : Traitement d’image
Histogrammes
- Histogramme = distribution du nombre de pixels par intervalle d’intensité.
- Indépendant de la position spatiale des pixels.
- Critère d’exposition : histogramme étalé (bonne exposition), tronqué à gauche (sous-exposition), tronqué à droite (surexposition).
- Pour les images RGB : histogrammes séparés pour chaque canal.
Segmentation par seuillage
- Exemple : TEP FDG d’un cancer bronchique.
- Seuils relatifs au maximum de la lésion testés (10 %, 15 %, 25 %, 35 %).
- Observation : seuil optimal situé entre 10 % et 15 %.
- Scintigraphie rénale au DMSA :
- Analyse multi-seuils absolus (50, 60, 70, 80, 90, 100) ou relatifs (0,1 – 0,3 du max).
- Seuil optimisé à ~20 % du maximum.
Méthode d’Otsu
- Trouve le seuil qui minimise la variance intra-classe / maximise la variance inter-classe.
- Application : délimiter un mélanome cutané.
Rééchantillonnage & interpolation
- Nécessité de voxels isotropes dx = dy = dz pour de nombreux algorithmes.
- Cas fréquent : CT ou TEP isotropes ; IRM souvent anisotrope ⇒ rééchantillonnage.
- Interpolations 1 D/2 D :
- Plus proche voisin : simple – pas de nouvelles valeurs.
- Linéaire / bilinéaire : segments reliant données voisines.
- Cubique / bicubique : polynômes 3^{ème} degré → rendu plus doux.
- Autres : sinc, Gauss, Lanczos.
- Exemple : scintigraphie cardiaque stress/rest – l’interpolation bicubique offre un rendu cliniquement exploitable.
- Risque : lisser les textures ⇒ choisir un compromis.
Quantification et échantillonnage
- Conversion analogique/numérique : limitation du nombre de niveaux (2^4 = 16 valeurs pour 4 bits).
- Échantillonnage : temps mort du capteur ⇒ valeurs mesurées à intervalle fixe.
- Effet combiné : la texture finale dépend du maillage temporel/spatial et de la résolution en intensité.
- Exemple visuel : qualité d’une image dégrade si l’on réduit échantillonnage (pixellisation) ou quantification (< 32 niveaux de gris).
Discrétisation des intensités (requantification)
- Paramètres :
- Étendue (range) des valeurs.
- Nombre d’intervalles (bin number).
- Largeur de bin (bin width).
- Relation : \text{range} = \text{binnumber} \times \text{binwidth}
- Choix stratégique :
- Intervalles trop larges → perte de textures.
- Trop fins → mélange au bruit.
- Calcul des descripteurs sur ROI/VOI (après éventuels filtres : flou, rescale, etc.).
- Catégories :
- Statistiques du 1er ordre (issues de l’histogramme)
- Minimum, maximum, moyenne, pic local, écart-type.
- Forme de l’histogramme : Skewness (asymétrie), Kurtosis (aplatissement).
- Descripteurs de forme (« shape »)
- Surface, volume, compacité, sphéricité, spiculation, etc.
- Matrices de texture
- Matrice de co-occurrence des niveaux de gris (GLCM), matrice d’occurrence jointe (GLRLM, GLSZM…), périodicité, directivité.
- Exemple : scanner coronarien calcifié (Kolossvary 2017)
- Deux modes dans l’histogramme ; Skewness & Kurtosis différencient régions malgré écart-type similaire.
Étape 4 : Réduction des dimensions / sélection de variables
- Surabondance de descripteurs ⇒ risque de sur-apprentissage.
- But : conserver variables non redondantes, reproductibles, cliniquement pertinentes.
- Méthodes :
- Tests de robustesse intra/inter-observateur.
- Analyse de corrélation / clustering pour éliminer variables colinéaires.
- Algorithmes de machine learning (ex. LASSO, PCA, Random Forest importance, etc.).
- Pipeline classique : jeu d’entraînement vs jeu de test distincts.
Limitations et considération clinique
- Manque de standardisation : protocoles d’acquisition, reconstruction (taille voxel, filtres lisseurs), paramètres de pré-traitement.
- Nombreuses études rétrospectives ; besoin d’études prospectives.
- Robustesse limitée : un descripteur pertinent pour une pathologie ne l’est pas forcément pour une autre.
- Modalité-dépendance :
- CT & TEP-CT : influencées par voxel size, kernel, filtration Gaussian.
- IRM : intensités relatives et voxels souvent anisotropes.
Exemples et applications
- Nodules pulmonaires en CT (Wilson 2016) :
- Descripteurs de texture aident à distinguer bénin vs malin.
- Anomalies parenchymateuses pulmonaires (Frix 2021) :
- Sélection de textures + réseaux de neurones profonds pour classifier lésions (bénigne, maligne, douteuse).
- Radiomique = source potentielle de biomarqueurs non invasifs, alimentant des modèles d’IA pour pronostic, diagnostic, prédiction de réponse thérapeutique.
Références aux annales L2 SPS (Contrôle continu n°2 2021-2022)
- Q8 QCD : « La radiomique tente de relier les informations issues de l’imagerie médicale à un phénotype. » ⇒ Affirmation vraie.
- Q10 QRU : ordre chronologique correct des étapes radiomiques : C Segmentation → Traitement d’image → Extraction d’information → Réduction des dimensions.
Conclusion générale
- La radiomique transforme les examens d’imagerie en variables quantitatives utilisables comme biomarqueurs.
- L’intégration dans des workflows d’IA ouvre la voie à des outils cliniques d’aide à la décision.
- Défis majeurs : standardisation, validation prospective, robustesse inter-site.