CM 3 : Radiomique en imagerie médicale – Notes détaillées

Introduction

  • Augmentation massive de la numérisation des données médicales ⇒ besoin d’outils d’analyse automatisés.
  • Intelligence artificielle (IA) : apporte de nouvelles approches (machine learning, deep learning) pour traiter données et images.
  • Objectifs : alléger les tâches répétitives des cliniciens et fournir une aide à la décision.
  • Big data : volumes massifs, véloces, variés, nécessitant des technologies avancées pour acquisition, archivage, distribution et analyse.
Les *-omiques (« *-omics »)
  • Vise la caractérisation/quantification d’ensembles moléculaires afin de lire le phénotype.
    • Exemples : génomique (ADN), transcriptomique (ARN), protéomique (protéines), métabolomique (métabolites).
  • Radiomique : branche appliquée à l’image médicale.
    • Extraction quantitative de signaux cachés (intensité, forme, texture) présents dans les pixels (2 D) ou voxels (3 D).
    • Hypothèses : (1) le processus physiopathologique se reflète dans l’image ; (2) certaines informations sont invisibles à l’œil humain.
    • Peut être couplée à l’IA.

Modalités d’imagerie médicale

  • Principe général : mesurer un paramètre physique et encoder spatialement la mesure.
  • Tableau récapitulatif (paramètre ↔ modalité) :
    • Ondes ultrasonores → échogénicité → échographie.
    • Résonance magnétique → temps de relaxation T1, T2 → IRM.
    • Rayonnement électromagnétique visible → endoscopie.
    • Rayons X → radiographie, tomodensitométrie (CT).
    • Rayons γ → scintigraphie / médecine nucléaire (ex. TEP).
Formation et codage des images
  • Intensités ordonnées en lignes/colonnes puis converties en niveaux de gris (0 = noir, 255 = blanc) ou codage couleur (RGB).
  • Possible codage en entiers relatifs, décimaux, nombres complexes (images paramétriques) ou vecteurs (ex. IRM de diffusion).
  • Connexité :
    • 2 D : 4-connexité ou 8-connexité (pixel central + voisins).
    • 3 D : 6, 18 ou 26-connexités selon les directions prises.

Radiomique : vue d’ensemble

  • 4 étapes canoniques (ordre chronologique validé par Q10 des annales) :
    1. Segmentation
    2. Traitement d’image
    3. Extraction d’information (textures)
    4. Réduction des dimensions / sélection de variables
  • Objectif global : transformer une image en biomarqueurs quantitatifs exploitables cliniquement.

Étape 1 : Segmentation

  • Délimite la zone/volume d’intérêt (ROI 2 D / VOI 3 D).
  • Types :
    • Manuelle : précise mais chronophage, variabilité intra/inter-observateur.
    • Semi-automatique : traçage partiel + interpolation.
    • Automatique (deep learning) : reproductible mais dépend du domaine d’apprentissage.
  • Implémentation : génération d’une carte de labels (0 = autre, 1 = tumeur, 2 = œdème, 3 = nécrose, etc.). Plusieurs cartes possibles si informations exclusives.
  • Validation cruciale : démontrer faible variabilité et bonne robustesse.

Étape 2 : Traitement d’image

Histogrammes
  • Histogramme = distribution du nombre de pixels par intervalle d’intensité.
  • Indépendant de la position spatiale des pixels.
  • Critère d’exposition : histogramme étalé (bonne exposition), tronqué à gauche (sous-exposition), tronqué à droite (surexposition).
  • Pour les images RGB : histogrammes séparés pour chaque canal.
Segmentation par seuillage
  • Exemple : TEP FDG d’un cancer bronchique.
    • Seuils relatifs au maximum de la lésion testés (10 %, 15 %, 25 %, 35 %).
    • Observation : seuil optimal situé entre 10 % et 15 %.
  • Scintigraphie rénale au DMSA :
    • Analyse multi-seuils absolus (50, 60, 70, 80, 90, 100) ou relatifs (0,1 – 0,3 du max).
    • Seuil optimisé à ~20 % du maximum.
Méthode d’Otsu
  • Trouve le seuil qui minimise la variance intra-classe / maximise la variance inter-classe.
  • Application : délimiter un mélanome cutané.
Rééchantillonnage & interpolation
  • Nécessité de voxels isotropes dx = dy = dz pour de nombreux algorithmes.
  • Cas fréquent : CT ou TEP isotropes ; IRM souvent anisotrope ⇒ rééchantillonnage.
  • Interpolations 1 D/2 D :
    • Plus proche voisin : simple – pas de nouvelles valeurs.
    • Linéaire / bilinéaire : segments reliant données voisines.
    • Cubique / bicubique : polynômes 3^{ème} degré → rendu plus doux.
    • Autres : sinc, Gauss, Lanczos.
  • Exemple : scintigraphie cardiaque stress/rest – l’interpolation bicubique offre un rendu cliniquement exploitable.
  • Risque : lisser les textures ⇒ choisir un compromis.
Quantification et échantillonnage
  • Conversion analogique/numérique : limitation du nombre de niveaux (2^4 = 16 valeurs pour 4 bits).
  • Échantillonnage : temps mort du capteur ⇒ valeurs mesurées à intervalle fixe.
  • Effet combiné : la texture finale dépend du maillage temporel/spatial et de la résolution en intensité.
  • Exemple visuel : qualité d’une image dégrade si l’on réduit échantillonnage (pixellisation) ou quantification (< 32 niveaux de gris).
Discrétisation des intensités (requantification)
  • Paramètres :
    • Étendue (range) des valeurs.
    • Nombre d’intervalles (bin number).
    • Largeur de bin (bin width).
  • Relation : \text{range} = \text{binnumber} \times \text{binwidth}
  • Choix stratégique :
    • Intervalles trop larges → perte de textures.
    • Trop fins → mélange au bruit.

Étape 3 : Extraction des textures

  • Calcul des descripteurs sur ROI/VOI (après éventuels filtres : flou, rescale, etc.).
  • Catégories :
    1. Statistiques du 1er ordre (issues de l’histogramme)
    • Minimum, maximum, moyenne, pic local, écart-type.
    • Forme de l’histogramme : Skewness (asymétrie), Kurtosis (aplatissement).
    1. Descripteurs de forme (« shape »)
    • Surface, volume, compacité, sphéricité, spiculation, etc.
    1. Matrices de texture
    • Matrice de co-occurrence des niveaux de gris (GLCM), matrice d’occurrence jointe (GLRLM, GLSZM…), périodicité, directivité.
  • Exemple : scanner coronarien calcifié (Kolossvary 2017)
    • Deux modes dans l’histogramme ; Skewness & Kurtosis différencient régions malgré écart-type similaire.

Étape 4 : Réduction des dimensions / sélection de variables

  • Surabondance de descripteurs ⇒ risque de sur-apprentissage.
  • But : conserver variables non redondantes, reproductibles, cliniquement pertinentes.
  • Méthodes :
    • Tests de robustesse intra/inter-observateur.
    • Analyse de corrélation / clustering pour éliminer variables colinéaires.
    • Algorithmes de machine learning (ex. LASSO, PCA, Random Forest importance, etc.).
  • Pipeline classique : jeu d’entraînement vs jeu de test distincts.

Limitations et considération clinique

  • Manque de standardisation : protocoles d’acquisition, reconstruction (taille voxel, filtres lisseurs), paramètres de pré-traitement.
  • Nombreuses études rétrospectives ; besoin d’études prospectives.
  • Robustesse limitée : un descripteur pertinent pour une pathologie ne l’est pas forcément pour une autre.
  • Modalité-dépendance :
    • CT & TEP-CT : influencées par voxel size, kernel, filtration Gaussian.
    • IRM : intensités relatives et voxels souvent anisotropes.

Exemples et applications

  • Nodules pulmonaires en CT (Wilson 2016) :
    • Descripteurs de texture aident à distinguer bénin vs malin.
  • Anomalies parenchymateuses pulmonaires (Frix 2021) :
    • Sélection de textures + réseaux de neurones profonds pour classifier lésions (bénigne, maligne, douteuse).
  • Radiomique = source potentielle de biomarqueurs non invasifs, alimentant des modèles d’IA pour pronostic, diagnostic, prédiction de réponse thérapeutique.

Références aux annales L2 SPS (Contrôle continu n°2 2021-2022)

  • Q8 QCD : « La radiomique tente de relier les informations issues de l’imagerie médicale à un phénotype. » ⇒ Affirmation vraie.
  • Q10 QRU : ordre chronologique correct des étapes radiomiques : C Segmentation → Traitement d’image → Extraction d’information → Réduction des dimensions.

Conclusion générale

  • La radiomique transforme les examens d’imagerie en variables quantitatives utilisables comme biomarqueurs.
  • L’intégration dans des workflows d’IA ouvre la voie à des outils cliniques d’aide à la décision.
  • Défis majeurs : standardisation, validation prospective, robustesse inter-site.