L'essence de la Compression d'Image est l'équilibre entre Espace de Stockage et Qualité Visuelle. Cette page analyse en profondeur comment exploiter la Redondance Mathématique et les Limites de Perception Visuelle pour une réduction extrême des données.
L'entropie de Shannon définit la limite de compression des données. Cliquez sur les blocs pour changer les motifs :
L'œil humain est sensible à la Luminance (Y) mais insensible à la Chrominance (Cb/Cr).
La Transformée en Cosinus Discrète (DCT) convertit les images en fréquences, puis rejette les infos via des Étapes de Quantification.
Compromis : Combien de détails garder à quelle taille ?
Tous les Algorithmes avec Perte suivent une règle : Plus le Débit Binaire (Rate) est bas, plus la Distorsion est élevée. Les excellents encodeurs (comme AV1) maintiennent une haute similarité à très bas débit.
Quand le PSNR de l'image compressée atteint environ 35-45dB, le système visuel humain (HVS) peut à peine la distinguer de l'original. Cet art de "tromper" l'œil est le cœur de la compression avec perte.
Comparé au PSNR traditionnel, le SSIM mesure la structure, la luminance et le contraste de l'image. Il correspond mieux à l'esthétique subjective humaine que le simple calcul d'erreur de pixel.
La compression sans perte est limitée par l'entropie de l'information des données. Si les données sont du bruit totalement aléatoire, leur entropie est maximale et aucun algorithme ne peut les réduire. La compression avec perte peut rejeter plus de données, mais si l'Étape de Quantification est trop grande, l'image s'effondre en blocs de couleur unie.
Les formats modernes comme WebP et HEIF introduisent la prédiction intra du codage vidéo. Ils essaient de prédire le bloc actuel en utilisant les pixels environnants, n'enregistrant que la "partie échouée" (résidu), ce qui est plus efficace que l'enregistrement par bloc complet de JPEG.