Mythes et légendes de la photo brute

La photo brute (RAW), c’est un enregistrement direct et sans traitement de ce que le capteur de l’appareil photo a « vu ». Il y a beaucoup trop de croyances qui circulent sur les propriétés supposées de cette « image latente », je vous propose de casser du mythe à la pioche.

1. J’ai configuré mon boîtier en Adobe RGB, donc j’utilise un profil d’entrée Adobe RGB.

La configuration de l’espace de couleur, sur le boîtier de l’appareil photo, n’impacte que les JPEG produits par le boîtier. En général, vous avez deux options : sRGB et Adobe RGB.

Oui mais alors, dans quel espace de couleur sont enregistrés les raws ?

Dans l’espace du capteur. Un espace RGB bien à lui, qui dépend de la transmittance  des filtres colorés à la surface de la matrice de Bayer et de l’électronique qui traite les données ensuite. C’est la raison pour laquelle darktable embarque une « matrice » différente pour chaque capteur. La matrice, c’est juste le profil de couleur le plus simple qui existe : un tableau de coefficients 3 × 3. Configurez le boîtier en sRGB, Adobe RGB ou ce que vous voulez,  ça n’impacte pas le raw.

2. Faire la balance des blancs sur l’appareil permet d’avoir de meilleures couleurs dans le raw

La balance des blancs, c’est une compensation des couleurs qui suppose une lumière blanche, et qui se base sur de la physique un peu velue pour faire une correction spectrale qui va simuler un changement de température.

On rentre dans la physique ? La lumière est un rayonnement, et donc une forme de transfert d’énergie (électro-magnétique). À la source de ce rayonnement se trouve un corps, qui émet du rayonnement parce qu’il est chaud (sans chaleur, il n’aurait aucune énergie à transmettre, donc pas de rayonnement). Les physiciens ont trouvé un lien entre la température du corps et le spectre lumineux qu’il émet (en clair : l’ensemble des couleurs contenues dans ce spectre).

Décomposition du spectre de la lumière blanche par un prisme transparent. CC Wikimédia / Zátonyi Sándor

Ce lien ne fonctionne que si le corps est « parfait », c’est à dire qu’il émet rigoureusement toutes les longueurs d’onde (on n’a pas de trou dans le spectre). On appelle ça un corps noir (paradoxalement, mais il y a une explication). Pour un corps noir, on est capable de sortir une équation qui relie assez précisément sa température et son spectre, et donc de simuler son spectre à une autre température, et donc finalement de corriger une photo. C’est pour ça qu’on exprime la température couleur en kelvin (K) : tout ça se ramène à la température du corps noir dont le rayonnemment est équivalent.

Le soleil est assez proche d’un corps noir, puisqu’il émet toutes les longueurs d’onde :

Spectre de la lumière naturelle en mi-journée (6500 K). © Erik Peper – https://www.researchgate.net/publication/305082857_Are_LED_screens_causing_harm_to_the_vision_of_computer_users

Même si le spectre est complet, on voit que les intensités sont réparties inégalement, mais globablement assez lisses. Qu’en est-il en fin de journée ?

Spectre de la lumière naturelle en fin de journée (4500 K). © Erik Peper – https://www.researchgate.net/publication/305082857_Are_LED_screens_causing_harm_to_the_vision_of_computer_users

On voit donc un maximum dans le rouge en fin de journée (à 4500 K), et un maximum dans le bleu en milieu de journée (6500 K). Comme ces deux distributions suivent (à peu près) la même loi physique, il est possible de passer de l’une à l’autre par une simple correction mathématique.

Là où ça se gâte, c’est pour les éclairages artificiels :

Spectre d’une lampe fluo-compacte. © Erik Peper – https://www.researchgate.net/publication/305082857_Are_LED_screens_causing_harm_to_the_vision_of_computer_users

Ici, on a un pic dans le bleu, dans le vert, et dans le orange, et presque rien au milieu. Un tel éclairage est impossible à compenser mathématiquement, parce que sa physique est erratique et qu’il n’est pas assimilable à un corps noir. Pour cette raison, on dispose d’un curseur de teinte, en plus de la température, afin d’appliquer une correction additionnelle, mais n’attendez pas de miracle. C’est ici qu’il est important de savoir sur quelle hypothèse se basent les algorithmes de correction de la balance des blancs : ils sont conçus avant tout pour la lumière blanche. Si l’hypothèse n’est pas valide dans votre photo, alors l’algorithme échoue, et c’est tout à fait normal.

Du coup, la balance des blancs : dans le boîtier ou dans le logiciel ?

Souvenons-nous que le raw est… brut. Non corrigé. Directement du capteur au fichier. La balance des blancs n’est donc qu’une simple méta-donnée enregistrée dans le fichier brut. Encore une fois, l’appareil va corriger son JPEG, mais c’est tout. Si la balance des blancs est « juste » sur le boîtier, ça veut dire que la correction effectuée par darktable (qui extrait cette méta-donnée et l’utilise comme réglage par défaut) va avoir le bon paramètre dès le départ. Rien de plus. La balance des blancs du boîtier n’impacte pas les couleurs du fichier raw. Sinon, encore une fois, ça ne serait plus un fichier brut…

3. Mon profil d’entrée maison est meilleur que celui par défaut (pris à Adobe)

Si, comme moi, vous êtes un geek, vous vous êtes acheté une mire d’étalonnage type IT8 ou Color Checker, et vous avez fait votre propre profil de couleur, pour être sûr que votre appareil soit parfaitement réglé (soit un profil ICC, soit une table de correspondance).

Erreur… Après des années d’expérience, il m’a fallu me rendre à l’évidence :

  1. faire une photo d’une mire éclairée de façon parfaitement homogène par une lumière blanche à 6500 K (standard D65) est impossible hors d’un laboratoire de métrologie,
  2. donc votre photo de référence de la mire est toujours plus ou moins fausse,
  3. donc votre profil est toujours plus ou moins faux,
  4. un profil de type LUT faux est beaucoup plus dommageable pour les couleurs qu’une matrice d’entrée imprécise et basique (saturation non-homogène, couleurs hors-gamut, etc.)

La photo de la mire sous une lumière standardisée à D65 (ou D50) est nécessaire pour que le profil soit « universel ». Sinon, vous risquez d’avoir un spectre biscornu (cf. ci-dessus, le spectre de la fluo-compacte) qui va favoriser certaines couleurs et pas d’autres.

Un profil réalisé dans des conditions non-standard peut être utile pour corriger des conditions de prise de vue difficiles, surtout quand vous utilisez plusieurs appareils et que vous voulez des couleurs homogènes d’une photo à l’autre sans y passer la nuit. Par exemple : retirer une dominante colorée en lumière artificielle. Mais un tel profil ne pourra être appliqué qu’aux photos prises dans des conditions d’éclairage strictement identiques. Et assurez-vous de l’appliquer seulement sur les couleurs (pas sur la luminance), sinon gare aux pertes de contraste local.

Dans darktable, il existe des matrices standards (qui sont des matrices Adobe) et des matrices « améliorées », qui ont été fournies par des contributeurs individuels. À chaque fois que vous utilisez ces matrices, vous faites aveuglément confiance à quelqu’un d’autre, qui a problablement travaillé n’importe comment (en tout cas, on ne peut pas vérifier). Méfiance…

4. L’histogramme du boîtier n’est pas le même que celui de mon logiciel

L’histogramme affiché sur le boîtier est celui du JPEG produit par le boîtier, et intégré en miniature dans le raw. Ce JPEG a reçu une correction gamma et ne ressemble plus au fichier brut. Idem avec l’alerte surexposition du boîtier : c’est la surexposition du JPEG. Pour avoir une idée de l’apparence du raw, il faut diminuer la luminosité dans les préréglages de l’appareil, de façon à inverser la correction gamma. Mais la netteté des photos risque alors de devenir difficile à évaluer à l’écran. Tout se paie…

5. Je peux retoucher le raw comme je veux

On peut globalement découper la retouche d’un raw en deux grandes étapes :

  1. la retouche corrective
  2. la retouche créative.

La retouche corrective vise à nettoyer l’image des défauts laissés par le système d’imagerie (capteur, optique, etc.) c’est à dire les aberrations chromatiques, distorsions, pertes de netteté, bruit, etc. La retouche créative, c’est quand vous vous faites plaisir.

Le problème, c’est que l’ordre des opérations est important, d’un point de vue mathématique, et que les mêmes opérations dans un autre ordre peuvent avoir un effet complètement différent sur les couleurs. Beaucoup de logiciels dissimulent l’ordre des opérations et l’ont fixé pour vous. Dans darktable, on est en train de prendre la direction opposée. Pour plus de détails, voyez Y-a-t’il un ordre canonique dans la retouche ?.

Aurélien PIERRE

Photographe portraitiste à Montréal. Spécialiste en calcul, modélisation et simulation numérique pour le traitement d'image (débruitage, défloutage) et le génie thermique. Développeur de darktable après 7 ans d'utilisation.

20 thoughts to “Mythes et légendes de la photo brute”

  1. Merci pour cet article très didactique et facilement compréhensible.
    C’est marrant, ta conclusion semble appeler une suite (“Dans darktable, on est en train de prendre la direction opposée” ) être une introduction pour un autre article (une introconclusion quoi… hum).
    Sympa ton nouvel avatar.

  2. Merci Aurélien,
    Toutes tes interventions sont très techniques mais reste à la portée de tous. Tes interventions n’ouvrent les yeux sur la photo numérique qui reste encore bien flou dans certain domaine.

  3. “La balance des blancs n’est donc qu’une simple méta-donnée enregistrée dans le fichier brut” :
    Est-ce que je comprends, donc, que ce n’est pas comme par exemple l’exposition (qui affecte la prise de vue donc le raw comme le reste)?
    Lorsque je fais une balance sur un papier gris au début d’une expo, je pensais qu’en augmentant par exemple la sensibilité au bleu par opposition au rouge (dans cette lumière “d’intérieur”) j’obtenais une dynamique des bleus plus étalée (sur plus de bits), qu’on corrigeait ensuite éventuellement avec la métadonnée correspondante…
    Peut-être qu’il suffirait d’aller voir les raws de deux images “balancée” / “AWB” d’ailleurs…
    Merci pour cet exposé très clair et très bien illustré en tout cas!!
    H.

    1. En effet, l’exposition est un paramètre physique : c’est la quantité de photons que reçoit le capteur pendant le temps d’ouverture de l’obturateur. On peut corriger l’exposition en logiciel, mais on risque alors d’amplifier le bruit. L’exposition du boîtier, c’est un paramètre essentiel. Comme en argentique, d’ailleurs…

      La correction de la balance des blancs n’est pas parfaite, puisqu’elle fait appel à des modèles physiques approximatifs, il est donc logique que ça ne soit pas le boîtier qui fasse la correction en dur sur le raw, puisqu’il est probable que l’avenir nous amène de meilleurs algorithmes, et qu’on voudra alors repartir du fichier brut.

      A priori, donc, aucun moyen d’augmenter la plage dynamique des bleus de cette manière. En tout cas, pas à la prise de vue.

      Et puis un raw corrigé, ça n’est plus un raw…

      1. Bonjour,
        Merci pour tes éclaircissements… éclairants! À propos de l’exposition, ta remarque sur les différences entre le jpeg vu sur l’écran et la réalité du négatif raw me pose question depuis pas mal de temps: quand je fais mes expos (portraits au flash) je me sers de l’écran pour caler l’expo au plus près, en évitant d’avoir trop de rouges cramés, c’est ma référence avec l’histogramme général: dés que le rouge clignotant apparait sur le visage je sais (en fin, je pense savoir) que mon expo est bonne, quitte à baisser celle-ci d’1/3 ou 2/3 de stops si le canal vert ou bleu est lui aussi sur exposé. Mais le raw ne donne pas du tout les mêmes résultats, d’autant plus quand on désactive le module courbe de base pour se servir de filmique. Il n’est pas rare que l’histogramme soit franchement sous exposé. Si j’ai bien compris, pousser l’exposition pour rattraper ça se fait au détriment de la qualité (je suppose que même à la sensibilité minimale le bruit va augmenter). Il me semble avoir vu quelque part sur ce forum un moyen de corriger l’affichage de l’écran pour se rapprocher du raw, mais je trouve pas ça très pratique, surtout quand on veut montrer la photo au modèle! Y aurait il un moyen plus empirique de trouver comment avoir une bonne expo dés la prise de vue?
        Merciiiii

        1. D’abord, les canaux ne sont pas sur-exposés, mais saturés. Sur-exposé implique que c’est la luminance qui sort des bornes, donc une somme pondérée des 3 canaux RGB. Si c’est un seul canal, c’est juste une saturation du canal, et le pixel concerné qui va finir hors-gamut.

          L’histogramme n’a pas toujours à occuper tout l’espace [0 ; 100] %. Par exemple, en portrait, les teintes de peaux claires s’arrêtent à L = 85, donc avec un sujet sur fond sombre, il n’y aucune raison d’avoir des pixels blancs, au delà de 85 % de luminance en Lab (à part le reflet de la lumière dans l’œil).

          Ensuite, un histogramme tassé vers la gauche, c’est normal avant de corriger la courbe (que ça soit dans filmique, avec une courbe de base, un gamma, une courbe de tonalités, etc.) : le raw est linéaire, son gris moyen est à 18 % (donc l’histogramme est a priori centré autour de 18 %). C’est pour ça qu’on y rajoute une courbe qui booste les tons moyens (en poussant le gris moyen vers 50 %) et ajoute du contraste : l’appareil photo ne voit pas comme nous, donc on doit le corriger pour que son enregistrement ressemble à notre mémoire et à nos perceptions.

          Ce qu’il faut regarder, c’est la luminance du sujet (on a des tables de références pour les couleurs de peau, par exemple) et la valeur RGB maximale. Si la peau est entre 65-85 % pour des peaux blanches, 35-45 % pour les peaux noires, et aucun pixel supérieur à 100 %, pas besoin de se casser la tête avec l’histogramme, l’exposition physique est bien faite.

          Pour la bonne exposition à la prise de vue, il faut passer par un posemètre-flashmètre, et si possible l’étalonner pour ton couple optique + boîtier (les Sekonic ont un logiciel qui fait ça, à partir de mires Xrite). Y a pas de secret… Soit tu bosses à l’ancienne et à la main, soit tu t’en remets aux automatismes de l’électronique que tu manipules.

          Au studio, je fais tout en manuel (j’ai le temps de prendre mes mesures et de régler la lumière), en photo sur le vif je me mets en priorité ouverture à -0.33/-0.67 EV sur le posemètre interne (-1 EV en photo de nuit / événement), et j’espère que ça va bien se passer.

      2. Je reste sur l’impression qu’ajuster sa balance des blancs sur l’éclairage du moment avant de prendre la photo aboutit à un raw différent.
        Je propose l’illustration suivante, où l’on voit dans Darktable deux photos prises hier au musée Granet à Aix* :
        https://framapic.org/gallery#zmz6pp0qUCWk/ZQBEcV7kb8tc.png,fyFJRWgQX54I/PgxPJJV2XNX3.png
        Pour celle de gauche dans la galerie, j’ai pris le temps d’étalonner les blancs (et de me rapprocher un peu) par rapport à celle de droite, prise en balance auto juste avant.
        Expo et sensibilité sont identiques, et ici Darktable affiche bien les raws (.DMG) et pas les jpegs.
        Je trouve que les courbes sont assez différentes (correspondant du reste à une tonalité visiblement très différente aussi, même à cette échelle)…
        Je ne suis pas bien sûr du reste d’apprécier mieux la version étalonnée : rouge et jaune y ressortent nettement moins qu’en balance automatique (étaler les dynamiques est peut-être bien un des buts, d’ailleurs, d’une balance auto)
        En tout cas sur cet exemple il me semble qu’ajuster la balance avant de prendre aboutit à un changement relatif des gains couleur par couleur qui deviennent, ensuite, irréversibles dans le raw…
        (*) Nicolas de Staël (prises avec autorisation)

        1. Je ne comprends pas. Ce qu’on compare, c’est l’histogramme dans darktable, c’est bien ça ? Cet histogramme montre l’image à la fin du pixelpipe, dans l’espace RGB écran. Incluant la correction de balance des blancs de dt, différente entre les deux exemples. Donc c’est logique qu’on voie 2 choses différentes, mais ça ne renseigne en rien sur l’état du raw.

          Tu peux essayer de désactiver le module de balance des blancs pour comparer, mais je serais surpris que tu trouves une différence.

          1. Tu as raison : en désactivant le module il y a encore une différence mais elle est faible et doit être due au fait que les deux photos ne sont pas identiques (pas à la même distance du tableau, entre autres)
            Mais ça me turlupine quand même, qu’on ne puisse pas optimiser le gain par canal de couleur au moment de la prise de vue… je suis un peu frustré 😉

  4. Merci pour cette mise au point 🙂
    J’avoue ne pas bien saisir ce que signifie, dans le chap. 3, la phrase suivante : « Et assurez-vous de l’appliquer seulement sur les couleurs (pas sur la luminance), sinon gare aux pertes de contraste local. » ?

    1. Il s’agit de fusionner le module de table de correspondance des couleurs en mode couleur, sinon il fait aussi une correction de luminosité qui peut casser le modelé.

      1. Il y a aussi le mythe de base sur les raw : “tel logiciel affiche les raw avec un meilleur résultat que tel autre”, alors que ce qui s’affiche est le résultat d’un traitement, aussi basique soit-il (a minima un dématriçage), et que les différence d’affichage ne reflètent en général que les choix par défaut effectués par le logiciel.

Répondre à Mickaël Bailly Annuler la réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.