Une autre question qu'on se pose chque fois que le nombre de pixels augmente : mais quand est-ce que ça va s'arrêter ?
On a eu l'occasion de discuter longuement ici par le passé sur le fait que le film ne pèche pas par manque de résolution, et on peut toujours passer au grand format en utilisant plus de surface, mais par son bruit. Rendement quantique péniblement de 0,5% pour une Tri-X, plus de 20% pour n'importe quel capteur pour amateur. Et ça s'améliore sans doute encore un peu (voir plus bas).
Ceux qui utilisent des films couleur diapo modernes passant 140 cy/mm (mais avec quelques pourcent de contraste), ou a fortiori les adeptes du COPEX PAN, ADOX CMS-20 & autres Gigabits, ne sont pas forcément impressionnés par un détecteur silicium dont la limite de résolution est 100 cy/mm.
MAIS. et c'est là toute la force du silicium couplé au calcul, avec un détecteur silicium capable d'aller jusqu'à 100 cy/mm, tous les coups sont permis pour remonter le contraste des fins détails, jusqu'à 70, 80 cy/mm par exemple. Un film comme la Provia 100F tombe à 20% de contraste à 70 cy/mm, alors qu'on peut imaginer bricoler comme on veut l'image échantillonnée à 200 échantillons par mm (100 cy/mm) sans problème autour de 70 cy/mm. c'est à dire la gamme de fins détails qui donne l'impression de haute résolution à l'oeil, sur un tirage agrandi 10 fois (7 cy/mm).
Comme il y a très peu de de bruit avec un capteur en comparaiosn du grain du film, tous les pré-traitements accentuateurs de netteté peuvent se faire avec une liberté et une efficacités inconnues voire impossibles avec le film, qu'il faudrait scanner, mais pour lequel on est toujours limité par le grain.
Donc pour tout ce qui est du pré-traitement d'image, plus y'a de pixels, plus les ingénieurs sont contents, donc on ne voit pas encore pourquoi ca s'arrêterait, si ce n'est le prix du capteur et la consommation électrique du processeur d'images embarqué, obligé de faire de plus en plus de calculs de plus en plus vite, ce qui a un impact direct sur la consommation électrique.
Lors du congrès GéPé de Montreux en 2007, nous avions posé la question de l'augmentation puis du plafonnement éventuel du nombre de pixels, à Mme Süsstrunk, patronne du labo IVRG « Images and visual representation group » à l'EPFL (Lausanne)
ivrgwww.epfl.ch
Et sa réponse avait été sans détour : plus il y aura de pixels, plus on aura de liberté pour imaginer toutes sortes d'algorithmes astucieux pour grouper les pixels, pour lisser le bruit sans que ce soit visible, etc ... Au début de sa présentation, elle disait : l'image numérique n'existe pas, il n'existe que des représentations analogiques sur écran ou sur papier, toutes issues de calculs intensifs. Plus on a de pixels, plus on peut bricoler pour faire passer le tableau de chiffres invisibles sous la forme d'une image visible.
À la limite, des pixels tellement petits qu'ils ne reçevraient que zéro ou un seul photon ou un seul photo-électron pendant la pose, pas de problème disait Mme Süsstrunk, on saura manipuler cela, les chercheurs ont probablement déjà les algorithmes sous la main.
Depuis cette mémorable conférence, il 4 ans et demis, il est probable que le rendement quantique des capteurs pour photo amateur ou professionnelle a encore aumgmenté. J'en étais resté autour de 25-30% pour les capteurs moyen format de chez Kodak qui donnent les chiffres de rendement
[au fait, Kodak va-t-il continuer à commercialiser des capteurs silicium ???], mais il faudrait savoir où on en est aujourd'hui. On ne peut donc plus gagner un facteur 10 sur le rendement, comme on l'a fait en passant du film au silicium (de 0,5% de la tri-X à 20% pour les capteurs de la dernière décennie un facteur 40 !!), mais il est probable que si le rendement a encore un peu augmenté, à bruit égal et sans pré-traitement aucun, on peut aujourd'hui avoir des pixels plus petits qu'il y a 10 ans sans avoir plus de bruit pour autant.
La grande inconnue ce sont les pré-traitements internes à l'appareil. Déjà certains appareils d'amateur prennent, dit-on, en cachette, plusieurs images et les fusionnent pour améliorer ce qui peut être amélioré ... donc savoir ce qui se passe entre les photoélectrons détectés pendant la pose, dont le nombre n'est plus guère extensible, et la livraison d'un fichier prétendu RAW, on ne sait plus très bien ce qui se passe.
Dans le principe, l'addition de plusieurs images permet une amélioration du rapport signal sur bruit. ce n'est pas forcément très spectaculaire, en additionnant 10 images on gagnerait un facteur 3 sur le rapport S/B ; cela fait belle lurette que les astrophysiciens le font pour faire sortir l'image d'objets très faibles. Donc la limite, disons autour de 10000, du nombre de photo-électrons par pixels peut même êtrer dépassée en aditionnant les images les unes sur les autres. Certes, il ne faut pas bouger entre deux poses !
Et je ne vois pas comment les zizos hors norme (** note 1) qu'on peut sélectionner une tournant une simple molette peuvent être obtenus autrement que par groupage astucieux des pixels, moyennant une perte de résolution bien cachée dans les coins ; et dans cette affaire plus les pixels sont petis, plus on a la liberté de les grouper astucieusement.
Pour en revenir à la diffraction, on pourrait imaginer penser que l'oeil humain étant un système optique limité par la diffraction, le rendu « naturel » des images c'est celui d'une très bonne optique où la diffraction atténue progressivement les fins détails, et que les coups de gonflette FTM & autres accentuations faites en douce dans l'appareil sont de la triche anti-naturelle.
Hélas, cette façon de voir les choses ignore l'énorme part d'interprétation de l'image rétinienne dans la vision humaine, en particulier le fait que l'oeil est très sensible aux contrastes de bord de plage, donc il y a comme une accentuation qui est faite sur la vision des contours ; et que l'aberration chromatique longitudinale inhérente à une lentille simple même diaphragmée (notre cristallin & le globe oculaire), est compensée a posteriori dans notre système de vision ...
Donc acceptons que tous les bricolages secrets qui se passent dans l'appareil ou par post-traitement sont bons à prendre ; à commencer par le raccordement panoramique d'images, ce que fait notre système de vision sans arrêt toute la journée, en raccordant les 5° d'angle de notre vision centrale la plus résolvante ...
(** note 1) la Comtesse l'a raconté que lorsqu'il fit son service militaire comme photographe dans la marine, l'archevêque de Moisenay fut initié à la fois au système sonar et aux ISO hors norme.
E.B.