Auteur: Emmanuel Bigler
Date: 19-06-2009 14:19
A efficacité photonique égale, permet-il de prédire le rapport signal/ bruit d'un capteur numérique?
Question un peu délicate.
Disons qu'il y a un lien direct entre la surface de collection et le rapport signal sur bruit.
Si vous vous intéressez à ces questions le mieux est de lire la série d'articles de Christian Buil.
http://astrosurf.com/~buil/
test avec l'EOS 50d
http://astrosurf.com/~buil/50d/test.htm
test avec l'EOS 5d
http://www.astrosurf.com/~buil/5d/test.htm
Mais en quelques mots.
Autant les questions de bruit et d'efficacité de détection sont compliquées avec le film, autant avec un détecteur silicium photo-électrique les modèles nécessaires à représenter l'affaire sont simples.
Si on cherche le bruit ultime, c'est ce qu'on appelait autrefois le bruit de grenaille des électrons ; on peut résumer ainsi : si un compteur de photoélectrons compte 10000 électrons pendant la pose, la fluctuatuation naturelle sur ce nombre est de 100 électrons.
De façon générale, toute autre source de bruit mise à part, un compteur qui compte N photons en moyenne verra une fluctuation naturelle de (racine de N photons), et donc un rapport signal sur bruit (S/B en abrégé) de 1/(racine de N) en valeur relative.
C'est tellement simple qu'on a de bonnes raisons de rester incrédule.
Et pourtant, si on regarde les articles de Christian Buil, les détecteurs photographiques accessibles aux amateurs se comportent presque comme ces détecteurs des cours universitaires. Certes il y a d'autres sources de bruit mais ce coup du racine de N est un clé de compréhension à la fois très simple et parfaitement incountournables... sauf astuces expliquées plus bas.
Donc l'enjeu est, pendant la pose, de capturer un maximum d'électrons par pixel pour avoir, en valeur relative, la plus petite fluctuation naturelle possible.
Mais ce nombre d'électrons dépend du nombre de photons qui tombent sur les pixels pendant la pose, et tous les photons ne sont pas efficaces, pour un capteur silicium à usage amateur on peut dire que seuls 20% des photons donnent effectivement un photo-électron (ces 20% est ce qu'on appelle efficacité quantique, mais nul besoin de l'équation de Schrödinger et de son chat pour comprendre la chose).
Pour un capteur monochrome à usage scientifique ou militaire on dépasse 80%.
20% c'est déjà beaucoup mieux que le film ; définir une efficacité quantique équivalente pour le film, c'est quelque chose de très difficile, on a dû développer cette notion pour les photos à très faible flux en astrophysique au siècle dernier, l'un des meilleurs films de chez K... était le Royal X-pan(TM) avec une efficacité de 0,9% selon la Bible-Jones (le pendant kodackien et anglophone du Glafklidès) ; la tri-X est à 0,5%, les films lents sont encore plus bas (y' pas de justice, mais heureusement on ne se sert pas de l'Agfapan 25 pour faire des vues de nuit).
Les meilleurs films hyper-sensibilisés à usage astro avaient une efficacité quantique équivalent de l'ordre de 4%.
Très probablement les meilleures films modernes à grains plats ont une efficacité de quelques pourcents également. Mais certainement pas 20%.
Plus les pixels sont petits moins il y a de photons disponibles en entrée pour une photo donnée d'un sujet donné, par exemple le mur-étalon d'un jardin (à 18% de matière grise) à la latitude de Lamotte-Beuvron un jour de mai ensoleillé.
Et moins on peut stocker dans la petite boîte à électrons juste derrière chaque pixel, moins bon est le S/B.
Dans la phase euphorique de développement des appareils numériques, le faible nombre de pixels et les horribles images pixellisées occultaient les avantages en signal/.bruit de la détection photoélectrique sur silicium.
à partir du moment où on a atteint les 6 Mpix environ, la supériorité en S/B a commencer à apparaître : eh oui, même avec peu de pixels bien interpolés, s'il n'y a pas de bruit l'image est meilleure.
Donc les fabricants s'en ont donné à coeur joie, avec de tous petits capteurs.
Mais aussi par des traitements numériques astucieux qui consistent par exemple à regrouper les pixels adjacentes en cachette et de livrer à l'amateur un jpeg recalculé et bien
interpolé.
D'où les sensibilité ISO faramineuses dépassant 10000 ISO annoncées par certains fabricants d'appareils reflex visibles du grand public et pas du tout réservés à l'usage militaire !
Si chaque pixel reçoit 10000 électrons, j'en regroupe un bloc de 4 en cachette dans les coins sombres de l'image, ni vu ni connu, pas-vu-pas-pris, j'ai un décompte de 40000 pixels et j'améliore mon S/B d'un facteur racine de 4 soit 2.
Ensuite je ré-interpole à partir des valeurs lissées, un coup de jpeg et le tour est joué. C'est dans les ombres, l'oeil du pékin moyen n'y voit pas grand chose.
Et pour faire bon poids, j'ajoute un bon coup de gonflette à la courbe FTM, pour redonner de la pêche aux bords de plage par accentuation et tout va bien !
Pour plus d'infos à ce sujet des gonflettes FTM, regarder les courbes FTM gonflées dans la partie 2 de l'article du Dr. Hubert Nasse chez Carl Zeiss.
(toutes références ici)
n2-f1-80928.html
Conclusion.
Pour une sensibilité ISO donnée, plus les pixels sont petits plus il faut de post-traitement logiciel pour sortir une image acceptable parce que le S/B ne peut que se dégrader.
À moins d'accepter des temps de pose longs qui seraient pour l'amateur du XXI-ième siècle pires que le retour à la IV-ième République pour Michel Debré.
Mais il fut un temps où les amateurs trouvaient l'image du format 110, du Kodak Disc et du ciné super-8 parfaitement acceptables. Avec un gain en S/B qui est peut-être d'un facteur 5 à 10, la même surface de silicium que celle d'une vue super-8 à l'ancienne sur film donne des résultats bien meilleurs !
Et comme dirait Pascal M. : Emmanuel, n'oublie pas le logiciel !
Donc tout dépend de l'usage des images et de l'exigence de qualité !
Si on rajoute des micro-lentilles on gagne en sensibilité en perdant sur la capacité du capteur à recevoir les rayons inclinés : dans un appareil avec zoom d'amateur, on s'en moque !
|
|