Auteur: Emmanuel Bigler
Date: 05-03-2007 17:49
Bonjour, Romain.
Ce papier introductif vous permettra sans doute de postuler à cette offre de financement:
« Bourses doctorales sciences pour l'ingénieur
Si vous avez la référence plus précise de l'organisme qui propose cette thèse, cela pourrait intéresser l'un de nos lecteurs et futurs doctorants !
Une thèse c'est trois ans de travail à plein temps... donc il est clair que dans un petit article poru galerie-photo, on ne peut qu'esquisser quelques idées !
Je suis impatient de lire la suite avec des précisions sur le rapport signal bruit meilleur des CCD par rapport aux films et une efficacité quantiques qui va nous permettre de prendre moins de rayons X quand on va se faire photographier chez le radiologue.
La façon de tourner cette phrase montre que vous connaissez déjà la réponse ;-)
Le contenu de la suite de l'article n'est pas encore totalement défini.. à suivre donc ;-)
Une remarque...
Ce qui est très intéressant c'est que le pixel a une dimension physique puisque qu'on peut l'assimiler à un photosite (qui a une forme et une répartition précise et différente suivant les capteurs (parenthèse dans parenthèse un calcul prenant en compte la distance interphotosite changerait beaucoup de chose à ces calculs théoriques de FTM)
Je ne pense pas que la distance inter-photosite changerait grand chose. Comme j'ai essayé de l'expliquer dans l'article il faut s'imaginer le processus de détection comme l'enchaînement de la formation d'un image analogique brouillée par le passage à travers une ouverture qui réalise la valeur moyenne des éclairements sur la surface d'entrée, suivi de la prise d'échantillons sur une grille dont le pas est, pour un capteur silicium, fixé par construction et non pas : variable indépendamment de l'ouverture du photosite comme c'est le cas dans un microdensitomètre. C'était l'un des avantages de la machine sur laquelle j'avais travaillé dans les années 1980...
À mes yeux c'est l'effet de brouillage par l'ouverture finie, plus le brouillage dû au filtre anti-moiré qui est prépondérant pour la forme de la FTM du capteur. Il faut ajouter à cela les fuites de lumière d'un pixel à l'autre, mais cela revient à avoir une ouverture un peu plus grande que l'ouverture à laquelle on s'attend.
En soi la prise d'échantillons est un autre phénomène. Si l'image avait un contenu de fréquences limité, il n'y aurait aucun brouillage dès que la grille d'échantillonnage est suffisamment fine. Autrement dit on ne peut pas parler de FTM comme on en a l'habitude pour le film ou l'optique, donnant une courbe qui tombe doucement, car pour toutes les fréquences jusqu'à la limite de Shannnon-Nyquist, c'est 100% du contraste qui est restitué sans pertes. Pour tous les objets à spectre limité, l'échantillonnage ne détruit en rien l'image après interpolation, mais s'il y a des grilles fines présentes à une fréquence supérieure à celle de Nyquist-Shannon, et sans connaissance a priori de leur existence, impossible de les extraire sans qu'elles donnent des effets de moiré. Je ne sais pas s'il y a une approche astucieuse pour réduire les effets de moiré sans filtre, mon impression est que seules les limites de l'optique permettent d'évacuer les grilles trop fines.. d'où mon rêve d'associer une optique (a priori couvrant un format dans le genre 6x9) avec un grille de pixels pour lesquel c'est la diffraction qui sert de filtre passe-bas naturel, et pas un filtre passe-bas supplémentaire « artificiel ».
------------------------
Il est difficile dans cet article déjà très (trop ?) long de ne pas pécher par des raccourcis critiquables.
Par exemple lorsque je dis que l'effet du filtre anti-moiré est un peu équivalent à un défaut de mise au point, il faut nuancer car l'effet de brouillage par défaut de mise au point est évidemment variable selon la position du point objet dans le champ et en profondeur ; alors que le filtre anti-moiré donne un effet uniforme sur toute la surface.
Cette distinction rejoint la classification classique des défauts en restauration numérique d'images, il y a le cas le plus simple du défaut invariant dans l'image (space-invariant point-spread function) et le cas d'un défaut variable dans l'image (space-variable point-spread function). Un exemple classique de défaut invariant dans l'image est le défaut de mise au point pour la photo d'un objet plan (ou à l'infini) avec une optique de course très bien corrigée, utilisée uniquement au centre du champ. Un exemple de défaut variable dans l'image est le flou de bougé pour une vue prise d'un véhicule en mouvement, l'infini se brouille nettement moins que les premiers plans...
Néanmoins il me semble que les effets de profondeur de champ inhabituels en imagerie numérique ne peuvent s'expliquer que par l'application d'un traitement destiné à compenser cet effet de brouillage par le filtre. Sans connaissance a priori du sujet, je ne vois pas comment le post-traitement serait capable de faire la distinction entre le brouillage dû au filtre et le brouillage dû à un défaut de mise au point !
Si je me réfère à une remarque faite au congrès de Fontfroide par l'un des photographes présents dans la salle, c'est à dire qu'en numérique l'image d'un objet en profondeur reste nette puis devient brusquement floue, au lieu du dégradé habituel net/flou, il me semble que seul le traitement numérique anti-moiré et renforçateur de FTM faiblarde ;-) peut expliquer ce comportement et rien d'autre. Je peux me tromper, j'aimreais être contredit sur ce point par des images, mais les tests, si j'en crois Henri Gaud, sont très difficiles à faire et souvent peu probants.
On touche d'ailleurs l'une des diffocultés d'un travail de thèse sur le sujet car bien des caractéristiques en particulier les traitements numériques (DSP), sont du domaine du secret industriel... donc à moins de refaire l'interface du capteur soi-même, il est difficile de séparer ce qui est intrinsèque au capteur de ce qui provient du post-traitement !
.... Dans le traitement informatique du signal le pixel existe sans dimension et en plus avec une forme parfaite de carré. Ceci permet de réduire et de maîtriser complètement la granulation finale de l'image (granulation ne doit pas être le terme adéquat) et donc de donner une structure moins visible que l'argentique d'où permettre des agrandissement plus important.
À cela se rajoute le problème de bruit dont vous parlez.
Oui, la question est qu'à partir du moment où les imprimantes et autres appreils de reproduction sont capable de faire une interpolation correcte, la supériorité de l'image numérique apparaît dans l'absence de granulatité dans les zônes quasi uniformes. Du moins dès que le nombre de pixels atteint un nombre minimum, je ne parle pas d'image de la classe 1Mpix.
Qaunt à la forme carrée du pixel, pour moi elle n'a que peu d'importance, cela pourrait être un carré à coins arrondis ou, mieux,
un rond, pas tout à fait clos, finissant par un trait horizontal ;-)
----------
une question...
La FTM donné par les fabricants d'émulsion diffère énormément de la pratique sur le terrain et que une FTM de 50cycles/mm est beaucoup plus réaliste que sur le terrain
si on refait le calcul pour un 6x6cm on arrive à un total de (100x56)² soit 31 million de pixel et on voit qu'on est en dessous d'un capteur CCD 39 millions de pixels qui de plus est plus petit presque de moitié que le 6x6 (puisque sa taille est de 36x48 mm) donc le film serait-il loin derrière même si l'on tente un raisonnement sur la base de la FTM? (ceci en comparaison avec votre calcul basé sur le 100 cycles/mm)
Je suis devenu, grâce à galerie-photo, très méfiant lorsqu'il s'agit de définir une résolution par une seul chiffre. Non pas que je conteste la pertinence des test classiques de Chris Perez, par exemple, mais il est clair que la résolution limite observée à l'oeil, ou la résolution limite utiliséepar les fabricants dans des test sur mire de contratse 1:1000 n'est pas un critère pertinent dans la comparaison avec l'image numérique. Ce constat est même devenu tellement criant que j'ai voulu regarde de plus près. C'est pour cela que j'ai voulu mettre côte à côte les courbes FTM du film et celles d'un capteur idéalisé qui, derrière son filtre anti moiré, réalise un échantillonnage deux fois plus fin que la surface de collection effective de 4 pixels. On voit que les deux courbes entre la Provia® et le capteur idéal au pas de 7 microns avec filtre anti-moiré (donc ouverture à 14 microns) sont très proches !! C'était je l'avoue un peu dur à avaler au début... On peut, si l'on veut, dire que la Provia® ne résoud que 50 cycles par millimètre, on ne dit rien de faux tant qu'on ne définit pas le critère de contraste minimum acceotable !
Mais je ne pense pas que la seule prise en considération des courbes FTM côte à côte explique tout. C'est pour cela que je veux essayer de regarder du côté du bruit. D'autre part, mais cela je n'en parlerai pas parce que je n'ai pas de matière expérimentale suffisante, je suis persuadé comme le dit B. Leblanc que la FTM d'un film ne donne pas toutes les clés pour l'évaluation de la qualité d'une eimage. En particuler le contraste visuel de bord de plage et le contraste général dans l'image a une influence très forte sur l'appréciation de la qualité.
Je me rappelle un article de E. Land dans pour la Science à propos de sa théorie dite "RETINEX" de la vision des coulerus. E. Land suggère, expériences à l'appui, que l'oeil est en permanence en train de comparer les couleurs et les contratses de plages adjacentes. Cette théorie explique la persistance des couleurs vues à l'oeil lorsque de larges variations de température de couleur à l'éclairage. Mais s'il y a balayage des zônes frontières entre plages, ne serait-ce qu'à cause des saccades de l'oeil, on sent bien que la « vigueur » des transitions à grand contraste, ou l'effet d'acutance pour le film, joue un rôle important qui n'est pas a priori contenu dans le modèle liénaire des faibles modulations FTM. D'où la « tricherie » (enrte autres astuces) de l'image numérique qui est capable de réaliser un traitement qui n'est pas forcément linéaire pour renforcer les contrastes de bords, la fameuse accentuation...
|
|