Auteur: Emmanuel Bigler
Date: 24-11-2005 14:18
Il n'est pas très difficile de saisir les buts, les principes et les enjeux du travail exposé dans cet excellent article de Stanford. Les équations sont secondaires sauf pour les pairs qui relisent l'article en vue de voir s'il est publiable.
Les buts sont de permettre de reconstituer dès la prise de vue des plans de netteté par calcul numérique, plans qui ne correspondent pas au plan de mise au point physique-optique.
Les principes dits de restauration d'images ne sont pas nouveaux, on faisait cela à l'Institut d'Optique Boulevard Pasteur à Paris dans les années 1950...mais de façon analogique, lourde et lente.
Les principes du système dont nous parlons sont basés sur la constatation suivante : à partir du moment où ce qui sort d'un capteur numérique est déjà le résultat d'un calcul, rien n'oblige à enregistrer au niveau du capteur une distribution de lumière qui corresponde exactement à l'image qu'on aurait prise sur un film, c'est à dire une stricte interprétation de l'image aérienne qui se forme derrière l'objectif dans un plan de mise au point donné.
À partir de là, le système proposé par les chercheurs de Stanford associe une trame de micro-lentilles un peu en avant du détecteur, le détecteur enregistre donc une image codée via un processus optique-analogique dont les auteurs détaillents les avantages. C'est cette partie de l'article qui est très compliquée, mais il suffit de résumer ainsi : un machin optique analogique sympa et très microtechnique fait une partie du boulot vite fait bien fait (à la vitesse de la lumière) ; le bête capteur silicium ne se rend même pas compte de ce qu'il enregistre mais on ne lui demande pas son avis, on lui dit : échantillonnez cette distribution spatiale de luminances et ne posez aucune question, sortez le tableau de chiffres, c'est tout ce qu'on vous demande, il dit OK sans broncher, après cela un algorithme ad hoc reconstitue à volonté une image numérique correspondant à une assez large gammme de plans de netteté (voir les démos sympas dans l'article), sans avoir à faire un balayage mécanique de la mise au point.
Les enjeux sont donc multiples, on peut parler de mise au point automatique sans pièce mobile, le vieux rêve des électroniciens d'éliminer les pièces mobiles (ils ont déjà essayé de faire le coup en horlogerie ! çà a failli réussir et on en rigolerait encore dans nos montagnes jurassiennes s'il n'y avait pas eu 75000 emplois perdus sur le coup) ; on peut aussi parler de rattrapage automatique d'erreurs de mise au point a posteriori, certes, mais dès le niveau de la prise de vue.
En pratique ce qui est proposé est séduisant sur le plan technico-économique : adaptable sur tout appareil à capteur silicium, il faut une trame de micro-lentilles et un logiciel.
Les trames de micro-lentilles sont des objets qu'on sait maintenant reproduire avec la même facilité que les micro-cuvettes d'un CD-ROM ou d'un DVD. Donc potentiellement le coût unitaire de la pièce micro-optique n'est pas un problème, même si le modèle et le moule seront très coûteux à fabriquer. Quant au logiciel, quel que soit son coût initial, son coût de reproduction est quasi nul.
Quelles objections ? finalement assez peu ; je verrais évidemment une limite de résolution, en effet parler de profondeur de champ sans préciser le critère de résolution, les sténopistes le font en toute candeur, on sait ce qu'il faut en penser ;-) Mais surtout je craindrais des artefacts comme dans toute méthode de reconstruction d'images à partir de projections, sans préjudice des effets de moiré sur images à trames fines genre tissus... et le double moiré entre la trame de lentilles et celle de pixels ! L'autre objection c'est l'empoussiérage de cette lame optique supplémentaire... mais ce ne sont peut-être pas les poussières qu'on verrait, plutôt leur spectre de Fourier ;-)
Signalons à nouveau que l'utilisation du spectre des fréquences spatiales ou spectre de Fourier dans l'analyse et le traitement des images remonte aux travaux du Père Fondateur, le Prof. P.M Duffieux juste après la deuxième guerre mondiale. Il y a donc une longue histoire, qui passe par des méthodes optiques photographiques, des méthodes laser, des méthode numériques... un demi-siècle de boulot !! donc nos lecteurs qui tombent, à froid, sur l'article de Stanford cité par J.L.S sont comme des spectateurs européens qu'on parachuterait au milieu d'un long métrage de 6 heures, en japonais non doublé, et en ayant raté le début, et on leur demanderait au bout de trois minutes : vous avez compris l'histoire ? ;-);-)
Sur le plan de l'évolution technique, Henri G. a déjà mentionné les possibilites fantastiques de corrections d'aberrations ou simplement de cos^4 theta permises par le calculateur embarqué, je pense qu'on n'est effectivement pas au bout de nos surprises en la matière, soyons ouverts et réceptifs à toutes ces nouveautés, au moins par curiosité intellectuelle.
Donc à la date du 24/11/1005 dans le cahier où vous notez vos développements plan-films N+1 HC-110 sur cette boîte d'ADOX 50 qui arrive juste de Berlin, vous insérerez une petite note concernant cette nouveauté californienne. Peut-être la copie de l'URL http://...
Dans cinq ans, vous aurez oublié le truc mais vous aurez besoin de votre protocole TriX-HC110 N+2, vous retomberez alors sur la petite note et vous vous direz : « tiens, un gadget éphémère » ou bien :« ah oui, c'était la première fois qu'on parlait de cette technique, je l'ai appris grâce à galerie-photo, maintenant cela équipe tous les appareils de 2010...»
|
|