Étape 1: Recueillir une pluralité de registres différemment exposées, les trier par exposition et calculer comparagrams
Un exemple simple est un jeu d’images exposées différemment de la même matière. Mais vous pouvez appliquer cette philosophie à n’importe quel type d’enregistrement.
Par exemple, dans mon enfance, dans les premiers jours d’enregistrement audio, je me souviens que la plupart des périphériques audio monophoniques. Dans notre maison, la platine tourne-disque a juste eu un orateur en elle. Alors ne le récepteur radio et la télévision. Mais comme un amateur audio, j’ai eu un magnétophone stéréo, et j’ai même affublé un ordinateur portable pour enregistrer le son stéréo à la fin des années 1970. Lors de l’enregistrement monophonique matériel tels que ma propre voix, j’ai connecté les deux canaux stéréo en parallèle (tous deux alimentés par le même micro) et définissez le canal gauche très calme et le canal droit très fort. Donc quand je parlais du canal gauche jamais saturé, mais fait le canal droit. Mais quand d’autres loin me parlaient, le canal gauche était trop calme == perdu en bruit de fond. Le canal de droite était tout simplement parfait. Plus tard je pourrais combiner ces deux enregistrements pour obtenir un enregistrement unique ayant une grande gamme dynamique, bien au-delà de quel tout appareil d’enregistrement sonore de ce jour pourrait produire.
J’avais découvert quelque chose de nouveau : une façon de combiner différemment exposées des enregistrements de l’objet même d’obtenir une gamme dynamique étendue. J’ai aussi appliqué cette méthode à la photographie et vidéo, par exemple à combiner sousexposée et surexposée enregistrements vidéo.
J’étais également fasciné par Charles Wyckoffd’images d’explosions nucléaires en vedette sur la couverture du Magazine Life. J’ai été fasciné par le travail de Wyckoff du MIT, alors j’ai appliqué là et a été accepté, où j’ai devenus de bons amis avec Wyckoff et lui ai montré mon œuvre audiovisuelle HDR.
Gamme dynamique par rapport à la gamme de Dynamage :
En plus de le œuvre audiovisuelle, envisager d’autres types de détection ou metasensing. Le principe ici s’applique chaque fois que les capteurs peuvent être surexposés sans dommage, par exemple lorsque leur gamme dynamique est supérieure à leur gamme de dynamage. Par exemple, HDR vidéo n’était pas possible à l’époque ancienne lorsque les caméras vidéo ont été facilement endommagés par l’exposition à une lumière excessive.
Essayer de trouver une situation où un capteur sature et fournit des mauvaises lectures, en présence de la surexposition, mais n’est pas endommagé par la surexposition.
Les caméras modernes sont comme ça, tout comme plusieurs microphones, antennes, capteurs, etc...
Au haut de cette page est une image d’exemple que j’ai fait de deux images exposées différemment de la même matière. Les deux images apparaissent en dessous. Celui de gauche est prise avec une exposition appropriée pour le fond clair derrière les gens sur la photo. Celui de droite est prise avec une exposition appropriée pour les détails architectes de l’édifice.
Saturation et coupure
Dans l’image à l’extrême gauche, beaucoup de détails sont coupure dans les zones d’ombre.
Dans l’image à droite, beaucoup d’autres détails est saturées dans les zones de hautes lumières.
Essayez les différentes façons de combiner différemment exposée photos, afin de combiner ces deux images pour obtenir une image comme celle en haut de cette page.
Essayez de capturer certains de vos propres jeux de données dans laquelle il y a des dossiers différemment exposées.
Essayer de comprendre que la relation mathématique entre ces exposés différemment des enregistrements.
Soit v1 le premier enregistrement (sans perte de généralité, nous pouvons trier les enregistrements selon l’exposition et nous allons donc dire v1 est le record avec moins d’exposition). Laissez v2 par un enregistrement d’une plus grande exposition, par un facteur d’une constante k. Il y a une quantité de sous-jacent, q, que nous tentons de mesurer, grâce à une fonction de réponse de capteur, f. Donc nous avons v1= f(q(x,y)), nous allons dire (par exemple si c’est une photo ou une image en fonction de (x, y) coordonnées en pixels) et v2= f(kq(x,y)).
Maintenant, nous voulons tenter de comprendre la relation entre v1 et v2, deux exposés différemment les images. Le moyen fondamental de le faire est par le biais de ce qu’on appelle la comparagram, qui est un puissant pourtant simple outil mathématique (fondamentaux) pour comparer différemment exposés des enregistrements de l’objet même.