small changes in the tutorial
authorAlexander Shishkov <alexander.shishkov@itseez.com>
Wed, 4 Sep 2013 11:14:49 +0000 (15:14 +0400)
committerAlexander Shishkov <alexander.shishkov@itseez.com>
Wed, 4 Sep 2013 11:14:49 +0000 (15:14 +0400)
doc/tutorials/images/photo.png
doc/tutorials/photo/hdr_imaging/hdr_imaging.rst

index 3e86687..f701ffa 100644 (file)
Binary files a/doc/tutorials/images/photo.png and b/doc/tutorials/images/photo.png differ
index ed273fb..f39f871 100644 (file)
@@ -5,11 +5,11 @@ High Dynamic Range Imaging
 
 Introduction
 ------------------
-Today most digital images and imaging devices use three bytes per channel thus limiting the dynamic range of the device to two orders of magnitude, while human eye can adapt to lighting conditions varying by ten orders of magnitude. When we take photographs bright regions may be overexposed and dark ones may be on the other hand underexposed so we can't capture the whole scene in a single exposure.  HDR imaging works with images that use more that 8 bits per channel (usually 32-bit float values), allowing any dynamic range. 
+Today most digital images and imaging devices use 8 bits per channel thus limiting the dynamic range of the device to two orders of magnitude (actually 256 levels), while human eye can adapt to lighting conditions varying by ten orders of magnitude. When we take photographs of a real world scene bright regions may be overexposed, while the dark ones may be underexposed, so we can’t capture all details using a single exposure. HDR imaging works with images that use more that 8 bits per channel (usually 32-bit float values), allowing much wider dynamic range.
 
-There are different ways to obtain HDR images but the most common one is to use photographs of the scene taken with different exposure values. To combine the exposures it is useful to know your camera's response function and there are algorithms to estimate it. After the HDR image has been constructed it has to be converted back to 8-bit to view it on regular displays. This process is called tonemapping. Additional complexities arise when objects of the scene or camera move between shots.
+There are different ways to obtain HDR images, but the most common one is to use photographs of the scene taken with different exposure values. To combine this exposures it is useful to know your camera’s response function and there are algorithms to estimate it. After the HDR image has been blended it has to be converted back to 8-bit to view it on usual displays. This process is called tonemapping. Additional complexities arise when objects of the scene or camera move between shots, since images with different exposures should be registered and aligned.
 
-In this tutorial we show how to make and display HDR image provided we have exposure sequence. In our case images are already aligned and there are no moving objects. We also demonstrate an alternative approach called exposure fusion that produces low dynamic range image. Each step of this pipeline can be made using different algorithms so take a look at the reference manual to find them all.
+In this tutorial we show how to generate and display HDR image from an exposure sequence. In our case images are already aligned and there are no moving objects. We also demonstrate an alternative approach called exposure fusion that produces low dynamic range image. Each step of HDR pipeline can be implemented using different algorithms so take a look at the reference manual to see them all.
 
 Exposure sequence
 ------------------
@@ -39,9 +39,9 @@ Explanation
     vector<float> times;
     loadExposureSeq(argv[1], images, times);
 
-  First we load input images and exposure times from user-defined destination. The folder should contain images and *list.txt* - file that contains file names and inverse exposure times.
+  Firstly we load input images and exposure times from user-defined folder. The folder should contain images and *list.txt* - file that contains file names and inverse exposure times.
   
-  For our image sequence the list looks like this:
+  For our image sequence the list is following:
   
   .. code-block:: none 
   
@@ -58,9 +58,7 @@ Explanation
     Ptr<CalibrateDebevec> calibrate = createCalibrateDebevec();
     calibrate->process(images, response, times);
     
-  It is necessary to know camera response function for most HDR construction algorithms.
-    
-  We use one of calibration algorithms to estimate inverse CRF for all 256 pixel values.
+  It is necessary to know camera response function (CRF) for a lot of HDR construction algorithms. We use one of the calibration algorithms to estimate inverse CRF for all 256 pixel values.
     
 3. **Make HDR image**
 
@@ -80,9 +78,7 @@ Explanation
     Ptr<TonemapDurand> tonemap = createTonemapDurand(2.2f);
     tonemap->process(hdr, ldr);
     
-  Since we want to see our results on common LDR display we have to map our HDR image to 8-bit range preserving most details.
-    
-  That is what tonemapping algorithms are for. We use bilateral filtering tonemapper and set 2.2 as value for gamma correction.
+  Since we want to see our results on common LDR display we have to map our HDR image to 8-bit range preserving most details. It is the main goal of tonemapping methods. We use tonemapper with bilateral filtering and set 2.2 as the value for gamma correction.
     
 5. **Perform exposure fusion**
 
@@ -92,9 +88,7 @@ Explanation
     Ptr<MergeMertens> merge_mertens = createMergeMertens();
     merge_mertens->process(images, fusion);
 
-  There is an alternative way to merge our exposures in case we don't need HDR image.
-    
-  This process is called exposure fusion and produces LDR image that doesn't require gamma correction. It also doesn't use exposure values of the photographs.
+  There is an alternative way to merge our exposures in case when we don't need HDR image. This process is called exposure fusion and produces LDR image that doesn't require gamma correction. It also doesn't use exposure values of the photographs.
     
 6. **Write results**
 
@@ -104,11 +98,7 @@ Explanation
     imwrite("ldr.png", ldr * 255);
     imwrite("hdr.hdr", hdr);
     
-  Now it's time to view the results.
-    
-  Note that HDR image can't be stored in one of common image formats, so we save it as Radiance image (.hdr).
-  
-  Also all HDR imaging functions return results in [0, 1] range so we multiply them by 255.
+  Now it's time to look at the results. Note that HDR image can't be stored in one of common image formats, so we save it to Radiance image (.hdr). Also all HDR imaging functions return results in [0, 1] range so we should multiply result by 255.
   
 Results
 =======