how to open pdf file using itextsharp in c# : Convert pdf to searchable text online software control dll winforms web page .net web forms tm2g16-part1498

(a)  Cubic convolution can depress values 
of pixels neighboring bright objects, 
and thus can force otherwise dark 
objects to even darker values that are an 
exaggeration of the actual dark-object 
value.
c.  Repeat this process for all six of the visible bands in 
the Landsat image. Record each dark-object value in 
the Excel file from step 1.b. above.
i.  When this has been done for all bands, evaluate 
the relation between dark-object values across 
bands.
(1)  The effect of haze is greatest at shorter 
wavelengths in the blue bands of the image, 
and tapers off as band number increases. 
Therefore, the dark-object values should be 
highest in band 1, lower in band 2, etc. The 
dark-object values of each band should be 
no higher than the band number lower than 
it. If this is not the case, then it indicates 
that the dark-object value for the lower-
numbered band may have been too low. 
Review the dark-object pixels for that band.
(2)  Bands 5 and 7 may have almost no 
scattering, and therefore may have dark-
object values of 1 or 0.
3.  Identifying sun elevation and angle:
a.  When an image is ordered from EDC, the associated 
header contains information on the sun elevation and 
sun azimuth.
i.  For Landsat 7 (ETM+) imagery, the gains and 
offsets are listed for each band in the header 
file. These should be entered into the Excel 
spreadsheet.
ii.  For Landsat 5 imagery ordered after May 4, 
2003, the gains and offsets in the header can be 
used and entered into the Excel spreadsheet.
iii.  For Landsat 5 imagery that was acquired by the 
satellite before 1989 and processed before May 
4, 2003, use the gains and offsets (table 2) found 
in Chander and Markham, 2003.
4.  Entering data into an Imagine spatial modeler
a.  An Imagine graphic model appears in the appendix 
that will apply the values collected in steps 1–3 to 
an image to create a COST-processed version of 
the image. This model is named applying_cost_
template.gmd
i.  From Imagine’s main icon panel, select the icon 
labeled “Modeler.”
ii.  Select “Model Maker.”
iii.  In the Model Maker, use the open folder to 
navigate to the template model and open it 
(fig. 20).
iv.  Save this file under a name that links it to the 
image being processed. Do this using File/Save 
As. Use the naming conventions of SOP 5 Data 
Management.
b.  Conventions of the spatial modeler in Imagine.
i.  See figure 20.
Figure 20.  Graphic modeler in Imagine, with the template for COST 
processing.
b.  These values should be entered into the 
excel spreadsheet noted above. Note that the 
formula for the COST processing requires 
the sun zenith, which is 90 degrees minus the 
sun elevation.
4.  Identifying gains and offsets:
a.  The DN values reported in a band from 
Landsat do not correspond to actual physical 
quantities. To convert the DNs to physical 
values of radiance, the gains and offsets of 
the sensors in the satellite must be taken 
into account. The gain of a sensor is akin to 
the amplification factor needed to convert 
it from one set of units into another—the 
slope of the line relating the DNs to radiance 
values, in this case. The offset or bias is 
simply the equivalent of the intercept of the 
same line. As a sensor ages, these translation 
factors will drift, and thus it is necessary to 
know them for each specific image being 
processed.
SOP 2.  Preprocessing Landsat Imagery    
Convert pdf to searchable text online - search text inside PDF file in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Learn how to search text in PDF document and obtain text content and location information
how to search pdf files for text; converting pdf to searchable text format
Convert pdf to searchable text online - VB.NET PDF Text Search Library: search text inside PDF file in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
Learn How to Search Text in PDF Document and Obtain Text Content and Location Information in VB.NET application
cannot select text in pdf; find text in pdf image
ii.  All spatial data and actions applied to it are 
represented as shapes linked with arrows that 
indicate the flow of processing.
iii.  Double-click on any shape to see information 
about the spatial data, numerical data, or function 
contained in the shape.
iv.  Click on the hammer symbol to show a window 
of tools that can be used to update or build a 
graphic model.
v.  Circles correspond to functions. For a function to 
operate, it must have an arrow leading to it from 
some data object, such as an image or a table.
vi.  Stacked oblique squares represent spatial data. 
These are used as inputs to functions.
vii.  Squares correspond to data that must be entered 
manually or that is not spatial, such as tables 
taken from external text files.
c.  Enter data accumulated in the Excel spreadsheet into 
the modeler.
i.  In the upper-left of the model, double-click on 
the image-stack symbol labeled “Image to be 
converted.” The Raster information layer will 
pop up (see fig. 21).
ii.  In the filename field, use the open folder icon to 
navigate to the appropriate image and select it.
(a)  NOTE: Even though the dark objects were 
chosen using the entire original Landsat 
image footprint, the actual correction model 
should be applied to the image that has been 
clipped to the study area! The use of dark 
objects outside the study area is justified on 
the simplifying assumption that atmospheric 
conditions are stable across the entire image, 
even though this assumption is technically 
false. However, dark objects are critical to 
this correction and also are rare, so the use 
of the entire image allows inclusion of more 
dark objects, which outweighs the potential 
problems in variable atmospheric conditions. 
If enough dark objects are viewed across 
the image, then these conditions should 
approximately average out.
iii.  All of the other values in the window can be left 
in their default conditions.
d.  In the box near the top center labeled “Sun Zenith 
Angle,” enter the sun zenith angle from the Excel 
spreadsheet. Recall that this is 90 degrees minus 
the sun elevation, which typically is what is listed 
in the header for the file.
e.  In the box on the right-hand side of the model labeled 
“Gains and Offsets,” double-click and enter the gains 
and offsets recorded in the Excel file. Note that the 
matrix window that appears will have six rows. Rows 
1–5 correspond to bands 1 through 5, while row 6 
corresponds to band 7 of Landsat.
f.  In the box labeled “Min Vals for Subtraction,” enter 
the dark-object values from the excel spreadsheet that 
were determined in step 1 in this section above.
g.  At the bottom of the model, click on the image stack 
shape labeled “Output COST image.”
h.  Save the model, ensuring that the name can be linked 
easily to the image on which the processing is to be 
conducted.
i.  Run the model by clicking on the red lightning bolt 
icon in the icon row at the top of the graphic model 
window.
Figure 21.  Raster information layer that is used to specify image 
files for modeling.
Table 2.  Gains and offsets for Landsat 5 imagery acquired before 
1989.
[From Chander and Markham (2003)] 
Gain
Bias
Band 1
0.602431
-1.52
Band 2
1.1751
-2.84
Band 3
0.805765
-1.17
Band 4
0.814549
-1.51
Band 5
0.108078
-0.37
Band 7
0.05698
-0.15
6    Protocol for Landsat-Based Monitoring of Landscaped Dynamics at North Coast and Cascades Network Parks
Online Convert PDF to Text file. Best free online PDF txt
convert PDF document to editable & searchable text file text converter control toolkit can convert PDF document to Download and try RasterEdge.XDoc.PDF for .NET
pdf find text; how to select all text in pdf file
C# PDF Convert to Text SDK: Convert PDF to txt files in C#.net
PDF document conversion SDK provides reliable and effective .NET solution for Visual C# developers to convert PDF document to editable & searchable text file.
search text in multiple pdf; how to select text in pdf and copy
5.  The result of this process is an image in units of apparent 
reflectance on the surface of the Earth. It likely will not 
correspond to true reflectance on the ground because 
the approximation for atmospheric effects is not perfect, 
and because the illumination angle of slope facets on the 
landscape is not considered. Nevertheless, the gross effects 
of atmospheric scattering and atmospheric patheffects 
have been addressed. This image will be referred to as the 
COST version of an image.
a.  Note that the units of this image are in scaled 
reflectance. True reflectance is considered a 
proportion from 0 to 1.0. Representing these values 
requires the use of the floating-point data type, which 
requires twice as much space on the disk as the 
integer type. Therefore, all of the reflectances have 
been scaled to run from 0 to 1000, with 1000 equal to 
1.0 reflectance. Note also that some pixels will have 
reflectances less than zero—these correspond to the 
pixels that were noted as artifacts in the dark-object-
identification step above.
VIII. Radiometric Normalization
In most cases, COST processing will not take care of all 
of the atmospheric effects that could cause confusion when 
change detection is conducted later. Two COST-processed 
images likely will differ somewhat in their claimed reflectances 
for a given pixel, even if no real change has occurred, because 
the true nature of the atmosphere above every pixel is not 
known. Because some of the parks’ monitoring goals require 
distinction of subtle spectral difference, even these slight 
artifacts could be problematic. Therefore, it is necessary to 
further normalize images before change detection can take 
place.
Many approaches exist in the remote sensing literature to 
normalize the radiometric and spectral qualities of one image 
to another. The authors tested a variety of these approaches 
and determined that a recently published approach known as 
Multiple Alteration Detection Calibration (MADCAL) works 
extremely well for the parks of the NCCN, and has the great 
advantage of being automated.
The authors have supplied IDL-VM software that will 
perform the MADCAL normalization between two images. 
Follow the steps below for normalization.
1.  Identify the radiometric-reference image and the 
radiometric-dependent image.
a.  As noted above in section II, the radiometric-reference 
image need not be the same image as the geometric-
reference image. However, both the reference 
and dependent images must have been registered 
geometrically to the reference- geometric image.
b.  The reference-radiometric image ideally should be as 
close to clear-sky conditions as possible.
2.  To run the MADCAL software, a text file with run 
parameters must be constructed.
a.  An example file has been provided, named “madcal_
runfile_template.txt”. Save this file under a new name 
that will identify it specifically to the images being 
used. It is advisable that the runtime file be placed 
in the same folder as the dependent image, since it is 
that image that will be altered.
b.  The following are the fields that must be present in 
that file:
Reference file: 
D:\NPS\sites\mora\geospatial_data\mora_1996_2002\
radiometric\tm_mora_14aug2002_nad83_cc_rcost.img
Dependent file: 
D:\NPS\sites\mora\geospatial_data\mora_1996_2002\
radiometric\tm_mora_21aug1996_nad83_cc_rcost.img
Run name: test1
Subset size in pixels: 1000
Subset upper left coordinate: 569949, 5192068
Subset upper left coordinate: 576724, 5217368
Subset upper left coordinate: 602174, 5217368
Subset upper left coordinate: 604374, 5187943
c.  Key phrases are those that appear to the left of the 
colon (:) symbol. They must exist exactly as shown 
above, followed immediately by the colon symbol, 
followed by a space, followed by the relevant field 
information. To view the file and set the parameters, 
use a generic text editor such as Notepad.
d.  Description of key phrases above.
i.  Reference file:
(1)  Provide the full pathname to an imagine-
format file that corresponds to the 
radiometric-reference image.
ii.  Dependent file:
(1)  Provide the full pathname to an imagine-
format file that corresponds to the image that 
will be matched to the radiometric-reference 
image.
iii.  Run name:
(1)  Provide a unique name for this run that will 
identify outputs in case other runs are done 
on the same dependent image. This run 
name will be attached to the file name of key 
files to distinguish it from other runs.
SOP 2.  Preprocessing Landsat Imagery    
VB.NET PDF Convert to Text SDK: Convert PDF to txt files in vb.net
& searchable text formats. Support .NET WinForms, ASP.NET MVC in IIS, ASP.NET Ajax, Azure cloud service, DNN (DotNetNuke), SharePoint. Convert PDF document page
how to select text on pdf; select text in pdf reader
VB.NET Image: Robust OCR Recognition SDK for VB.NET, .NET Image
more companies are trying to convert printed business on artificial intelligence to extract text from documents will be outputted as searchable PDF, PDF/A,TXT
convert a scanned pdf to searchable text; pdf text select tool
iv.  Subset size in pixels:
(1)  The MADCAL program extracts a subset 
from the two images to be matched and 
conservatively identifies pixels that have 
not changed substantially between the two 
images. Because of the calculations needed 
to identify the no-change pixels, memory 
sizes may constrain the size of the subset 
that can be extracted. We have found that a 
subset size of 1000 pixels works well.
v.  Subset upper left coordinate:
(1)  Because of the limitation of individual 
subset size, our implementation of the 
MADCAL approach allows for multiple 
subsets. Pixels that have not changed in each 
subset are identified, and then all of the no-
change pixels are combined to produce a 
large no-change pixel sample that is used to 
develop bandwise regressions that link the 
reference and dependent images.
(2)  Therefore, the position of the different 
subsets must be provided to the program. To 
identify these subsets, do the following:
(a)  Open a viewer in Imagine (see section 
IV, steps 1 and 2).
(b)  Load the radiometric-reference image 
that has been clipped to the study area 
for the park.
(c)  Anywhere in the viewer space, right-
click and select “Fit image to window” 
from the pulldown menu.
(d)  Anywhere in the viewer space, right-
click and select “Inquire Box” from the 
pulldown menu.
(i)  A small window with coordinates 
for the inquire box will popup 
(fig. 22).
(3)  The goal is to use this inquire box to 
visually delineate the areas on the image 
that are to be used for the MADCAL 
subsets. Therefore, the first step is to make 
the inquire box equal in size to the subsets 
that will be used in the MADCAL routines. 
If the recommended size of 1000 pixels is 
used, follow these steps. Alter the number 
1000 if a different subset size is chosen.
(a)  In the inquire box, from the “Type” 
pulldown menu select “File”, rather 
than the default “Map” value.
(i)  The coordinates change from map 
coordinates to file coordinates.
(b)  With the mouse, highlight the value in 
upper left field box labeled ULX: and 
type 0 to overwrite the value to 0.
(c)  Do the same for the ULY value, setting 
it to 0.
(d)  For the LRX and LRY fields, set each 
field to 1000.
(e)  Click on the Apply button.
(i)  The inquire box should be resized 
to the size of the subset, and should 
reside in the upper left of the 
viewer.
(f)  In the inquire box, from the “Type” 
pulldown menu select “Map.” The box 
will be of the same size, but now the 
coordinates will be map coordinates.
(g)  With the mouse, click and drag in the 
center of the inquire-box area to move 
it across the image. Do NOT resize the 
box by pulling the corners, as this will 
require repeating steps (a)–(e) above.
(4)  Move the inquire box over the reference 
image and locate subsets. When an area has 
been located, note the values in the inquire 
box in the ULX and ULY fields. Ensure 
that these are in map coordinates, not file 
coordinates.
(a)  Enter these values in the MADCAL 
control text file for the Subset upper 
left coordinate field. The format is <X 
coordinate>, <Y coordinate>. 
(b)  Repeat this process for as many subsets 
as desired. Four such subsets are shown 
in the example above, but any number 
from 1 to as many is allowed.
Figure 22.  Inquire-box window.
    Protocol for Landsat-Based Monitoring of Landscaped Dynamics at North Coast and Cascades Network Parks
C# Create PDF Library SDK to convert PDF from other file formats
PDF document file created by RasterEdge C# PDF document creator library is searchable and can be fully populated with editable text and graphics
pdf find highlighted text; select text in pdf
VB.NET PDF Convert to HTML SDK: Convert PDF to html files in vb.
Why do we need to convert PDF document to HTML webpage One is that compared with HTML file, PDF file (a not be easily edited), is less searchable for search
can't select text in pdf file; how to select all text in pdf
(c)  If more than four subsets are chosen, 
copy the key phrase “Subset upper left 
coordinate: ” text to a new line directly 
under the prior subset.
(d)  If fewer than four subsets are chosen, 
make sure to erase the entire line for 
the nonused subsets. The key phrase 
“Subset upper left coordinates: ” only 
should appear if valid coordinates 
follow it on the same line.
(5)  Tips on locating subsets.
(a)  The subsets should be well 
distributed across the area of the 
image.
(b)  Make sure that subsets represent all 
of the types of landcover conditions 
present in the image.
(c)  Avoid subsets that have a majority 
of their area in conditions that 
likely are to change drastically 
between images, such as cloudy 
areas in one image or large snow 
areas.
3.  Once the MADCAL run parameters have been entered, 
the program can be run.
a.  Locate the “madcal.sav” file that has been provided 
with this protocol.
b.  Click and drag this file over the IDL-VM.
c.  The program will produce a “splash screen” 
advertising IDL. Click on it to make it go away.
d.  The program will then prompt for the location of the 
MADCAL control file.
i.  Navigate to the file created in step 2 and click on 
the OK button.
e.  The program will then run.
i.  A window will appear noting that MADCAL has 
begun, and noting the location of the diagnosis 
file. This diagnosis file is a text file that keeps 
track of programmatic flow, in case of errors.
ii.  There will be no other initial indicator of 
progress for the file.
(1)  The diagnosis file will be updated as the 
program runs, so occasional checks of this 
file’s time stamp, or re-opening of this file, 
will provide an idea that the program is still 
running.
iii.  Eventually, a cascade of new windows will pop 
up, each with a scatterplot of the reference and 
dependent image pixels, as well as the regression 
line fit to them, for each band, for the first subset.
iv.  This will repeat for each of the subsets identified 
in the MADCAL control file
v.  Finally, a set of similar windows will pop up that 
will cycle through the bands more slowly. This is 
the set that combines all of the no-change pixels 
across subsets, and takes longer for each set.
vi.  When the last one is done, the windows will 
disappear. This indicates that the program is 
complete.
f.  View the log file. It defaults to the C:\temp directory. 
Open this file with a simple text editor.
i.  In that file, the location of the MADCAL results 
file is noted. This is the file that contains all of 
the relevant information on the run, including 
correlation coefficients for the regressions 
between the reference and dependent images.
(1)  It is listed in the log file as:
Setting up results file:
D:\NPS\sites\mora\geospatial_data\mora_1996_2002\
radiometric\tm_mora_21aug1996_nad83_cc_rcosttest1_
madcaloutputs.txt
g.  Open the results file.
i.  Listed at the top of this file are the reference 
image, dependent image, and subset coordinates. 
These should be included with metadata on the 
dependent file. See SOP 5 Data Management for 
components of the metadata to be included with 
each file.
ii.  Information on the fitting of subsets is provided 
for reference, but can be ignored for the final 
image file because the subset-specific fitting 
parameters are not used.
iii.  The important fitting information begins in the 
file after the point labeled as follows:
“Performing final calibration  
using all no-change pixels.”
h.  The program will write a calibrated version of the 
dependent image. The name of this file is noted at 
the end of the results file, and is based on the original 
name of the dependent file, with “_madcal.bsq” 
added at the end of the filename.
i.  This file is a “flat binary” file. It must be imported 
SOP 2.  Preprocessing Landsat Imagery    
VB.NET PDF Convert to Word SDK: Convert PDF to Word library in vb.
Word documents from both scanned PDF and searchable PDF files without Convert PDF document to DOC and DOCX formats in to export Word from multiple PDF files in
convert pdf to searchable text; how to make a pdf document text searchable
C# PDF: C# Code to Draw Text and Graphics on PDF Document
This online guide content is Out Dated! Draw and write searchable text on PDF file by C# code in both Web and Windows applications.
search a pdf file for text; how to select text in pdf image
into Imagine.
4.  Importing the MADCAL adjusted image into Imagine 
(referenced in SOP 3, Probability Differencing).
a.  Open the header file associated with the calibrated 
image. This header file has the same name as the 
file noted in h) above, but with the extension “.hdr” 
instead of “.bsq”.
i.  This is a text file with information on the flat 
binary file that is relevant for importing into 
imagine. An example is shown here:
BANDS: 6
ROWS: 2930
COLS: 3228
DATATYPE: S16
UL_X_COORDINATE: 557599.00
UL_Y_COORDINATE: 5228568.0
LR_X_COORDINATE: 638274.00
LR_Y_COORDINATE: 5155343.0
PIXEL_WIDTH: 25.000000
PIXEL_HEIGHT: 25.000000
b.  See section III above (Importing images into 
Imagine). Open the Import/Export dialog
i.  Select “Generic Binary” from the “Type” 
pulldown menu.
ii.  In the Input File field, navigate to and select the 
madcal calibrated image with extension “…bsq”, 
noted in step 3.h. above.
iii.  In the Output File field, navigate to the same 
directory and type in the desired name of the 
output file.
(1)  Follow the conventions in SOP 5 Data Man-
agement.
iv.  Click on the OK button. The “Import Generic 
Binary Data” window will popup (fig. 23).
c.  Use the information in the header file to fill in the 
appropriate fields.
i.  Data Format: Select “BSQ.”
ii.  Data Type: Select “Signed 16 Bit.”
iii.  # Rows: Type in the value from the “Rows” line 
in the header file.
iv.   # Cols: Type in the value from the “Cols” line in 
the header file.
v.  # Bands: Type in the value from the “Bands” line 
in the header file.
vi.  Click on the “Import Options” button.
(1)  The Import Options window will appear (not 
shown).
(2)  Select “Run-Length Encoding (ESRI)” from 
the “Output Data Compression” field. This 
will conserve significant file space, since 
it reduces the large areas of background to 
compressed data.
(a)  Do not select “Ignore zero in stats.”
(3)  Click on OK button.
vii.  In the “Import Generic Binary Data” window, 
click on the OK button.
(1)  A progress meter will show the progress on 
the import.
(2)  When it is done, click on the OK button.
d.  Update the map model and geometric information for 
the imported image.
i.  The imported image has no geographic 
information. Therefore, it is necessary to 
manually enter this once the image has been 
imported. It is identical to the map model and 
geometric information for the dependent image. 
Therefore, use it to fill in the appropriate fields.
ii.  Open a viewer and load the dependent image 
(the original, noncalibrated image, entered in the 
MADCAL control file in step 2d above in this 
section). This image will serve as the template 
for entering geographic information in the 
recently imported image.
(1)  Open the ImageInfo for this viewer (see 
fig. 7 above to find the appropriate icon to 
start the ImageInfo).
iii.  Open a second viewer and load the calibrated 
Figure 2.  Import generic binary data window.
60    Protocol for Landsat-Based Monitoring of Landscaped Dynamics at North Coast and Cascades Network Parks
C# HTML5 Viewer: Load, View, Convert, Annotate and Edit Word
C# users can convert Convert Microsoft Office Word to searchable PDF online, create multi to add annotations to Word, such as add text annotations to
select text in pdf file; text searchable pdf file
C# PDF Convert to HTML SDK: Convert PDF to html files in C#.net
library also makes PDF document visible and searchable on the Internet by converting PDF document file to Use C#.NET Demo Code to Convert PDF Document to
search text in pdf using java; search pdf files for text
image that was just imported.
(1)  Open the ImageInfo for this viewer. Arrange 
the two ImageInfo windows so that both can 
be seen on the screen at the same time.
iv.  In the ImageInfo for the calibrated image, select 
“Edit/Change Map Model.”
(1)  The Change Map Info window will pop 
up. Manually fill in the fields, using 
the ImageInfo of the original image as 
reference:
(a)  Upper Left X: Use the value of Upper 
Left X in the ImageInfo of the original 
dependent image.
(b)  Upper Left Y: Again, use the value from 
the Upper Left Y in the ImageInfo of 
the original dependent image.
(c)  Pixel size X and Y: Use the values 
from the fields named the same in the 
ImageInfo of the dependent image.
(d)  Units: meters
(e)  Projection: UTM
(f)  Click on OK button, and then accept the 
changes for all layers when prompted.
v.  In the ImageInfo for the calibrated image, select 
“Edit/Add/Change Projection.”
(1)  Again, use the information in the “Projection 
Info” of the original dependent image to 
update the spheroid, datum, UTM zone, and 
north/south fields.
e.  For these changes in the map model to take effect, the 
image must be closed. Close all of the viewers.
At the end of this section, the dependent image will be 
as radiometrically close to the radiometric reference image as 
possible. Both images will be in units of scaled reflectance, for 
all six nonthermal bands of Landsat thematic mapper. These 
images must then be converted to tasseled-cap values, and then 
split by aspect, before preprocessing is complete and change 
detection can commence.
IX. Converting Imagery to Tasseled-Cap 
Values
The tasseled-cap transformation is a linear transformation 
of the six-dimensional space of the original Landsat bands into 
three new bands known as brightness, greenness, and wetness. 
(Note: The original tasseled cap actually converts into six 
new bands, but in practice only the first three bands are used 
because they capture more than 90 percent of the variation of 
the 6-band images.) The tasseled-cap space can be interpreted 
in physiognomic terms in most terrestrial systems, and thus 
forms the core of the change-focused approach to monitoring 
that is the central theme of this protocol.
The authors have included an Imagine graphic model 
that converts reflectance-based COST-processed images into 
tasseled-cap values. Note that the tasseled-cap coefficients 
for reflectance band inputs, such as those resulting from 
the COST processing, are different from those originally 
published. The reflectance coefficients were published in a 
later article (Crist, 1985).
To run the tasseled cap, follow these steps.
1.  Open Imagine’s graphic modeler.
a.  In the main icon panel, select “Modeler,” and then 
“Model Maker.”
b.  When the blank spatial modeler window appears, 
use the open-folder icon and navigate to the graphic 
model that is included in the appendix for this 
protocol.
i.  The graphic model is entitled Landsat_refl_tas-
selcap.gmd.
c.  When the model is open, click on the red lightning 
bolt to run the model.
d.  The graphic model will prompt for the name of the 
input file by creating a dialog window with the title 
“Select Existing File for Raster: n1_Prompt_user.”
i.  Navigate to the COST-processed image, select it, 
and click on the OK button.
e.  The graphic model will then create a nearly identical 
looking window titled “Enter New File for Raster: 
n9_Prompt_user.”
i.  Navigate to the desired directory, and type in the 
name of the desired output file.
(1)  Use the conventions in SOP 5 Data 
Management for naming and location 
conventions.
ii.  Click on OK button once and the appropriate 
folder and name will be entered.
SOP 2.  Preprocessing Landsat Imagery    61
f.  The model will run and show a progress meter.
g.  When the model is complete, click on the OK button.
2.  Run the tassel-cap model on both dates of imagery that 
will be used for change detection.
a.  These images need not be the geometric nor the 
radiometric reference images. However, it is 
imperative that these images be referenced to the 
designated geometric and radiometric reference 
images as detailed in sections II through VIII above.
3.  Reset the default band combinations in Imagine for 3-
band images
a.  The three color guns on a color screen or monitor 
are red, green, and blue. When displaying images, 
Imagine must be told which band of an image is 
to be displayed in each of the three colors. NOTE: 
Unless otherwise specified, Imagine will default 
to displaying 3-band tasseled-cap images with 
brightness in blue, greenness in green, and wetness 
in red. This is the reverse of the color tones to be 
used throughout the rest of the protocol, and thus the 
defaults must be changed.
i.  From the main console, select “Session/
Preferences.” In the “User interface & session” 
category of the Preference Editor, scroll down on 
the right-hand portion of the panel to the point 
where 3-Band Image defaults are listed (see 
fig. 24).
ii.  Set the 3-band Image Red Channel Default to 1, 
Green Channel Default to 2, and Blue Channel 
Default to 3.
iii.  Click “User Save.”
iv.  Close the preference editor.
X. Splitting Imagery by Aspect
The Landsat Thematic Mapper passes over a given point 
in the northern hemisphere in late morning, around 10:30 
a.m. local sun time. At this time of day, the sun azimuth 
approximately is southeast, depending on the day of the year. 
Because of this, hillslopes that face southeast are illuminated 
directly with the maximum sunlight, while hillslopes that 
face northwest are least illuminated. In the remote sensing 
literature, various approaches have been proposed to 
equilibrate the effects of terrain-related variable illumination.
The key challenge in these approaches is that the 
bidirectional reflectance-distribution function, which 
describes variation in reflectance as a function of viewing 
and illumination angle and on which illumination correction 
must depend, differs substantially by type of material being 
illuminated (Egbert and Ulaby, 1972; Kimes, 1983; Kriebel, 
1978; Norman and others, 1985; Ranson and others, 1994). 
Thus, an illumination-angle correction must apply a different 
correction for every type of surface, and the correction 
must be based on detailed measurements made in those 
conditions. Approximations exist, but few have emerged as 
generically applicable. Moreover, atmospheric effects change 
the ambient illumination, which varies by image acquisition. 
For this reason, topographic correction has remained a 
challenging prospect (Civco, 1989; Conese and others, 1993; 
Holben and Justice, 1980; Teillet and others, 1982). For 
this project and for prior projects, the authors evaluated a 
promising recent entry in this field (Gu and Gillespie, 1998), 
but found it unacceptable for the variety of surface and 
illumination conditions encountered in the parks of the NCCN. 
Overcompensation was a common outcome of illumination 
correction (as has been found in most of the papers cited 
previously), resulting in reflectance values whose true 
meaning was even less well known than those resulting from 
sections II through IX above.
More importantly, no illumination correction can 
compensate for the simple fact that slopes with lower 
illumination have less reflective signal to be measured (Conese 
and others, 1993). For Landsat TM images, hillslopes facing 
northwest have lower signal-information content relative to the 
constant levels of background noise. Even if an illumination 
correction were to be developed that could produce images 
that appear visually appealing, they would imply that the 
image-information content were consistent across the entire 
area, which is false.
Therefore, all change detection for this protocol must be 
split into two broad aspect classes: those that face the sun at 
the time of image acquisition, and those that face away from 
the sun at the time of image acquisition. This approach makes 
explicit the fact that the two aspect classes inherently have 
different signal-to-noise ratios. This section describes how the 
images produced thus far can be split in preparation for the 
change detection.
Figure 2.  Setting bank-display preferences for viewing 
tasseled-cap image with brightness in red, greenness in green, 
and wetness in blue.
62    Protocol for Landsat-Based Monitoring of Landscaped Dynamics at North Coast and Cascades Network Parks
1.  First, the DEM must be split into different aspect classes.
a.  Create an aspect image.
i.  From the main icon panel in Imagine, click 
on the Image Interpreter button, and select 
“Topographic Analysis/Aspect.”
ii.  In the “Surface Aspect” window that appears 
next, do the following:
(1)  In the Input DEM field, navigate to the 
DEM that was clipped to the study area in 
section V, step 13 above.
(2)  In the Output file field, navigate to the 
same directory, and name the output file 
according to the conventions in SOP 5 Data 
Management.
b.  Create a slope image
i.  From the main icon panel in Imagine, click 
on the Image Interpreter button, and select 
“Topographic Analysis/Slope.”
ii.  In the “Surface Aspect” window that appears 
next, do the following:
(1)  In the Input DEM field, navigate to the 
DEM that was clipped to the study area in 
section V, step 13 above.
(2)  In the Output file field, navigate to the 
same directory, and name the output file 
according to the conventions in SOP 5 Data 
Management.
c.  The authors have provided an Imagine graphic model 
to create the aspect class masks that will be used to 
split the images.
i.  The model provided is named: make_aspect_
masks_mora.gmd. See figure 25.
(1)  This model was applied to the DEM at 
MORA on the computer system of the 
authors. Therefore, all file names and paths 
must be adapted when the parks conduct this 
processing.
(2)  First, save the graphic model under a new 
name using File/Save As. Follow the naming 
conventions in SOP 5 Data Management.
(3)  Changing filenames:
(a)  Double-click the image stack icon in 
the upper left of the graphic model, 
and enter the appropriate name in the 
filename field. The file is the aspect 
image created in section X, step 1a 
above.
(b)  Do the same procedure to change the 
name of the input slope image in the 
image stack icon in the upper right of 
the model.
(c)  Double-click on the icon on the right-
hand side of the image. Enter a name 
in the filename field for the mask 
corresponding to southeast aspects. It is 
recommended that a naming convention 
similar to that provided be used, where 
the filename includes the name of the 
park and the fact that the mask is for the 
southeast aspects.
(d)  Double-click on the icon on the bottom 
of the mask, and name the output for the 
NW aspects.
(4)  Run the model by clicking on the lightning 
bolt icon in the modeler icon row.
d.  Convert the masks into AOIs.
i.  Open a viewer, and open the NW aspect mask 
that was just created.
Figure 2.  Imagine graphic model for making aspect 
mask images at MORA.
SOP 2.  Preprocessing Landsat Imagery    6
ii.  In the viewer, select “Raster/Attribute editor.”
(1)  The Raster attribute editor window will 
open. There will be two rows, 0 and 1.
iii.  Select the row with the value 1 by left-clicking 
on the shaded box with the value “1” in it on the 
left-hand side of the table in the window.
(1)  This selects all of the pixels that have value 
1, which are those that are within the NW 
aspect mask.
iv.  In the Viewer, select “AOI/Copy selection to 
AOI.”
(1)  This will copy those pixels to a new, 
unnamed AOI.
v.  In the Viewer, select “File/Save/AOI layer 
as,” and save the AOI with a name based on 
the conventions described in SOP 5 Data 
Management.
(1)  This mask AOI will be relevant to all 
processing done at a given park, so it is 
critical that it be named and located for 
further use.
(2)  NOTE: In some cases, the authors have 
found that Imagine will not know how to 
use an AOI if the parent image from which 
it is drawn does not exist. This is even the 
case when the parent image exists but simply 
has been moved from its original location. It 
is therefore important to retain the original 
pixel-level aspect masks in their original 
directory. This also makes it advantageous 
for the user to refer back to them to recreate 
the masks if needed.
vi.  Repeat this process for the SE aspect mask.
e.  The result of this process are two image masks, one 
for each of the two aspect classes. In the mask image, 
a value of 1 indicates membership in the aspect class 
and a value of 0 indicates nonmembership. These 
images can be multiplied by any other image on 
a pixel by pixel basis to eliminate areas not in the 
mask, which is the next step below.
2.  Splitting images by aspect mask.
a.  The authors have provided a graphic model to 
multiply tasseled-cap images by the aspect masks 
to create tasseled-cap images split by aspect (named 
split_imagery_by_aspect.gmd). (see fig. 26)
i.  This model was applied to imagery and aspect 
masks at MORA on the computer system of 
the authors. Therefore, all file names and paths 
must be adapted when the parks conduct this 
processing.
ii.  First, save the graphic model under a new 
name using File/Save As. Follow the naming 
conventions in SOP 5 Data Management.
iii.  Changing file names:
(1)  Double-click the image stack icon in the 
upper left of the graphic model, and enter 
the name of one of the two tasseled-cap, 
study-area clipped images from section IX 
above.
(2)  Rename the files for the top-center and top-
right image stacks. These correspond to the 
aspect images that were created in step 1 
above in this section. The top center image 
is for the NW aspects mask and the top right 
for the SE aspects mask.
(3)  Follow the conventions in SOP 5 Data 
Management for naming the output files.
iv.  Run the model by clicking the lightning bolt icon 
in the modeler icon row.
3.  Repeat step 2 for all tasseled-cap images that are to be 
used in change detection.
Figure 26.  Graphic model to split tasseled-cap 
imagery by aspect class.
6    Protocol for Landsat-Based Monitoring of Landscaped Dynamics at North Coast and Cascades Network Parks
Documents you may be interested
Documents you may be interested