how to open pdf file using itextsharp in c# : How to select all text in pdf file control software system azure windows wpf console tm2g18-part1500

ii. Save this image under a new name that includes 
“phys9,” or a similar designation that will 
distinguish it from its 25-class parent
(1)  Use “File/Save top layer as” to give the 
image a new name
(2)  Follow the naming conventions in SOP 5 
Data Management.
iii.  Select “Raster/Recode” from the viewer menu. 
(1)  The “Recode” window will pop up (fig. 9).
(2)  Keep the row 0 the same.
(3)  Starting with row 1, use the table or 
document where the class linkages 
were stored to type in the appropriate 
physiognomic class for a given spectral 
class.
(a)  The spectral class is the “Old Value” 
column.
(b)  The physiognomic class is the “New 
Value” column. 
(4)  After typing in the values in the New Value 
column, click on the Apply button.  
(a)  The colors on the image should change.   
The color scheme will remain the same 
as in the original 25-class image, but 
now the new classes only occupy the 
first 9 classes. Therefore, the colors of 
the first 9 classes in the 25-class image 
will be “painted” across the entire 
image. 
(5)  Select “File/Save Top Layer”
(a)  Imagine will warn that pixel values 
could change permanently; this is okay.  
Continue. 
(b)  NOTE: To see the effects of the 
change in the raster attribute editor, it 
is necessary to reload the image into 
the viewer; only then will statistics be 
calculated for the new physiognomic 
classes.
b.  The image at this stage is a representation of the 
physiognomic classes on the landscape.  It may be 
desirable to view this image and confirm that the 
patterns on the landscape make sense, using direct 
image interpretation and knowledge of the landscape 
as a guide.  Follow step 3.a.ii. above to link with the 
original tasseled-cap imagery.  
i.  While it is important that the general patterns 
on the landscape make sense, it must be kept in 
mind that these represent broad physiognomic 
classes, and that there is often a mixture of a 
variety of land types within one physiognomic 
class. See note 3.a.iii. above.  
5.  If it is thought necessary to change or regroup the 25 
classes differently, repeat step 3, adjusting class linkages 
as deemed necessary. Repeat steps 1 through 4 for the SE 
aspects. 
a.  Where the NW aspects AOI is indicated, choose the 
SE aspects instead. 
b.  Where the NW aspects classification or tasseled-cap 
image is indicated, choose the SE aspects version of 
the same instead. 
IV. Probability Surfaces for 
Physiognomic Classes
The change-detection approach used here relies on 
the concept of likelihood of class membership, a concept 
well established in the common “maximum-likelihood” 
classification process. In the maximum-likelihood 
classification process, training samples are used to characterize 
the spectral properties of each of several classes, on the 
assumption that class membership is a Gaussian probability 
surface in the multiple spectral bands of the training image. 
Each pixel in a spectral image can then be scored according 
to its probability on that probability surface for each class; 
a pixel is labeled according to the class in which it has the 
maximum probability of membership. See Richards (1993) 
for details on the maximum-likelihood approach. Rather 
than using the maximum-likelihood probabilities directly, 
we consider each pixel to have the potential for partial 
membership in several classes, which makes the method an 
essentially fuzzy classification approach (Foody, 1996). 
Although maximum-likelihood classification is a built-
in component in Imagine, the built-in module cannot be 
used here. First, for each pixel Imagine provides the single 
or, in the case of fuzzy classification, multiple-class calls, 
but does not provide a multilayer POM image. Imagine will 
provide a single “distance image,” the Mahalanobis distance.  
The Mahalanobis distance is a component of the likelihood 
function, and could be converted to a POM using fairly 
straightforward linear-algebra techniques implemented in an 
Imagine graphical model. Unfortunately, the distance image 
provided by Imagine represents the distance of each pixel 
from the class to which it was assigned, so class-level-distance 
images can be achieved only if the classification is done with a 
single training class at a time. This is cumbersome, but would 
be manageable if it were not for the second challenge: the 
SOP .  Physiognomic Change Detection    
How to select all text in pdf file - search text inside PDF file in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Learn how to search text in PDF document and obtain text content and location information
select text pdf file; text searchable pdf file
How to select all text in pdf file - VB.NET PDF Text Search Library: search text inside PDF file in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
Learn How to Search Text in PDF Document and Obtain Text Content and Location Information in VB.NET application
search text in multiple pdf; convert pdf to searchable text
Figure 10.   An example of the covariance-matrix 
template file to keep track of the spectral properties of 
the nine physiognomic classes. 
probability calculations in a typical likelihood calculation are 
the likelihood of the unique point in spectral space being in 
a given class, which is a very small number because a point 
occupies a very small portion of the space. What is envisioned 
in our change-detection approach is to evaluate where a given 
pixel resides on a cumulative-probability surface ranging 
from 0 to 1.0, with the probability of 1.0 indicating the mean 
spectral position of a class. This requires an integration of 
the probabilities of all points in spectral space at a similar 
probability contour level, relative to all probabilities greater 
than the value at that point. Such an integration is not achieved 
easily in Imagine. 
Therefore, the process for producing likelihood 
surfaces was developed in IDL and transferred to IDL-VM 
for implementation. It involves several steps. First, spectral 
signatures for the nine physiognomic classes are gathered in 
the signature editor of Imagine. These are then copied and 
pasted into a comma-delimited text file for use as input to 
the IDL-VM routine. The IDL procedure takes the signature 
information and produces a lookup table that assigns a 
cumulative probability of membership in each of the nine 
classes for a given combination of tasseled-cap values. A 
second IDL procedure then applies that lookup table to any 
image, either the baseline image or a changed image, to 
produce an image of probabilities. This image is then imported 
back into Imagine, where it can be differenced and further 
processed. 
1.  Characterize the statistical properties of each of the nine 
physiognomic classes. Do this process for the NW aspect 
images first, then the SE aspect images. 
a.  Open in a viewer the nine-physiognomic-class image 
from section III. 
b.  Open the tasseled-cap image from which the 25-class 
image was derived (see section I). 
c.  Open the template spreadsheet for recording the 
covariance matrix information. 
i.  This file has been provided with this protocol, 
and is named:
(1)  “Physclass_covariance_matrix_template.
csv”.
(a)  The file is comma-delimited, which 
means it can be viewed in any text 
editor, but is most easily manipulated in 
Excel, where each cell can be entered 
separately. 
d.  Save this file – AS COMMA DELIMITED FORMAT 
– under a new name for the particular park, year, and 
aspect class for which the physclass image above was 
created. 
i.  Follow the naming and file locations in SOP 5 
Data Management. 
ii.  Note the following example to understand the 
key components of this file (fig. 10).
(1)  The covariance-matrix file must have the 
same format as noted above to be intelligible 
to the IDL routines later on.  
(a)  Each class is noted by a cell labeled 
“class <x>”, where <x> is 1, 2, 3, etc. 
Note the lack of capitalization. 
(b)  In the cell immediately to the right of 
that cell, the name of the class can be 
entered, of any arbitrary length, but be 
careful NOT to include any commas in 
the description! 
(c)  The next row should include cells in this 
sequence:
(i)  Blank, “band 1”, “band 2”, “band 
3”, “mean vector”.
(d)  The first cell in the next row must have 
the name “band 1” followed by four 
cells of numbers (to be entered below).
(e)  The first cell in the next row must have 
the name “band 2”, followed by four 
cells of numbers (to be entered below).
(f)  The first cell in the next row must have 
the name “band 3” followed by four 
cells of numbers (to be entered below).
6    Protocol for Landsat-Based Monitoring of Landscape Dynamics at North Coast and Cascades Network Parks
C# PDF Image Extract Library: Select, copy, paste PDF images in C#
Extract various types of image from PDF file, like XObject Image, XObject Form, Inline Image, etc. C#: Select All Images from One PDF Page.
how to select text in pdf reader; converting pdf to searchable text format
VB.NET PDF Image Extract Library: Select, copy, paste PDF images
Dim allImages = PDFImageHandler.ExtractImages(doc) ' Extract all images in page 2. Dim page As PDFPage = doc VB.NET : Select An Image from PDF Page by
pdf make text searchable; find text in pdf files
e.  From the main Imagine icon panel, select 
“Classification/Signature Editor”.
i.  The “Signature Editor” window will pop up 
(fig. 11).
f.  Select “Edit/Image Association.” 
i.  A window will appear prompting for the name of 
the associated image file.  Navigate to the tasseled-
cap image noted in step 1.b. above. Be careful to 
select the tasseled-cap image for the same aspect 
group (NW or SE aspects). 
Figure 11.  Signature Editor window. 
g.  Next, have Imagine extract the spectral properties for 
each of the nine physiognomic classes:
i.  Select “Edit/Extract” from thematic layer.
ii.  The “Signature Extract from Layer” dialog will 
pop up (fig. 12). 
iii.  Use the folder icon to navigate to the nine 
physiognomic-class image (created in section III 
above) for the desired aspect class. 
iv.  Name the output-signature file according to the 
conventions in SOP 5 Data Management.
(1)  Note this file name for use in the probability 
calculations later. 
v.  Click on the “AOI” button.
(1)  Navigate to the AOI for this aspect class, 
created in SOP 2, section X. 
(a)  Recall that an AOI is an area of interest 
in Imagine terminology.  This confines 
Figure 12.  Window to specify signature extraction from thematic 
layers. 
the signature gathering to only the NW 
or SE aspects.  
vi.  Click on OK button to run the signature 
collection.
h.  In the Signature Editor, select “File/Open.”
i.  Use the folder icon to navigate to the signature 
file just created. 
(1)  Recall that the “Recent” button in the file 
navigation window can be used to quickly 
access recently used files (fig. 13). 
i.  Click on Ok button to load the signatures. 
i.  The Signature Editor should now show nine rows 
of signatures, with colors corresponding to the 
colors chosen for the nine physiognomic classes 
in the classified image (section III above). See 
figure 14 for an example. 
Figure 1.  Screen capture with drawn circle iIllustrating the 
Recent button in the file-navigation dialog, which allows quick 
access to recently opened Imagine files.
SOP .  Physiognomic Change Detection    
VB.NET PDF Text Redact Library: select, redact text content from
coding example shows you how to redact PDF text content Dim outputFilePath As String = Program.RootPath + "\\" output.pdf" ' open document All Rights Reserved
how to make a pdf file text searchable; search pdf documents for text
C# PDF Text Redact Library: select, redact text content from PDF
C# coding example describes how to redact PDF text content. String outputFilePath = Program.RootPath + "\\" output.pdf"; // open document All Rights Reserved
find and replace text in pdf; pdf find text
Figure 1.  Signature editor window, with spectral signatures from nine 
physiognomic classes.
j.  The goal now is to transfer the covariance-
matrix and mean-spectral values from each 
of these nine classes into the covariance-
matrix file created in step 1.d. above. 
i.  In the Signature Editor, note the column 
to the left of the Signature Name.  The 
column is headed with a greater-than 
sign (>).  In the first row, there also is a 
greater-than sign, indicating that the first 
class is the active class. 
ii.  Select View/Statistics from the 
Signature Editor
(1)  The “Statistics” window will open 
Figure 1.  Class statistics window, from which values will be 
entered into the covariance-matrix spreadsheet. 
showing with the name of the active class in the title bar (typically class 1 on startup).  See figure 15
iii.  First, copy and paste the covariance-matrix values into the spreadsheet.
(1)  Select all three rows in the covariance matrix in the bottom half of the window (fig. 15) by clicking and 
dragging the grey boxes on the left-hand side of the table.  The rows should be highlighted. 
(2)  Select all three columns in the same table by clicking and dragging left to right across the boxes at the top of 
the table. The columns should be highlighted (fig. 16). 
Figure 16.  Highlighting of covariance-matrix cells.
(3)  Right-click in any of the three column header number boxes (1, 2, or 3)
(a)  Select ‘copy.’ 
iv.  In the Excel spreadsheet from section 1.d. above (fig. 10), click and drag to select the 3 by 3 set of cells in the 
class 1 section of the spreadsheet corresponding to bands 1, 2, and 3 (fig. 17). 
(1)  Right-click in those cells and select “paste.”
(a)  Confirm that the values in the spreadsheet match those in the covariance matrix in the Imagine Statistics 
window. 
    Protocol for Landsat-Based Monitoring of Landscape Dynamics at North Coast and Cascades Network Parks
C# HTML5 PDF Viewer SDK to view PDF document online in C#.NET
Compatible with all Windows systems and supports .NET Framework 2.0 & above Able to select PDF document scaling. Easy to search PDF text in whole PDF document.
pdf text search tool; search text in pdf using java
VB.NET PDF- View PDF Online with VB.NET HTML5 PDF Viewer
Compatible with all Windows systems and supports .NET Framework 2.0 & above Able to select PDF document scaling. Easy to search PDF text in whole PDF document.
can't select text in pdf file; how to select text in pdf and copy
Figure 1.  Selecting the cells in the covariance matrix 
of Class 1 to be written over by the values calculated in 
the Statistics window.
v.  In the Signature Editor, left-click in the “>” 
column in row 2 for the second class. The “>” 
symbol should move to that cell, indicating that 
class 2 is now the active class. The statistics 
window should be updated to show the statistics 
for class 2.  
(1)  Because the cells are still selected in the 
Statistics window for the covariance matrix, 
simply right-click in the column header of 
any of the three columns of the covariance 
matrix, and select “copy.”
vi.  Paste these into the 3 by 3 set of cells of the 
covariance matrix spreadsheet (follow steps iv. 
and v. above). 
vii.  Repeat this for all nine classes.
viii.  Then return to class 1 in the signature editor.
(1)  Click in the “>” column next to class 1. 
ix.  In the Statistics window, select all three rows 
in the top half of the window this time (the 
“Univariate” half).
x.  Select just the single column title “Mean.”
xi.  Copy and paste these cells into the class 1 “Mean 
Vector” column of the spreadsheet. 
xii.  Repeat this process for all nine classes.
xiii.  Save the file. Excel will alert the user about .csv 
having properties that may be saved in the file. 
Save anyway. 
xiv.  This covariance-matrix file will be used by the 
IDL VM program “PROBDIFF” to calculate 
POM in each of the nine classes. 
2.  Set up the text format “runfile” in preparation for running 
the IDL-VM program.
a.  The authors have provided a template runfile for 
PROBDIFF program.  
i.  The runfile template is named:  probdiff_
runfile_template.txt.
ii.  This file controls the PROBDIFF program, 
telling it where to find files, the covariance 
matrix, etc. 
b.  Before making changes, first save this file under a 
new name that allows unique connection with the 
park, aspect class, and occasion of this run.
i.  The occasion refers to the current 
implementation of change detection, recognizing 
that in future years a new change-detection 
run will be done, and thus will need to be 
distinguished from the current run. 
c.  The file must have these fields. Each file must end 
with a colon, and have exactly one space following 
the colon. 
i.  NOTE:  It is critical that you use exactly the 
same names for the key phrases on each line (i.e. 
Apply to file:  must be written exactly as shown), 
that a single space follow the colon of each key 
phrase, and that the filename, etc. entered for that 
phrase be entirely on the same line in the file – 
do NOT press return/enter anywhere between the 
phrase and the end of the characters specifying 
the filename.  
ii.   “Covariance matrix file: ”
(1)  This must have the full pathname of 
the comma-delimited file to which the 
covariance-matrix values have been copied 
in step 1. 
iii.  “Output probability lookup file: ”
(1)  This file will retain the IDL-code 
designating the lookup values to link 
spectral values with the cumulative POM.  It 
can be used only by the IDL program, but 
the naming should be determined by the user 
to include as a reference in the metadata. 
SOP .  Physiognomic Change Detection    
VB.NET PDF - View PDF with WPF PDF Viewer for VB.NET
13. Cancel. Unhighlight all search results on PDF. 14. Whole word. Select to search all text content filled in. 15. Ignore case.
how to select text in a pdf; pdf find highlighted text
C# WPF PDF Viewer SDK to view PDF document in C#.NET
13. Cancel. Unhighlight all search results on PDF. 14. Whole word. Select to search all text content filled in. 15. Ignore case.
search pdf files for text; convert pdf to word searchable text
iv.  “Run name: ”
(1)  This is a string identifier that will be 
attached to the image file names to name the 
output nine-layer probability images, and to 
the current occasion of the change detection.
v.  “Apply to file: ”  
repeated for as many 
images as desired, with a separate entry on each 
subsequent line
(1)  This is the full pathname of the tasseled-
cap images for which this lookup table is to 
apply.
(2)  At a minimum, the baseline and the changed 
image should be listed here. But there is 
no limit to the number of images to which 
this can be applied.  Thus, several years of 
imagery could be processed in succession, 
all referenced to the baseline-image 
condition.  At present, this protocol simply 
assumes that two images, one at each end of 
a change interval, are being processed.  
(3)  NOTE:  It is critical that you use exactly 
the same names for the key phrases on each 
line (i.e. Apply to file:  must be written 
exactly as shown), that a single space follow 
the colon of each key phrase, and that the 
filename, etc. entered for that phrase be 
entirely on the same line in the file – do 
NOT press return/enter anywhere between 
the phrase and the end of the characters 
specifying the file name.  
3.  Run the PROBDIFF program
a.  Ensure that the IDL-VM has been installed on the 
computer. 
i.  See SOP 2 section VI for information on 
installing Virtual Machine.
b.  Find the PROBDIFF.sav file provided in the 
appendices. 
i.  Drag the file onto the IDL-VM icon. 
ii.  On the IDL-VM splash screen, click OK to 
continue. 
iii.  The PROBDIFF program will notify you that 
it is beginning by showing a small information 
screen.  Click OK to start the program.
c.  A window will pop up asking for the location of the 
runfile-template text file. 
i.  This is the text file that was just created in the 
prior step. 
d.  The program will begin.  
i.  There will be no direct indicator icon showing 
progress of the program. However, the program 
continually writes out a diagnosis file for error 
analysis, should the program cease functioning.  
This diagnosis file is placed by the program in 
the same directory as the PROBDIFF control 
file that was used to run it. The name is based on 
the PROBDIFF control file name, but has added 
a unique time stamp identifier and the word “_
diag.txt”. By watching this file (either reloading 
it over time or simply refreshing a Windows 
Explorer window viewing the file and its time 
stamp), the user can ensure that the program is 
running. As long as the file is updated frequently, 
the file is running.  If there are any problems, the 
text file can be used to determine where in the 
program flow the problem occurred.  
ii.  The program first uses the covariance-matrix 
data from the nine classes to build a lookup table 
for the POM for each combination of spectral 
values in the baseline image from which the 
covariance matrix was built. This program will 
take significant time to run. 
iii.  Then the program applies this lookup table to all 
of the files that are listed in the runfile.  These 
are the files listed as “Apply to file:” noted in 
step 2.c.iv. above. 
4.  When the program is done, import the probability images 
into Imagine. These images are named Probability of 
Membership (POM) images, because they describe the 
POM in each of the nine physiognomic classes.
a.  See details on importing BSQ images into Imagine 
in SOP 2, section VII, step 4. Briefly, use Imagine’s 
Import/Export dialog to navigate to the directory of 
each of the “Apply to file” images.  The probability 
image name will follow the name of the image from 
which it is calculated, with a modifier associated with 
the unique name provided in the runtime file. 
i.  Name the Imagine format file according to the 
naming conventions in SOP 5 Data Management. 
b.  There also will be a file with the extension “.hdr”.  
i.  Open that as a text file, and use it to find the 
appropriate fields for the Imagine importer.  
ii.  Once the image is imported, use that file to 
fill out the map-projection information in the 
ImageInfo of the imported image. 
5.  The result of this process is an aspect-appropriate POM 
0    Protocol for Landsat-Based Monitoring of Landscape Dynamics at North Coast and Cascades Network Parks
VB.NET PDF Page Extract Library: copy, paste, cut PDF pages in vb.
example that you can use it to extract all images from Dim page As PDFPage = doc.GetPage(3) ' Select image by you how to copy pages from a PDF file and paste
how to make a pdf document text searchable; cannot select text in pdf
C# WPF PDF Viewer SDK to annotate PDF document in C#.NET
PDF annotating tool, which is compatible with all Windows systems Click to select drawing annotation with default properties Click to add a text box to specific
pdf text search; pdf select text
image with nine layers (one for each class listed in 
the covariance-matrix file) for each image listed in the 
PROBDIFF control file. For a given year of image, the 
nine values associated with each pixel correspond to the 
probabilities of that pixel belonging in each of the nine 
physiognomic classes for that year. The next step is to 
subtract probabilities of class membership across years to 
identify areas of change. 
a.  NOTE:  These images represent probabilities scaled 
by 100 and transferred into byte type (to make the file 
sizes manageable).  Thus, the probabilities will range 
from 0 to 100.  
At this point, repeat all of the steps in this section for the 
SE aspect-image class. 
V. Calculating Difference Image
At this stage, we focus on POM images for the baseline 
and the change image for one aspect class.  In section IV, 
POM in each of the physiognomic classes was calculated for 
each pixel.  In this section, the POM values for each class are 
subtracted on a pixel-wise basis to identify changes in POM 
over the change interval. Here again, we refer to the earlier 
date image as the “baseline” image and the later date image as 
the “change” image.  Again, conduct every step here for the 
NW aspects, then repeat for the SE aspects. 
1.  Confirm that the map information entered for the 
imported images is correct (these steps referred to several 
other points earlier in the SOPs)
a.  In two viewers, open the two POM images that will 
be subtracted. The images should be from the same 
aspect class (either NW or SE). One image should be 
the POM image associated with the baseline year and 
one the POM image associated with the change year. 
b.  In a third viewer, open the tasseled-cap version of the 
baseline image. This will serve as a visual reference. 
c.  In the tasseled-cap viewer, right-click and select “Geo 
Link/Unlink,” and link with one of the other viewers, 
then do it again and link with the last viewer. 
d.  Open a cursor (click on the “+” cursor icon in either 
viewer), and then click and drag it around, making 
sure that all three images are lined up geographically. 
i.  If not, use the ImageInfo to examine the 
geographic-map model and projection 
information. Use discrepancies to trace back to 
the source of the potential mismatch.  Since these 
are all derived from the same images, errors are 
most frequently associated with mistypings, etc. 
in the manual importing of the images. 
e.  Once these have been confirmed, close all viewers. 
2.  In Imagine’s main console, select the “Image Interpreter” 
button, then select “Utilities\Operators”
a.  The “Two Input Operators” window will pop up 
(fig. 18). 
b.  The “Input File #1” image is the POM image created 
by PROBDIFF for the “Change image”  (the later of 
the two dates). 
c.  The “Input File #2” image is the POM image created 
by PROBDIFF for the “Baseline image.”
d.  Name the output file according to the SOP 5 Data 
Management. 
e.  Change the “Operator” to the minus sign. 
f.  Change the “Output” to “Signed 16-bit.”
g.  Select the AOI button.
i.  Navigate to the aspect AOI (nwaspects.aoi 
or seaspects.aoi) file corresponding to this 
aspect image. This AOI was created in SOP 2, 
section X.
h.  Click on OK button to run the differencing. 
i.  This image will take the two 9-layer POM 
images, subtract each band from the same band, 
which will result in a 9-layer difference-in-POM 
image. 
3.  Examine the difference image to make sure it makes 
sense.
Figure 1.  Two input operators window, used to 
subtract two images. 
SOP .  Physiognomic Change Detection    1
a.  In two new viewers, open the baseline and change 
tasseled-cap images on which the POM images were 
based.
i.  These images are the tasseled-cap images listed 
in the “Apply to file:” lines of the PROBDIFF 
control file (see section IV, step 2.c.v. above). 
b.  In two additional viewers, open the predifferencing 
POM images.
i.  These are the nine-layer images corresponding to 
the POM in each of the physiognomic classes. 
c.  In a fifth viewer, open the POM difference image
d.  In any of the viewers, select “View/Tile Viewers” to 
better distribute all five viewers on the screen. 
e.  Geolink all viewers to the POM difference image.
i.  Right-click in the POM difference image, select 
Geo Link/Unlink, and then select another viewer.  
Repeat for all four other viewers. 
f.  Start a cursor using the “+” icon. 
g.  Move the cursor around and ensure that the patterns 
in the difference image make sense.  
h.  How to interpret the images:
i.  There are nine bands in these POM images, 
only three of which are shown.  Depending on 
the configuration of Imagine, the three shown 
initially may differ, but are typically bands 
4, 3 and 2 for Red, Green, and Blue on the 
screen, respectively. Each band corresponds to a 
physiognomic class, with band 1 corresponding 
to the first physiognomic class.  The order of 
the classes is the same as the order they were 
entered in the covariance matrix file passed to 
the PROBDIFF program.
(1)  The choice of which bands are displayed can 
be changed using Raster/Band Combinations 
in the viewer.  There, the bands associated 
with each color gun (red, green, and blue) on 
the screen can be chosen.
(2)  No-change: If an area has not changed in 
any of the three bands currently displayed 
in the viewer, it will appear grey because 
all three bands are zero. Grey is roughly 
midway between the negative and positive 
ranges of the changes seen across the image. 
(3)  Change: Colors other than grey involve 
some change in the combined probabilities 
of the three classes being displayed.  
Because the color reflects potential positive 
and negative changes in each of the three 
displayed classes as well as no-change, the 
exact interpretation requires some careful 
thought. 
(a)  Consider the case where classes 1, 2, 
and 3 are represented by the red, green, 
and blue color guns on the screens.  
(b)  If a pixel shows up red, it could be 
the result of two distinct processes.  
The more intuitive process is where 
class 1 has increased in POM, and 
classes 2 and 3 are unchanged. The 
less intuitive process is where classes 2 
and 3 have decreased dramatically, and 
class 1 has remained the same.  Thus, 
the color combination represents the 
relative change among the three classes 
currently displayed.  
(4)  It is safest to use the colors as a preliminary 
indicator of change, and then to use the 
cursor (crosshairs) to query individual pixels 
in a changed area to confirm the direction of 
change (positive or negative) of each class. 
If the difference image appears to have many geometric 
artifacts, it may be that the map information was entered 
incorrectly, or that the registration of the images was 
insufficient. 
(5)  In the case of the latter problem, it is 
necessary to confirm that the terrain 
correction in the geometric registration was  
done correctly, and that the tie points were 
located correctly. See SOP 2, section VI on 
geometric correction. 
ii.  If there appear to be many false positives—areas 
where change is claimed in the difference image 
but where there is no apparent cause in the 
source tasseled-cap images—then the patterns of 
the false positives must be examined to develop 
hypotheses about what might be going wrong. 
(1)  Note that low probability changes in class 
membership are often due to normal noise in 
illumination, processing, etc.  False positives 
should be considered as those changes 
where a high probability (>50) of change 
is indicated, but where there is no obvious 
change in the parent images. 
(2)  If false positives appear to have no 
2    Protocol for Landsat-Based Monitoring of Landscape Dynamics at North Coast and Cascades Network Parks
relationship to the patterns on the actual 
landscape, it may be that the radiometric 
normalization has not been achieved 
appropriately.  Go back to the SOP 2 section 
VIII on radiometric normalization and check 
the output images to make sure that the 
normalization has not failed. 
(3)  If false positives are restricted to particular 
features on the landscape, first check to 
determine if those features are always 
located in one of the physiognomic classes.  
If so, first check to make sure that the 
covariance matrices of the classes were 
entered correctly into the covariance matrix 
comma-delimited file (see section IV, step 1 
above). 
The steps in this section need to be repeated in their 
entirety for the other aspect class.
The difference POM images at this point can be used in 
one of three ways. First, they can be used directly as visual 
estimates of the continuous-variable probability of change 
across all classes. This directly fulfills one of the objectives 
of the protocol, and makes this image a final product (see 
SOP 5).  Secondly, these nine-layer probability-of-change 
images can be masked to only include areas where a certain 
threshold of change has occurred, to simplify viewing and 
interpretation.  Finally, these continuous-variable images can 
be categorized according to rules deemed as useful for an 
individual park’s needs. This will be described in section VIII 
below. 
VI. Merging Aspects
Sections II through V must be done separately for each 
of the two aspect classes (SE and NW).  Once this has been 
done, the POM difference images should be merged for further 
analysis.  
In Imagine’s main icon panel, click on the Interpreter 
button, and select “Utilities/Operators.”  The operator window 
will popup.  Enter the SE aspect image as Input File #1, 
the NW aspect image as Input File #2.  Retain the “+” as 
the operator.  This will add the two POM difference images 
together on a pixel-wise basis. Because the two images have 
zeros where their aspect class is not present, this approach 
is a simple approach to merge the two aspect classes. Name 
the output according to the conventions in SOP 5 Data 
Management. 
VII. Using Pacific Meridian Resources 
Data to Describe Physiognomic Class
The physiognomic classes created in section IV above 
were based on a direct understanding of the physical basis 
for the distribution of reflectances in spectral space. Broadly 
speaking, regions of spectral space describe vegetation 
physiognomic properties anywhere in the world.  While 
changes in these classes can often be used to describe where 
disturbance is occurring and generally how that disturbance 
affected the vegetation, the physiognomic classes contain no 
information on park-specific vegetation-community types that 
they represent.  
In the parks of the NCCN, field data were recorded 
for the purposes of Landsat-based mapping by the private 
consulting company Pacific Merdian Resources (PMR) in 
the mid-1990s.  While these field data do not cover enough 
of the spectral space to be used as the basis for statistical 
class building, they can be used as a first approximation of 
the park-specific vegetation within each of the physiognomic 
classes. This step only need be taken during the startup phase 
of monitoring, when the image from the era near collection of 
ground data from PMR is being processed. 
Using the PMR field data to describe the physiognomic 
classes consists of three steps. First, the database with the 
field data must be summarized to the plot level with summary 
statistics that are desirable to the user.  An example is 
described below, but any statistics could be used. The key 
is simply that each plot with a unique geographic location 
have a set of numeric descriptors. This is done in Microsoft© 
Access, or could be done in any similar database-software 
package. The second step is to extract the physiognomic class 
associated with each plot.  This is done in Imagine using the 
geographic coordinates in the database. Finally, the plots are 
grouped by physiognomic class and summarized to provide a 
description of that class. 
1.  Summarizing PMR data in the database. 
a.  This can be done to any level of detail desired.  
Below, we provide a sketch of the process. 
b.  The PMR data were provided to the authors 
in the form of an MS Access database called 
“PMRPlotData.”  Each tree or each cover component 
is stored as a separate entry.  The goal is to collapse 
all tree observations and cover observations into a 
single entry per plot. 
i.  A query with all plots and measures for the 
NCCN existed in that database.  From it, a 
simple query was used to develop a new table 
with the plots and measures for a single park. 
SOP .  Physiognomic Change Detection    
Figure 1.   Pixel to Table window. 
(1)  Record cleaning involved filling in values in 
the FIXED column for trees where no entry 
was made. The FIXED value was inferred 
from the DBH of the observed tree. 
(a)  if DBH is between 4 and 18, assign 40.
(b)  if DBH is between 18 and 36, assign 10.
(c)  if DBH  is >36, assign 5.
(2)  A select query was then used to extract only 
the live-tree observations. 
(3)  Conifer and broadleaf components were 
separated.
(a)  The broadleaf and conifer species were 
assigned manually in the species table 
of the database, and linked to the live-
tree observations. 
(b)   This was then linked to the result of 
the query of live tree observations (step 
(2)). 
(c)  A query could then be made on conifer 
and hardwood designation.  In this 
query, the DBH was converted to area 
per acre using the expansion factor (the 
FIXED value) in the formula:  [exp_fact
or]*((0.5*[DBH])^2)*3.14159/144. 
(i)  A new column with area per acre 
was created in the query. 
(d)  The results were two queries, one for 
broadleaf and one for conifer, where 
each tree’s DBH was scaled to a plot-
level basal area. 
(e)  Then a crosstab query was used to add 
up the total basal area by broadleaf and 
conifer per plot. 
ii.  For all components where the COMPCODE was 
not LT (live tree), a crosstab query was used to 
add the cover percentages by plot number. 
iii.  This was combined with the conifer and 
broadleaf tree components to result in a single 
table that had all plot coordinates from the 
original plot file, along with the broadleaf and 
conifer basal area and the percentages of the 
nontree components.  
2.  Extracting these points in Imagine.
a.  Copy the X,Y coordinates of the plots into a separate 
spreadsheet. 
i.  In the database program, select all of the plot 
X and Y coordinates. In Access, the column 
headers X_coord and Y_coord are selected, and 
the Edit/Copy function selected.  
(1)  NOTE: It is critical that these coordinates 
be listed in the same coordinate system as 
the image (i.e. NAD83, if standard NCCN 
conventions are used).  The images in the 
PMR database are in NAD83 already, so this 
should not be an issue.  
ii.  Paste these into an empty Excel spreadsheet. 
iii.  Remove any leading text rows, so that only two 
columns have data. 
iv.  Save this as a comma-delimited file. 
v.  In the Windows Explorer, change the extension 
of this file to .dat (this is so that Imagine will 
accept it). 
b.  In Imagine’s main console, select “Utilities/Pixels to 
ASCII.”
i.  The Pixel to Table window will pop up (fig. 19).
ii.  The Input Image is the nine-class physiognomic 
image created by recoding the 25-class image in 
section III above. 
(1)  Once the file is located and shows in the 
Input File field, the “Add” button must be 
clicked. 
iii.  Under “Type of Criteria:” select “Point File,” and 
then find the “.dat” file just created. 
iv.  The Output File (ending in .asc) should be placed 
in this park’s folder. 
v.  Click on OK. 
    Protocol for Landsat-Based Monitoring of Landscape Dynamics at North Coast and Cascades Network Parks
Documents you may be interested
Documents you may be interested