free c# pdf reader : Acrobat remove text from pdf software Library project winforms .net web page UWP import_export22-part1249

Importing Hierarchical Data Format (HDF4) Files
HDF-EOS Point Data
HDF-EOS Point data sets are tables. You can import a subset of an HDF-EOS
Point data set by specifying field names and level. Optionally, you can refine
the subsetting by specifying the range of records you want to import, by
defining a rectangular area, or by specifying a time period. For information
about specifying a rectangular area, see “Geographic Box” on page 6-73. For
information about subsetting by time, see “Time” on page 6-75.
HDF-EOS Swath Data
HDF-EOS Swath data is data that is produced by a satellite as it traces a path
over the earth. This path is called its ground track. The sensor aboard the
satellite takes a series of scans perpendicular to the ground track. Swath data
can also include a vertical measure as a third dimension. For example, this
vertical dimension can represent the height above the Earth of the sensor.
The HDF Import Tool supports the following mutually exclusive subsetting
options for Swath data:
• “Direct Index” on page 6-78
• “Geographic Box” on page 6-79
• “Time” on page 6-80
• “User-Defined” on page 6-80
To access these options, click the
Subsetting method
menu in the
Importing and Subsetting pane.
6-77
Acrobat remove text from pdf - extract text content from PDF file in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Feel Free to Extract Text from PDF Page, Page Region or the Whole PDF File
copy text from scanned pdf; copy text from pdf in preview
Acrobat remove text from pdf - VB.NET PDF Text Extract Library: extract text content from PDF file in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
How to Extract Text from PDF with VB.NET Sample Codes in .NET Application
cut and paste pdf text; copy text from locked pdf
6
Scientific Data



Direct Index. You can import a subset of an HDF-EOS Swath data set by
specifying the location, range, and number of values to be read along each
dimension.
Each row represents a dimension in the data set and each column represents
these subsetting parameters:
• Start — Specifies the position on the dimension to begin reading. The
default value is 1, which starts reading at the first element of each
dimension. The values specified must not exceed the size of the relevant
dimension of the data set.
• Increment — Specifies the interval between the values to read. The
default value is 1, which reads every element of the data set.
• Length — Specifies how much data to read along each dimension. The
default value is the length of the dimension, which causes all the data to
be read.
6-78
.NET PDF Document Viewing, Annotation, Conversion & Processing
Insert images into PDF. Edit, remove images from PDF. Redact text content, images, whole pages from PDF file. Print. Support for all the print modes in Acrobat PDF
c# get text from pdf; c# extract text from pdf
C# PDF Converter Library SDK to convert PDF to other file formats
independently, without using other external third-party dependencies like Adobe Acrobat. If you need to get text content from PDF file, this C# PDF to
copy text from pdf; extract text from pdf online
Importing Hierarchical Data Format (HDF4) Files
Geographic Box. You can import a subset of an HDF-EOS Swath data
set by specifying the rectangular area of the grid that you are interested in
and by specifying the selection Mode.
You define the rectangular area by specifying two points that specify two
corners of the box:
• Corner 1 — Specify longitude and latitude values in decimal degrees.
Typically, Corner 1 is the upper-left corner of the box.
• Corner 2 — Specify longitude and latitude values in decimal degrees.
Typically, Corner 2 is the lower-right corner of the box.
You specify the selection mode by choosing the type of Cross Track
Inclusion and the Geolocation mode. The Cross Track Inclusion value
determines how much of the area of the geographic box that you define must
fall within the boundaries of the swath.
Select from these values:
• AnyPoint — Any part of the box overlaps with the swath.
• Midpoint — At least half of the box overlaps with the swath.
6-79
C# powerpoint - PowerPoint Conversion & Rendering in C#.NET
documents in .NET class applications independently, without using other external third-party dependencies like Adobe Acrobat. PowerPoint to PDF Conversion.
extract text from pdf file using java; copying text from pdf into word
C# Windows Viewer - Image and Document Conversion & Rendering in
standard image and document in .NET class applications independently, without using other external third-party dependencies like Adobe Acrobat. Convert to PDF.
copy text from pdf reader; extract text from pdf
6
Scientific Data
• Endpoint — All of the area defined by the box overlaps with the swath.
The Geolocation Mode value specifies whether geolocation fields and data
must be in the same swath.
Select from these values:
• Internal — Geolocation fields and data fields must be in the same swath.
• External — Geolocation fields and data fields can be in different swaths.
Time. You can optionally also subset swath data by specifying a time period.
The units used (hours, minutes, seconds) to specify the time are defined by
the data set
User-Defined. You can optionally also subset a swath data set by specifying
user-defined parameters.
When specifying user-defined parameters, you must first specify whether you
are subsetting along a dimension or by field. Select the dimension or field by
name using the Dimension or Field Name menu. Dimension names are
prefixed with the characters
DIM:
.
6-80
C# Word - Word Conversion in C#.NET
Word documents in .NET class applications independently, without using other external third-party dependencies like Adobe Acrobat. Word to PDF Conversion.
copy text from pdf without formatting; extracting text from pdf
JPEG to PDF Converter | Convert JPEG to PDF, Convert PDF to JPEG
It can be used standalone. JPEG to PDF Converter is able to convert image files to PDF directly without the software Adobe Acrobat Reader for conversion.
export text from pdf to word; copy and paste text from pdf
Importing Hierarchical Data Format (HDF4) Files
Once you specify the dimension or field, you use Min and Max to specify
the range of values that you want to import. For dimensions, Min and Max
represent a range of elements. For fields, Min and Max represent a range
of values.
HDF Raster Image Data
For 8-bit HDF raster image data, you can specify the colormap.
6-81
PDF to WORD Converter | Convert PDF to Word, Convert Word to PDF
PDF to Word Converter has accurate output, and PDF to Word Converter doesn't need the support of Adobe Acrobat & Microsoft Word.
copy text from protected pdf; extract text from image pdf file
VB.NET PDF: How to Create Watermark on PDF Document within
create a watermark that consists of text or image (such And with our PDF Watermark Creator, users need no external application plugin, like Adobe Acrobat.
copying text from pdf to excel; export text from pdf to excel
6
Scientific Data
Exporting to Hierarchical Data Format (HDF4) Files
In this section...
“Overview” on page 6-82
“Mapping HDF4 to MATLAB Syntax” on page 6-83
“Step 1: Creating an HDF4 File” on page 6-84
“Step 2: Creating an HDF4 Data Set” on page 6-84
“Step 3: Writing MATLAB Data to an HDF4 File” on page 6-86
“Step 4: Writing Metadata to an HDF4 File” on page 6-88
“Step 5: Closing HDF4 Data Sets” on page 6-90
“Step 6: Closing an HDF4 File” on page 6-90
“Using the MATLAB HDF4 Utility API” on page 6-90
Overview
Hierarchical Data Format (HDF4) is a general-purpose, machine-independent
standard for storing scientific data in files, developed by the National
Center for Supercomputing Applications (NCSA). For more information
about these file formats, read the HDF documentation at the HDF Web site
(
www.hdfgroup.org
).
HDF-EOS is an extension of HDF4 that was developed by the National
Aeronautics and Space Administration (NASA) for storage of data returned
from the Earth Observing System (EOS). For more information about this
extension to HDF4, see the HDF-EOS documentation at the NASA Web site
(
www.hdfeos.org
).
This section describes how to use MATLAB functions to access the HDF4
Application Programming Interfaces (APIs). These APIs are libraries of C
routines. To import or export data, you must use the functions in the HDF4
API associated with the particular HDF4 data type you are working with.
Each API has a particular programming model, that is, a prescribed way
to use the routines to write data sets to the file. To illustrate this concept,
this section describes the programming model of one particular HDF4 API:
the HDF4 Scientific Data (SD) API. For a complete list of the HDF4 APIs
6-82
TIFF to PDF Converter | Convert TIFF to PDF, Convert PDF to TIFF
PDF to TIFF Converter doesn't require other third-party such as Adobe Acrobat. speed for TIFF-PDF Conversion; Able to preserve text and PDF file's vector
.net extract text from pdf; pdf text replace tool
VB.NET PowerPoint: VB Code to Draw and Create Annotation on PPT
other documents are compatible, including PDF, TIFF, MS free hand, free hand line, rectangle, text, hotspot, hotspot more plug-ins needed like Acrobat or Adobe
a pdf text extractor; extract all text from pdf
Exporting to Hierarchical Data Format (HDF4) Files
supported by MATLAB and the functions you use to access each one, see
the
hdf
reference page.
Note This section does not attempt to describe all HDF4 features and
routines. To use the MATLAB HDF4 functions effectively, you must refer to
the official NCSA documentation at the HDF Web site (
www.hdfgroup.org
).
Mapping HDF4 to MATLAB Syntax
Each HDF4 API includes many individual routines that you use to read
data from files, write data to files, and perform other related functions. For
example, the HDF4 Scientific Data (SD) API includes separate C routines to
open (
SDopen
), close (
SDend)
,and read data (
SDreaddata
).
Instead of supporting each routine in the HDF4 APIs, MATLAB provides a
single function that serves as a gateway to all the routines in a particular
HDF4 API. For example, the HDF Scientific Data (SD) API includes the C
routine
SDend
to close an HDF4 file:
status = SDend(sd_id); /* C code */
To call this routine from MATLAB, use the MATLAB function associated with
the SD API,
hdfsd.
You must specify the name of the routine, minus the API
acronym, as the first argument and pass any other required arguments to the
routine in the order they are expected. For example,
status = hdfsd('end',sd_id); % MATLAB code
Some HDF4 API routines use output arguments to return data. Because
MATLAB does not support output arguments, you must specify these
arguments as return values.
For example, the
SDfileinfo
routine returns data about an HDF4 file in two
output arguments,
ndatasets
and
nglobal_atts
.Here is the C code:
status = SDfileinfo(sd_id, ndatasets, nglobal_atts);
To call this routine from MATLAB, change the output arguments into return
values:
6-83
6
Scientific Data
[ndatasets, nglobal_atts, status] = hdfsd('fileinfo',sd_id);
Specify the return values in the same order as they appear as output
arguments. The function status return value is always specified as the last
return value.
Step 1: Creating an HDF4 File
To export MATLAB data in HDF4 format, you must first create an HDF4 file,
or open an existing one. In the HDF4 SD API, you use the
SDstart
routine.
In MATLAB, use the
hdfsd
function, specifying
start
as the first argument.
As other arguments, specify
• A text string specifying the name you want to assign to the HDF4 file (or
the name of an existing HDF4 file)
• A text string specifying the HDF4 SD interface file access mode
For example, this code creates an HDF4 file named
mydata.hdf
:
sd_id = hdfsd('start','mydata.hdf','DFACC_CREATE');
When you specify the
DFACC_CREATE
access mode,
SDstart
creates the file
and initializes the HDF4 SD multifile interface, returning an HDF4 SD file
identifier, named
sd_id
in the example.
If you specify
DFACC_CREATE
mode and the file already exists,
SDstart
fails,
returning
-1
. To open an existing HDF4 file, you must use HDF4 read or
write modes. For information about using
SDstart
in these modes, see “Step
1: Opening the HDF4 File” on page 6-58.
Step 2: Creating an HDF4 Data Set
After creating the HDF4 file, or opening an existing one, you must create a
data set in the file for each MATLAB array you want to export. If you are
writing data to an existing data set, you can skip ahead to the next step.
In the HDF4 SD API, you use the
SDcreate
routine to create data sets. In
MATLAB, you use the
hdfsd
function, specifying as arguments:
• Name of the SD API routine,
'create'
in this case
6-84
Exporting to Hierarchical Data Format (HDF4) Files
• Valid HDF4 SD file identifier,
sd_id
,returned by
SDstart
• Name you want assigned to the data set
• Data type of the data set.
• Number of dimensions in the data set. This is called the rank of the data
set in HDF4 terminology.
• Size of each dimension, specified as a vector
Once you create a data set, you cannot change its name, data type, or
dimensions.
For example, to create a data set in which you can write the following
MATLAB 3-by-5 array of
doubles
,
A = [ 1 2 3 4 5 ; 6 7 8 9 10 ; 11 12 13 14 15 ];
you could call
hdfsd
,specifying as arguments
'create'
and a valid HDF
file identifier,
sd_id
. In addition, set the values of the other arguments as
in this code fragment:
ds_name = 'A';
ds_type = 'double';
ds_rank = ndims(A);
ds_dims = fliplr(size(A));
sds_id = hdfsd('create',sd_id,ds_name,ds_type,ds_rank,ds_dims);
If
SDcreate
can successfully create the data set, it returns an HDF4 SD data
set identifier, (
sds_id
). Otherwise,
SDcreate
returns
-1
.
In this example, note the following:
• The data type you specify in
ds_type
must match the data type of the
MATLAB array that you want to write to the data set. In the example, the
array is of class
double
so the value of
ds_type
is set to
'double'
.If you
wanted to use another data type, such as
uint8
,convert the MATLAB
array to use this data type,
A = uint8([ 1 2 3 4 5 ; 6 7 8 9 10 ; 11 12 13 14 15 ]);
6-85
6
Scientific Data
and specify the name of the MATLAB data type,
uint8
in this case, in the
ds_type
argument.
ds_type = 'uint8';
• The code fragment reverses the order of the values in the dimensions
argument (
ds_dims
). This processing is necessary because the MATLAB
size
function returns the dimensions in column-major order and HDF4
expects to receive dimensions in row-major order.
Step 3: Writing MATLAB Data to an HDF4 File
After creating an HDF4 file and creating a data set in the file, you can write
data to the entire data set or just a portion of the data set. In the HDF4 SD
API, you use the
SDwritedata
routine. In MATLAB, use the
hdfsd
function,
specifying as arguments:
• Name of the SD API routine,
'writedata'
in this case
• Valid HDF4 SD data set identifier,
sds_id
,returned by
SDcreate
• Location in the data set where you want to start writing data, called the
start vector in HDF4 terminology
• Number of elements along each dimension to skip between each write
operation, called the stride vector in HDF4 terminology
• Total number of elements to write along each dimension, called the edges
vector in HDF4 terminology
• MATLAB array to be written
Note You must specify the values of the start, stride, and edges arguments
in row-major order, rather than the column-major order used in MATLAB.
Note how the example uses
fliplr
to reverse the order of the dimensions in
the vector returned by the
size
function before assigning it as the value of
the edges argument.
The values you assign to these arguments depend on the MATLAB array
you want to export. For example, the following code fragment writes this
MATLAB 3-by-5 array of doubles,
6-86
Documents you may be interested
Documents you may be interested