Chapter 27
Working with SPD Server Cluster 
Tables
About SPD Server Cluster Tables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 567
Creating an SPD Server Cluster Table . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 568
Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 568
Solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 568
Tasks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 568
Maintaining an SPD Server Cluster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 569
Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 569
Solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 570
About SPD Server Cluster Tables
The SAS Scalable Performance Data (SPD) Server enables you to create dynamic cluster 
tables. A dynamic cluster table is two or more SPD Server tables that are virtually 
concatenated into a single entity, using metadata that is managed by the SPD Server. 
Dynamic cluster tables can be used as the inputs or outputs in SAS Data Integration 
Studio jobs.
Before you can create a cluster table, the following prerequisites must be satisfied:
• Administrators must have installed, started, and registered an SPD Server. The 
application server that executes the cluster table job must be able to access the SPD 
Server. For more information about SPD Servers, see the chapters about common 
data sources in the SAS Intelligence Platform: Data Administration Guide.
• An SPD Server library must be available. For more information about SPD Server 
libraries, see the chapters about common data sources in the SAS Intelligence 
Platform: Data Administration Guide
• All of the source tables that are to be added to a cluster table have been registered in 
the SPD Server library. All source tables must have the same column structure.
• A cluster table has been registered in the SPD Server library. The cluster table and 
all of its source tables must have the same column structure. One way to ensure that 
all of these tables have the same columns is to use the New Table wizard to copy the 
metadata from a source table and save it as the metadata for the cluster table. For 
details about using the New Table wizard, see “Registering New Tables with the 
New Table Wizard” on page 82.
567
Convert pdf file to jpg - Convert PDF to JPEG images in C#.net, ASP.NET MVC, WinForms, WPF project
How to convert PDF to JPEG using C#.NET PDF to JPEG conversion / converter library control SDK
c# convert pdf to jpg; convert multi page pdf to single jpg
Convert pdf file to jpg - VB.NET PDF Convert to Jpeg SDK: Convert PDF to JPEG images in vb.net, ASP.NET MVC, WinForms, WPF project
Online Tutorial for PDF to JPEG (JPG) Conversion in VB.NET Image Application
change pdf to jpg image; convert pdf to high quality jpg
Creating an SPD Server Cluster Table
Problem
You want to create an SPD Server cluster table. Cluster tables can be used as the inputs 
or outputs in SAS Data Integration Studio jobs and can improve the performance of the 
jobs.
Solution
You can use the Create or Add to a Cluster transformation to create or add tables to an 
SPD Server cluster table. Use this transformation to create an SPD Server cluster table in 
a SAS Data Integration Studio job and list its contents in the Output tab in the Job 
Editor window. For more information, see the following tasks:
• “Create and Populate the Job” on page 568
• “Specify Options for the Create or Add to a Cluster Transformation” on page 569
Tasks
Create and Populate the Job
Perform the following steps to build a job that creates an SPD Server cluster table. If you 
add the List Cluster Contents transformation to the same job, you can list the source 
tables in the Output tab in the Job Editor window.
1. Create a job in SAS Data Integration Studio and give it an appropriate name.
2. Drop the Create or Add to a Cluster transformation on the Job Editor window. This 
transformation produces a temporary output table that you can use as a permanent 
output table or as an input to another transformation or table loader. You can also 
replace the temporary output table with a permanent target table. The SPD server 
cluster job does not actually load a physical table. Instead, it creates a virtual table 
that combines all of the data from the tables included in the SPD Server library into a 
virtual table that is processed as a single unit. The following example shows the 
temporary output table.
Display 27.1 Sample SPD Server Cluster Table Job with Temporary Output Table
3. To replace the temporary output table with the clustered table, right-click the 
temporary work table that is attached to the Create or Add to a Cluster 
transformation and click Replace in the pop-up menu. Then, use the Table Selector 
window to select the cluster table. For additional information about temporary output 
tables, see “Working with Default Temporary Output Tables” on page 146.
4. To verify what tables were clustered, add the List Cluster Contents transformation to 
the process flow, and drop the transformation on the Job Editor window. Then, drag 
568
Chapter 27 7 • • Working with SPD Server Cluster Tables
Online Convert Jpeg to PDF file. Best free online export Jpg image
Convert a JPG to PDF. You can drag and drop your JPG file in the box, and then start immediately to sort the files, try out some settings and then create the
convert pdf image to jpg image; changing pdf file to jpg
Online Convert PDF to Jpeg images. Best free online PDF JPEG
Online PDF to JPEG Converter. Download Free Trial. Convert a PDF File to JPG. Drag and drop your PDF in the box above and we'll convert the files for you.
batch pdf to jpg converter; best pdf to jpg converter for
the cursor from the output port of the cluster table to the input port of the List Cluster 
Contents transformation. The following display shows a process flow diagram for 
the resulting job. The numbers on the transformations show the order of the job's 
processes.
Display 27.2 Sample SPD Server Cluster Table Job with List Cluster Contents
The List Cluster Contents transformation sends a list of all tables included in the 
cluster table to the Output tab.
Specify Options for the Create or Add to a Cluster Transformation
Perform the following steps to specify options for the Create or Add to a Cluster 
Transformation and run the job.
1. Right-click the Create or Add to a Cluster transformation and click Properties to 
access the Create or add to a cluster Properties window. Then click Options to 
access the Options tab. 
2. Limit the tables that are included in the cluster table by entering a string in the 
Filter: table name contains ... field found on the Cluster Options window. In this 
case, enter CLUSTER because all tables that are required include this string in the 
table name.
3. Enter a value into the Set maximum number of slots field. This value must be large 
enough to accommodate the potential growth of the cluster because the number of 
slots cannot be increased after the cluster is created. If the slot size does not 
accommodate all of the clustered tables, then you must delete the existing cluster 
definition and define a new cluster that includes an adequate value for the maximum 
number of slots. 
4. Click OK to save the setting and close the properties window.
5. Submit and run the job. Click Output to access the Output tab and verify that the 
expected tables were added to the SPD Server cluster table, as shown in the 
following example:
Display 27.3 Cluster Contents on Output Tab
Maintaining an SPD Server Cluster
Problem
You want to maintain an existing SPD server cluster by adding a table to a cluster, 
generating a list of tables that are included in a cluster, or removing a cluster definition.
Maintaining an SPD Server Cluster
569
C# Image Convert: How to Convert Adobe PDF to Jpeg, Png, Bmp, &
C# sample code for PDF to jpg image conversion. This demo code convert PDF file all pages to jpg images. // Define input and output files path.
convert pdf to jpg; pdf to jpeg converter
C# Image Convert: How to Convert Dicom Image File to Raster Images
RasterEdge.XDoc.Office.Inner.Office03.dll. RasterEdge.XDoc.PDF.dll. This demo code convert dicom file all pages to jpg images.
change pdf into jpg; .net pdf to jpg
Solution
You can use the List Cluster Contents transformation or the Remove Cluster 
transformation. These transformations are explained in the following table.
Table 27.1 SPD Server Transformations
Server
Tasks That Require This Server
Add a table to a cluster
Perform the following steps to use the Create or Add to 
a Cluster transformation:
1. Create an empty job.
2. Drop the Create or Add to a Cluster transformation 
into the Job Editor window.
3. Replace the temporary output table with the 
clustered table.
4. Drag the cursor from the output port of the Create 
or Add to a Cluster transformation to the input port 
of the cluster table.
5. Run the job.
Generate a list of tables in a cluster
Perform the following steps to use the List Cluster 
Contents transformation:
1. Create an empty job.
2. Drop the List Cluster Contents transformation into 
the Job Editor window.
3. Drop the cluster table onto the Job Editor window.
4. Drag the cursor from the output port of the cluster 
table to the input port of the List Cluster Contents 
transformation.
5. Run the job.
Note that you can also include the List Cluster Contents 
transformation in an SPD server cluster job. This 
generates a cluster list each time you create a cluster.
570
Chapter 27 7 • • Working with SPD Server Cluster Tables
C# Create PDF from images Library to convert Jpeg, png images to
C# Create PDF from Raster Images, .NET Graphics and REImage File with XDoc Batch convert PDF documents from multiple image formats, including Jpg, Png, Bmp
convert .pdf to .jpg; convert pdf to jpg c#
VB.NET PDF Convert to Images SDK: Convert PDF to png, gif images
Convert PDF documents to multiple image formats, including Jpg, Png, Bmp, Gif, Tiff, Bitmap, .NET Graphics, and REImage. Turn multipage PDF file into image
change from pdf to jpg on; convert pdf document to jpg
Server
Tasks That Require This Server
Remove a cluster definition
Perform the following steps to use the Remove Cluster 
transformation:
1. Create an empty job.
2. Drop the Remove Cluster transformation into the 
Job Editor window.
3. Drop the cluster table into the Job Editor window.
4. Drag the cursor from the output port of the cluster 
table to the input port of the Remove Cluster 
transformation.
5. Run the job.
The cluster table is now removed and the tables that 
were in the cluster are now available as individual 
tables.
Maintaining an SPD Server Cluster
571
C# WPF PDF Viewer SDK to convert and export PDF document to other
Convert PDF to image file formats with high quality, support converting PDF to PNG, JPG, BMP and GIF. C#.NET WPF PDF Viewer Tool: Convert and Export PDF.
best pdf to jpg converter; change pdf to jpg
C# TIFF: C#.NET Code to Convert JPEG Images to TIFF
demo1.jpg", @"C:\demo2.jpg", @"C:\demo3.jpg" }; // Construct List in imagePaths) { Bitmap tmpBmp = new Bitmap(file); if (null Use C# Code to Convert Png to Tiff.
convert pdf pages to jpg online; batch pdf to jpg converter online
572
Chapter 27 7 • • Working with SPD Server Cluster Tables
Chapter 28
Working with Hadoop Clusters
About Hadoop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 573
Prerequisites for Hadoop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574
Setup for Transformations in the Hadoop Folder . . . . . . . . . . . . . . . . . . . . . . . . . . 574
Usage Notes for SAS LASR Analytic Server and Related Software . . . . . . . . . . . 574
SAS Data in HDFS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574
Usage Notes for SAS LASR Analytic Server Tables . . . . . . . . . . . . . . . . . . . . . . . 574
Creating a Pig Job . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575
Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575
Solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575
Tasks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575
Creating a Hive Job . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 579
Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 579
Solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 579
Tasks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 580
Creating a Hadoop Container Job . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582
Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582
Solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582
Tasks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 583
Monitoring Hadoop Clusters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 591
About Hadoop
Hadoop is an open-source technology for large data volume storage and processing. 
Hadoop provides scalability through the union of the Hadoop Distributed File System 
(HDFS), its high bandwidth and clustered storage system, and Map Reduce, its fault-
tolerant distributed processing algorithm.
SAS Data Integration Studio provides integration with Hadoop in the following ways:
• reading and writing data to and from HDFS with the Hadoop File Reader and 
Hadoop File Writer transformations
• data processing for sending programs and managing execution of programs in 
Hadoop systems with the Transfer To Hadoop and Transfer From Hadoop 
transformations
573
• a data transformation library for writing Hadoop programs in Hadoop languages that 
include Pig, Hive, and MapReduce with the Hive, Pig, Map Reduce, and Hadoop 
Container transformations
Prerequisites for Hadoop
Setup for Transformations in the Hadoop Folder
The transformations in the Hadoop folder require the SAS/ACCESS Interface to 
Hadoop. For information about setting up this interface, see “Establishing Connectivity 
to Hadoop” in the SAS Intelligence Platform: Data Administration Guide.
Usage Notes for SAS LASR Analytic Server and 
Related Software
SAS Data in HDFS
The SAS Data in HDFS engine stores data as SASHDAT files. SASHDAT is the name 
of a specialized file type for distributing data, such as Oracle data, with the SAS High-
Performance Deployment of Hadoop. It is also the name of the SAS library engine that 
is used to access those files. The View Data feature in SAS Data Integration Studio 
cannot be used to view tables in a SASHDAT library. You cannot create a SAS Data 
Integration Studio job that uses the Table Loader transformation to load a target table in 
a SASHDAT library. Although you can add data to HDFS, you cannot load a table from 
HDFS. You can, however, specify a table in a SASHDAT library as the target of the 
following transformations: Extract, Sort, Append, Splitter, Frequency, Compare Tables, 
SQL Create Table, SQL Join, SQL Set Operators.
Usage Notes for SAS LASR Analytic Server Tables
The SAS® LASR™ Analytic Server is a direct-access server that is engineered for 
maximum analytic performance through multithreading. The SAS LASR Analytic 
Server can run within the Hadoop environment. For deployments that need to work with 
large data volumes, distributed SAS LASR Analytic Server can be co-located with SAS 
High-Performance Deployment of Hadoop. In these deployments, the server can read 
and write data to storage rapidly due to multi-threading and massively parallel 
processing. The SASIOLA library engine moves data between a SAS session and a SAS 
LASR Analytic Server. There are some special considerations for SASIOLA tables in 
SAS Data Integration Studio.
The View Data feature cannot be used to view tables in a SASIOLA library.
You cannot create a SAS Data Integration Studio job that uses the Table Loader 
transformation to load a target table in a SASIOLA library. You can, however, specify a 
table in a SASIOLA library as the target of the following transformations: Extract, Sort, 
Append, Splitter, Frequency, Compare Tables, SQL Create Table, SQL Join, SQL Set 
Operators.
574
Chapter 28 8 • • Working with Hadoop Clusters
Creating a Pig Job
Problem
You want to process data in a Hadoop cluster with a high-level language used for 
expressing and evaluating data analysis programs.
Solution
You can create a SAS Data Integration Studio job that contains the Pig transformation. 
The transformation contains an enhanced, color-coded editor specific to the Pig Latin 
language. Pig Latin is a high-level language used for expressing and evaluating data 
analysis programs.
Perform the following tasks.
• “Create a Pig Job” on page 575
• “Configure the Job” on page 576
• “Run the Job and Review the Output” on page 578
Tasks
Create a Pig Job
The Pig job for this example contains a text table used as a source table, a Transfer to 
Hadoop transformation, a target table and a Pig transformation. This job structure 
enables you to transform the text table into a Hadoop file that can be processed in the Pig 
transformation.
Perform the following steps to create and populate the job:
1. Create an empty SAS Data Integration Studio job.
2. Locate the source table in the Inventory tree. Then, drop it in the empty job on the 
Diagram tab in the Job Editor window. The source table for this sample job is a text 
table named numbers.txt.
3. Select a Transfer to Hadoop transformation from the Hadoop folder in the 
Transformations tree. Then, drop it onto the Diagram tab.
4. Connect the source table to the Transfer to Hadoop transformation.
5. Locate the target table and drop it onto the Diagram tab. The target table for this 
sample job is a Hadoop table named numbers_target. 
Note that the All files in this location check box must be selected on the File 
Location tab in the properties window for the Pig target table. This step enables you 
to see the data in the table after the job has completed successfully.
6. Connect the Transfer to Hadoop transformation to the target table.
7. Select a Pig transformation from the Hadoop folder in the Transformations tree. 
Then, drop it onto the Diagram tab.
Creating a Pig Job
575
8. Connect the target table to the Pig transformation. The Diagram tab for the job is 
shown in the following display:
Display 28.1 Pig Job Flow
Configure the Job
The configuration for the Pig transformation is simple. Open the Hadoop Options tab 
and select the Delete outputs before executing hadoop statements check box.
The configuration needed for the Pig transformation varies from job to job. This sample 
job requires that you add three Pig Latin statements and four substitution parameters on 
the Pig Latin tab.
The tab is shown in the following display:
Display 28.2 Pig Latin Tab
Note that the Pig Latin statements are entered in the Pig Latin field. The sample job 
contains the following statements:
A = load '/user/test/PIG/$inputfilename' USING PigStorage(',')  
AS (f1:int,f2:int,f3:int); 
576
Chapter 28 8 • • Working with Hadoop Clusters
Documents you may be interested
Documents you may be interested