mvc open pdf file in new window : Convert pdf to rich text SDK control service wpf azure asp.net dnn MSA2000_G1_White_Paper4-part1845

41 
However, write-through cache does not mirror the write data because the data is written to the disk 
before posting command completion and mirroring is not required. You can set conditions that cause 
the controller to switch from write-back caching to write-through caching as described in “Auto-Write 
Through Trigger and Behavior Settings” later in this paper. 
In both caching strategies, active-active failover of the controllers is enabled. 
You can enable and disable the write-back cache for each volume. By default, volume write-back cache 
is enabled. Data is not lost if the system loses power because controller cache is backed by super 
capacitor technology. For most applications this is the correct setting, but because backend bandwidth 
is used to mirror cache, if you are writing large chunks of sequential data (as would be done in video 
editing, telemetry acquisition, or data logging) write-through cache has much better performance. 
Therefore, you might want to experiment with disabling the write-back cache. You might see large 
performance gains (as much as 70 percent) if you are writing data under the following circumstances: 
• Sequential writes 
• Large I/Os in relation to the chunk size 
• Deep queue depth 
If you are doing any type of random access to this volume, leave the write-back cache enabled. 
Caution: Write-back cache should only be disabled if you fully understand how your operating 
system, application, and HBA (SAS) move data. You might hinder your storage system’s performance 
if used incorrectly. 
Auto-write through trigger and behavior settings 
You can set the trigger conditions that cause the controller to change the cache policy from write-back 
to write-through. While in write-through mode, system performance might be decreased. 
A default setting makes the system revert to write-back mode when the trigger condition clears.  
To make sure that this occurs and that the system doesn’t operate in write-through mode longer than 
necessary, make sure you check the setting in HP SMU or the CLI. 
You can specify actions for the system to take when write-through caching is triggered: 
• Revert when Trigger Condition Clears: Switches back to write-back caching after the trigger 
condition is cleared. The default and best practice is Enabled. 
• Notify Other Controller: In a dual-controller configuration, the partner controller is notified that the 
trigger condition is met. The default is Disabled. 
Cache configuration summary 
The following guidelines list the general best practices. When configuring cache: 
• For a fault-tolerant configuration, use the write-back cache policy, instead of the write-through  
cache policy 
• For applications that access both sequential and random data, use the standard optimization mode, 
which sets the cache block size to 32 KB. For example, use this mode for transaction-based and 
database update applications that write small files in random order 
• For applications that access sequential data only and that require extremely low latency, use the 
super-sequential optimization mode, which sets the cache block size to 128 KB. For example, use 
this mode for video playback and multimedia post-production video- and audio-editing applications 
that read and write large files in sequential order 
Convert pdf to rich text - SDK control service:C# PDF Convert to Text SDK: Convert PDF to txt files in C#.net, ASP.NET MVC, WinForms, WPF application
C# PDF to Text (TXT) Converting Library to Convert PDF to Text
www.rasteredge.com
Convert pdf to rich text - SDK control service:VB.NET PDF Convert to Text SDK: Convert PDF to txt files in vb.net, ASP.NET MVC, WinForms, WPF application
VB.NET Guide and Sample Codes to Convert PDF to Text in .NET Project
www.rasteredge.com
42 
Parameter settings for performance optimization 
You can configure your storage system to optimize performance for your specific application by 
setting the parameters as shown in the following table. This section provides a basic starting point for 
fine-tuning your system, which should be done during performance baseline modeling. 
Table 4: Optimizing performance for your application 
Application 
RAID level 
Read ahead cache size 
Cache optimization 
Default 
5 or 6 
Default 
Standard 
HPC (High-Performance Computing) 
5 or 6 
Maximum 
Standard 
MailSpooling 
Default 
Standard 
NFS_Mirror 
Default 
Standard 
Oracle_DSS 
5 or 6 
Maximum 
Standard 
Oracle_OLTP 
5 or 6 
Maximum 
Standard 
Oracle_OLTP_HA 
10 
Maximum 
Standard 
Random1 
Default 
Standard 
Random5 
5 or 6 
Default 
Standard 
Sequential 
5 or 6 
Maximum 
Super-Sequential 
Sybase_DSS 
5 or 6 
Maximum 
Standard 
Sybase_OLTP 
5 or 6 
Maximum 
Standard 
Sybase_OLTP_HA 
10 
Maximum 
Standard 
Video Streaming 
1 or 5 or 6 
Maximum 
Super-Sequential 
Exchange Database 
5 for data; 10 for logs 
Default 
Standard 
SAP 
10 
Default 
Standard 
SQL 
5 for data; 10 for logs 
Default 
Standard 
Note: 
For Microsoft SQL 2008 and the MSA 2000, the recommended 
configuration is to assign two or more data virtual disks to one controller 
and two or more log virtual disks to the other controller.  
Review the document entitled “SQL Server 2008 best practices for consolidation of multiple databases 
in an online transaction processing (OLTP) environment with HP MSA2000 storage” found at 
http://h71019.www7.hp.com/ActiveAnswers/us/en/aa-categories.html
For Microsoft Exchange Server and the MSA2000, the recommended configuration is to isolate 
exchange databases and their associated log workloads onto separate array virtual disks.  
For further Best Practices on the Microsoft Exchange Server and MSA2000, search Active Answers at 
http://h71019.www7.hp.com/ActiveAnswers/us/en/aa-categories.html
Fastest throughput optimization 
The following guidelines list the general best practices to follow when configuring your storage system 
for fastest throughput: 
• Host ports should be configured for 4 Gb/sec on the MSA2000fc G2. 
SDK control service:C# Create PDF from Text to convert txt files to PDF in C#.net, ASP
C#.NET class source code for creating PDF document from rich text in .NET framework project. Convert plain text to PDF text with multiple fonts, sizes and
www.rasteredge.com
SDK control service:C# HTML5 Viewer: Load, View, Convert, Annotate and Edit PDF
as convert PDF to Microsoft Office Word (.docx) online, convert PDF to multi PDF Annotation. C# .NET is an advanced web viewer of rich annotation functionalities
www.rasteredge.com
43 
• Host ports should be configured for 1 Gb/sec on the MSA2000i G2. 
• Host ports should be configured for 3 Gb/sec on the MSA2000sa G2. 
• Virtual disks should be balanced between the two controllers. 
• Disk drives should be balanced between the two controllers. 
• Cache settings should be set to match Table 4
(Optimizing performance for your application) for 
the application. 
Highest fault tolerance optimization 
The following guidelines list the general best practices to follow when configuring your storage system 
for highest fault tolerance: 
• Use dual controllers 
• Use two cable connections from each host 
• Use Multipath Input/Output (MPIO) software 
Boot from storage considerations 
When booting from SAN, construct a separate virtual disk and volume that will be used only for the 
boot from SAN. Do not keep data and boot from SAN volumes on the same vdisk. This can help with 
performance. If there is a lot of I/O going to the data volume on a vdisk that shares a boot from SAN 
volume, there can be a performance drop in the I/O to the Operating System drives. 
MSA70 considerations 
Dual-domains 
When using the MSA70 with dual-domains, dual I/O modules, make sure the following procedure 
is followed. 
MSA70 systems with firmware earlier than 1.50: 
If your MSA70 has installed firmware earlier than version 1.50, you must replace the chassis 
backplane before installing a second I/O module in the chassis. To determine your installed firmware 
version, use a server-based tool such as HP Systems Insight Manager or your Management Agents. 
If installed firmware is earlier than 1.50, do the following: 
1. 
Contact HP Support and order a replacement backplane: 
MSA70: 
430149-001 
Caution: 
Be sure to order the part number indicated in this notice, not the spare part 
number printed on your existing backplanes.  
Be sure to order a quantity of two replacement kits. 
2. 
Install the replacement backplane using instructions shipped with the backplane. 
3. 
Install the additional I/O module using instructions shipped with the I/O module. 
Firmware versions 
If there are MSA70 enclosures connected to the MSA2000fc G2 (24 bay model only), make sure that the 
firmware on the enclosure is 2.18 or greater. If the MSA70 has a firmware version prior to 2.18, the 
MSA70 will be in a degraded state and virtual disks cannot be created or accessed from the MSA70. 
SDK control service:VB.NET Image: VB.NET Code to Add Rubber Stamp Annotation to Image
Offer rich text font style and various color options to customize rubber stamp annotation; Suitable for VB.NET PDF, Word & TIFF document managing & editing
www.rasteredge.com
SDK control service:XImage.OCR for .NET, Recognize Text from Images and Documents
to recognize and get text characters from scanned PDF document, image-only PDF and various raster images like Tiff, Jpeg, Png, Gif, and Bmp. Rich languages are
www.rasteredge.com
44 
Administering with HP SMU 
If you choose to use the HP StorageWorks Management Utility (SMU) for administration, it is best to 
use either the Firefox 3.0 or later or Internet Explorer 7 or later Web browsers. 
MSA2000i G2 Considerations 
When using the MSA2000i G2, it is a best practice to use at least three network ports per server, two 
for the storage (Private) LAN and one or more for the Public LAN(s). This makes sure that the storage 
network is isolated from the other networks. 
The private LAN is the network that goes from the server to the MSA2000i G2. This is the storage 
network. The storage network should be isolated from the Public network to improve performance. 
See Figure 17. 
Figure 17: MSA2000i G2 Network 
IP Address scheme for the controller pair 
The MSA2000i G2 uses port 0 of each controller as one failover pair, and port 1 of each controller 
as a second failover pair. Therefore, port 0 of each controller must be in the same subnet, and port 1 
of each controller should be in a second subnet.  
For example (with a netmask of 255.0.0.0): 
• Controller A port 0: 10.10.10.100 
• Controller A port 1: 10.99.10.120 
• Controller B port 0: 10.10.10.110 
• Controller B port 1: 10.99.10.130 
SDK control service:C# PDF: PDF Document Viewer & Reader SDK for Windows Forms
target PDF document file, you are also allowed to navigate to any page of source PDF document file, highlight & mark PDF document with rich annotation objects
www.rasteredge.com
SDK control service:C# PDF: How to Create PDF Document Viewer in C#.NET with
rendering web viewer PDF document to images or svg file; Free to convert viewing PDF document to TIFF file for document management; Offer rich annotation support
www.rasteredge.com
45 
The P2000 G3 MSA 
Topics covered  
This section examines the following: 
• What’s new  
• Hardware Overview 
• P2000 G3 MSA Settings 
• Disk Scrubbing, SMART, and Drive Spin Down 
• Cascading Array Enclosures 
• Software 
• 8 Gb Switches and SFP transceivers 
What’s New in the P2000 G3 MSA 
• Four port 6 Gb SAS controller or 
• Two new 8 Gb Fibre Channel controllers with 2 GB cache memory each:  
– Standard model with two 8 Gb FC host ports each 
– Combo model with two 8 Gb FC host ports and two 1 GbE iSCSI ports each 
• Increased support to seven P2000 LFF disk enclosures (96 LFF drives) 
• Increased support to five D2700 SFF disk enclosures (149 SFF drives) 
• 6 Gb SAS back end and HDD support 
• 64 Snaps and clone capability come standard on G3 models 
• 512 snapshots max (double the MSA2000 G2) 
• Optional controller-based replication (Remote Snap) 
• 512 Max LUN support 
• Higher performance with upgraded processing power with increased I/O performance 
• Improved System Management Utility (SMU) user interface 
• Full support for G1/G2 to G3 upgrade, including cross-protocol upgrades 
Hardware overview 
HP StorageWorks P2000 G3 MSA Modular Smart Array 
HP StorageWorks 2000 Family of storage arrays features P2000 G3 MSA arrays with the latest 8 
Gb Fibre Channel and 6 Gb SAS connected models. The arrays are designed for entry-level 
customers and feature the latest in functionality and host-connect technology while offering excellent 
price/performance. The P2000 G3 MSA is ideal for companies with small budgets or limited IT 
expertise, and also for larger companies with departmental or remote requirements. Each solution is 
designed to be easy to deploy, to be secure, along with low management costs, while driving rapid 
return on investment. 
The P2000 G3 FC is an 8 Gb Fibre Channel, while the P2000 G3 SAS is a 6 Gb SAS connected 2U 
storage area network (SAN) or direct connect solution (OS dependent) designed for small to medium-
sized departments or remote locations.  
SDK control service:C# TIFF: TIFF Editor SDK to Read & Manipulate TIFF File Using C#.
Offer rich APIs to process Tiff file and its pages, like merge, append, split, extract Convert Tiff file to bmp, gif, png, jpeg, and scanned PDF with high
www.rasteredge.com
SDK control service:VB.NET PowerPoint: Process & Manipulate PPT (.pptx) Slide(s)
Why to Use. Apart from rich PowerPoint slide processing functions, this VB are dedicated to provide powerful & profession imaging controls, PDF document, image
www.rasteredge.com
46 
The P2000 G3 MSA offers a choice of three controllers: 
• A high-performance, Fibre Channel 8 Gb dual port model.  
• A unique dual-purpose Combo controller with two 8 Gb Fibre Channel ports plus  
two 1 GbE iSCSI ports.  
• A 6 Gb SAS controller with four ports per controller.   
The controller-less chassis is offered in two models—one comes standard with twelve Large Form 
Factor (LFF) 3.5-inch drive bays, the other can accommodate twenty-four Small Form Factor (SFF)  
2.5-inch drives (common with ProLiant). Both are able to simultaneously support enterprise-class SAS 
drives and archival-class SATA Midline drives. The SFF chassis also supports SAS Midline drives. 
Either chassis can have one or two P2000 G3 controllers. 
The P2000 G3 gives great flexibility to choose the proper configuration to fit individual needs. The 
user can opt for the 24 drive bay SFF chassis for the highest spindle counts in the most dense form 
factor, or choose the 12 drive bay LFF model for maximum total capacity. In addition, LFF and SFF 
Disk Enclosures may be mixed. Choose a single controller unit for low initial cost with the ability to 
upgrade later; or decide on a model with dual controllers for the most demanding entry-level 
situations. Capacity can easily be added when needed by attaching additional drive enclosures. 
Maximum capacity ranges with LFF drives up to 57.6 TB SAS or 192 TB SATA with the addition of 
the maximum number of drive enclosures. Configurations utilizing the SFF drive chassis and the 
maximum number of drive enclosures can grow to 44.7 TB of SAS or 74.5 TB of SAS Midline or 
SATA Midline with a total of 149 SFF drives. The P2000 G3 FC has been fully tested up to 64 hosts.   
The P2000 G3 SAS is the follow-on product to the MSA2000sa G2, adding the latest 6 Gb SAS 
technology to the four host ports per controller. It also features the same new scalability as the P2000 
G3 FC model, and offers 6 Gb back-end transmission speed to drives and JBODs. The new G3 SAS 
array is designed for directly attaching up to four dual-path or eight single path servers. SAS array 
support for Blade Systems will continue to come from the MSA2000sa G2. 
Note: 
Larger hard drives are always in test; refer to 
http://www.hp.com/go/p2000
to get the latest hard drive capacity limits. 
The new generation G3 models have grown in other aspects too. 64 snapshot and clone capability 
come standard and optional snapshot capability has been increased to 512 snaps on the G3 models, 
optional Remote Snap capability has been added, while LUN support remains at up to 512 total 
volumes in a Dual Controller system. In addition to support for Windows and Linux on x86 and x64 
server platforms, the P2000 G3 continues support for HP-UX, OpenVMS, Windows, and Linux on 
powerful Integrity servers. 
P2000 G3 MSA Settings  
The P2000 G3 MSA has the same capabilities as the MSA2000 G2 model. 
Please see: MSA2000 G2 ULP section
through “Cache configuration summary
” for list of these capabilities. 
World Wide Name (WWN) naming conventions  
A best practice for acquiring and renaming World Wide Names (WWN) for the P2000 G3 SAS 
MSA is to plug-in one SAS cable connection at a time and then rename the WWN to an identifiable 
name. 
SDK control service:C# WinForms Viewer- Supported File Formats
deploy WinForms Viewer, and perform rich functional documents C# users to load, view, convert and annotate and images, which including PDF, Microsoft Office
www.rasteredge.com
SDK control service:About RasterEdge.com - A Professional Image Solution Provider
and run by well-known IT industry experts who have rich knowledge in We are dedicated to provide powerful & profession imaging controls, PDF document, image to
www.rasteredge.com
47 
Procedure: 
1. 
Login to the Storage Management Utility (SMU). The Status Summary page will be displayed. 
2. 
Click “+” next to “Hosts” from the left Windows frame. This will expand the list to show all 
connected hosts.  
3. 
Highlight the host in the list that you want to rename by clicking the WWN name.   
4. 
On the right window frame, click Provisioning -> Rename Host. 
5. 
Type in the host nickname and choose the Profile and then click Modify Name. Click OK on the 
pop-up window. 
48 
6. 
Plug in the SAS port of the HBA on the second server into the P2000 G3 SAS MSA controller port. 
Make sure the server is powered on. 
7. 
Repeat steps 3–5 for the remaining servers. 
Fastest throughput optimization 
The following guidelines list the general best practices to follow when configuring your storage system 
for fastest throughput: 
• Fibre Channel host ports should be configured for 8 Gb/sec on the P2000 G3 FC MSA. 
• Virtual disks should be balanced between the two controllers. 
• Disk drives should be balanced between the two controllers. 
• Cache settings should be set to match Table 4
for the MSA2000 G2 (Optimizing performance for 
your application) for the application. 
Highest fault tolerance optimization 
The following guidelines list the general best practices to follow when configuring your storage system 
for highest fault tolerance: 
• Use dual controllers 
• Use two cable connections from each host 
• Use Multipath Input/Output (MPIO) software 
Disk Background Scrub, Drive Spin Down, and SMART 
The P2000 G3 MSA also uses the disk background scrubbing feature. You can scrub disk drives that 
are in a vdisk or have not yet been assigned to a vdisk whether or not they are in a vdisk. 
The P2000 G3 MSA has now added the power saving feature called Drive Spin Down (DSD). The 
drive spin down is a cost and power saving tool. The drive spin down feature will stop virtual disks, 
available disk drives and global spares disk from spinning. 
Self-Monitoring Analysis and Reporting Technology (SMART) technology can alert the controller of 
impending disk failure. When SMART is enabled, the system checks for SMART events one minute 
after a restart and every five minutes thereafter. SMART events are recorded in the event log.  
49 
Configuring background scrub for vdisks 
You can enable or disable whether the system continuously analyzes disks in vdisks to detect, report, 
and store information about disk defects.  
Vdisk-level errors reported include:  
Hard errors, medium errors, and bad block replacements (BBRs).  
Disk-level errors reported include:  
Metadata read errors, SMART events during scrub, bad blocks during scrub, and new disk defects 
during scrub.  
For RAID 3, 5, 6, and 50, the utility checks all parity blocks to find data-parity mismatches.  
For RAID 1 and 10, the utility compares the primary and secondary disks to find data inconsistencies. 
For NRAID (Non-RAID, non-striped) and RAID 0, the utility checks for media errors. 
You can use a vdisk while it is being scrubbed. Background vdisk scrub runs at background utility 
priority, which reduces to no activity if CPU usage is above a certain percentage or if I/O is 
occurring on the vdisk being scrubbed. A vdisk scrub may be in process on multiple vdisks at once.  
A new vdisk will first be scrubbed 20 minutes after creation. After a vdisk is scrubbed, scrub will start 
again after the interval specified by the Vdisk Scrub Interval (hours) option. When a scrub is 
complete, the number of errors found is reported with event code 207 in the event log. 
Note:  
If you choose to disable background vdisk scrub, you can still scrub a 
selected vdisk by using Media Scrub Vdisk. 
To configure background scrub for vdisks 
1. 
In the Configuration View panel, right-click the system and select Configuration > Advanced 
Settings > System Utilities. 
2. 
Set the options: 
• Either select (enable) or clear (disable) the Vdisk Scrub option. 
• Set the Vdisk Scrub Interval (hours), which is the interval between background vdisk scrub 
finishing and starting again, from 1–360 hours; the default is 24 hours. 
3. 
Click Apply. 
50 
Configuring background scrub for disks not in vdisks 
You can enable or disable whether the system continuously analyzes disks that are not in vdisks to 
detect, report, and store information about disk defects. 
Errors reported include:  
Metadata read errors, SMART events during scrub, bad blocks during scrub, and new disk defects 
during scrub.  
The interval between background disk scrub finishing and starting again is 24 hours. 
To configure background scrub for disks not in vdisks 
1. 
In the Configuration View panel, right-click the system and select Configuration > Advanced 
Settings > System Utilities. 
2. 
Either select (enable) or clear (disable) the Disk Scrub option. 
3. 
Click Apply. 
Configuring utility priority 
You can change the priority at which the Verify, Reconstruct, Expand, and Initialize utilities run when 
there are active I/O operations competing for the system’s controllers. 
To change the utility priority 
1. 
In the Configuration View panel, right-click the system and select Configuration > Advanced 
Settings > System Utilities. 
2. 
Set Utility Priority to either: 
• High: Use when your highest priority is to get the system back to a fully fault-tolerant state. This 
causes heavy I/O with the host to be slower than normal. This value is the default. 
• Medium: Use when you want to balance data streaming with data redundancy. 
• Low: Use when streaming data without interruption, such as for a web server, is more important 
than data redundancy. This enables a utility such as Reconstruct to run at a slower rate with 
minimal effect on host I/O. 
• Background: Utilities run only when the processor has idle cycles. 
3. 
Click Apply. 
Best Practice: Leave the default setting of Background Scrub ON in the background priority. 
Scheduling drive spin down for all vdisks 
For all vdisks that are configured to use drive spin down (DSD), you can configure times to suspend 
and resume DSD so that vdisks remain spun-up during hours of frequent activity. 
To configure DSD for a virtual disk  
1. 
In the Configuration View panel, right-click a vdisk and select Configuration  Configure Vdisk 
Drive Spin Down. 
2. 
Set the options:  
• Either select (enable) or clear (disable) the Enable Drive Spin Down option. 
• Set the Drive Spin Down Delay (minutes), which is the period of inactivity after which the vdisk’s 
disks and dedicated spares automatically spin down, from 1–360 minutes. If DSD is enabled 
and no delay value is set, the default is 15 minutes. A value of 0 disables DSD. 
3. 
Click Apply. When processing is complete a success dialog appears. 
4. 
Click OK. 
Documents you may be interested
Documents you may be interested