c# parse pdf data : Edit pdf metadata control SDK platform web page wpf html web browser yalefinal3-part919

While the group has adopted this narrow definition of the scope of the archive as a 
working assumption, such a narrow approach does preclude the study of the diplomatics 
of these documents — "digital paleography," as one of our advisors termed it. How 
essential to future researchers' interpretations of the use of these documents is it for them 
to know what tools contemporary users had available to them, e.g., indices that did not 
address particular components of the document, thus making them unfindable through the 
publisher's interface? At the conclusion of the planning period the team had not changed 
the main focus of its attention on content, but it was sufficiently intrigued by the issues of 
digital  paleography  that  it  will  propose  that  this  assumption  be  investigated  more 
thoroughly in its implementation proposal. 
The long-held approach in the archival profession governing how archives are organized, 
described, and provided to users once they become part of the repository's holdings is 
deeply informed by the principle of provenance and the rules that flow from it: respect 
des fonds (records of a creator should remain together) and original order (which has 
significance for the interpretation of records and should be preserved whenever possible). 
These principles reflect the nature of archival records. They are by-products created by an 
organizational entity in the course of carrying out its functions. The primary significance 
of the records is as evidence of those functions and activities. These principles reflect the 
needs of research for bodies of materials that are as strongly evidential as possible and 
reflect minimal interaction by custodial agencies other than the creator. The assumption 
is that solid historical research and interpretation require knowledge of the circumstances 
under which the materials were created and maintained and not just access to the raw 
Access to archival materials is often characterized by two factors that take advantage of 
the provenance approach. Searches are often conducted to document a particular event or 
issue rather than for a known item; they may also be based on characteristics of the 
creators rather than on characteristics of the records themselves. Comprehensive and 
accurate recording of the circumstances of creation, including characteristics of records 
creators and the relationships among them, are central parts of archival description. The 
implications  for  developing  an  approach  to  downstream  uses  of  e-journal literature 
include  the  potential  need  of  contextual  metadata  regarding  the  authors  and  other 
circumstances affecting the publication of a given article/issue that are not found in a 
structured way in the published materials. Information regarding the context in which the 
article was submitted, reviewed, and edited for publication is important in studies of 
scholarly communication, especially  as  to  questions  of  how  institutional  affiliations 
might be important in certain lines of inquiry and who had the power to accept or reject 
Some of this information is explicitly disseminated in online products, e.g., in the form of 
members of an editorial board or descriptions of the purpose and audience of the journal, 
but it may be presented separately from any particular volume, issue, or article; may 
reflect only current (and not historic) information; and is rarely structured or encoded in 
such a way as to facilitate its direct use in scholarly studies. Other information about the 
context of creation and use that historians of science might find useful is not published; 
Edit pdf metadata - add, remove, update PDF metadata in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Allow C# Developers to Read, Add, Edit, Update and Delete PDF Metadata
pdf xmp metadata editor; adding metadata to pdf
Edit pdf metadata - VB.NET PDF metadata library: add, remove, update PDF metadata in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
Enable VB.NET Users to Read, Write, Edit, Delete and Update PDF Document Metadata
pdf remove metadata; adding metadata to pdf files
rather, it is found in the publisher's records of the review process and circulation figures. 
Capturing  and  linking  of  title-level  publication  information  are  additional  areas  of 
investigation that the team intends to pursue in its implementation proposal. 
Preservation of Structural Information 
The mass of archival records that repositories select for long-range retention and are 
responsible for, and the  imperative  of the principle  of provenance  to  maintain and 
document  the  recordkeeping  system  in  which  the  records  were  created  and  lived, 
combine  to  foster  the  archival  practice  of  top-down,  hierarchical,  and  collective 
description. This type of descriptive practice provides both a way of reflecting the 
arrangement of the original recordkeeping system and of allowing the archival agency to 
select for each body of records the level beyond which the costs of description outweigh 
the benefits of access, and completing its descriptive work just before that point is 
This principle and practice highlight for scientific journals the importance of preserving 
the relationship among the materials that the publisher was distributing, especially the 
need to link articles that the publisher presented as a "volume," "special issue," or some 
other sort of chronological or topical grouping. These relationships represent another 
form of contextual information important to the study of scholarly communications, in 
terms of which articles were released simultaneously or in some other relationship to 
each other. While the team recognized the need to be aware of new forms of publishing 
that would not necessarily follow the traditional patterns adopted by the hard-copy print 
world, it asserted that those structures do need to be saved as long as they are used. 
With respect to other methods of navigating among digitally presented articles, such as 
linking to articles cited, the team found that many of these capabilities existed not as part 
of the content, but as added functionality that might be managed by processes external to 
the content or  to  the  publisher's  product  (e.g.  CrossRef).  The  team  felt  that  these 
capabilities should be preserved as part of the archive, necessitating the need to maintain 
an enduring naming scheme for unambiguous identification of particular pieces. The plan 
for  the  implementation  project  will  include  a  closer  look  at  the  requirements  for 
supporting important navigational capabilities. 
Guaranteeing Authenticity 
Finally, the authenticity of any document that purports to be evidence rests in some part 
on a chain of custody that ensures that the document was created as described and that it 
has not been altered from its original form or content. Once an archival agency takes 
charge  of  documentation  it  is  obligated  to  keep  explicit  records  documenting  the 
circumstances of its transfer or acquisition and any subsequent uses of it. Records are 
rarely removed, either for use or retrospective retention by an office, but when this is 
necessary the circumstances of that action need to be documented and available. This 
assumption, along with the unique nature and intrinsic value of the materials, leads to the 
circumstance  of secure reading rooms for archival materials and all of  the security 
How to C#: Modify Image Metadata (tag)
edit, C#.NET PDF pages extract, copy, paste, C#.NET rotate PDF pages, C#.NET search text in PDF, C#.NET edit PDF bookmark, C#.NET edit PDF metadata, C#.NET
edit pdf metadata online; remove metadata from pdf file
C# TIFF: TIFF Metadata Editor, How to Write & Read TIFF Metadata
Tiff ›› C# Tiff: Edit Tiff Metadata. C# TIFF - Edit TIFF Metadata in C#.NET. Allow Users to Read and Edit Metadata Stored in Tiff Image in C#.NET Application.
change pdf metadata creation date; batch pdf metadata editor
paraphernalia associated with them, as well as to detailed recordkeeping of use and work 
performed on the records. 
The assumption that the archival agency is responsible for preserving the "authentic" 
version of documentation suggests that transfer of content to the official archival agency 
should take place as soon as the publisher disseminates such content, and that once 
placed into the archive content will not be modified in any way. This includes instances 
of typographical errors, the release of inaccurate (and potentially dangerous) information, 
or the publication of materials not meeting professional standards for review, citation, 
and similar issues. Instead, the archive should maintain a system of errata and appropriate 
flagging and sequestering of such materials that were released and later corrected or 
withdrawn, ensuring that the record of what was distributed to the scholarly community, 
however flawed, would be preserved. 
Issues related to authenticity also suggest that one circumstance under which transferred 
content could be released, even while the publisher retains a business interest in it, is 
when questions are raised as to the authenticity of content still available under normal 
business  arrangements. Longer-term  safeguards  will need  to  be in place within  the 
archival repository to ensure the authenticity of the content. 
Other issues relating to the nature and mission of an archival repository appear elsewhere 
in this report, especially in the discussion of trigger events. The issues discussed in this 
section, however, are especially germane  to the question of how anticipated use of 
preserved electronic journals should inform the selection of materials. The Yale-Elsevier 
team has found many archival use topics central to the definition and purpose of an 
archive  for  electronic  journals  and  plans  to  pursue  them  more  completely  in  the 
implementation project. 
The Metadata Inquiry 
The Role of Metadata in an e-Archive 
It is impossible to create a system designed to authenticate, preserve, and make available 
electronic  journals  for  an extended  period  of  time  without addressing  the  topic  of 
metadata. "Metadata" is a term that has been used so often in different contexts that it has 
become somewhat imprecise in  meaning. Therefore, it  is  probably  wise to begin a 
discussion  of  metadata  for  an  archival  system  by  narrowing  the  array  of  possible 
connotations. In the context of this investigation, metadata makes possible certain key 
Metadata permits search and extraction of content from an archival entity in 
unique  ways  (descriptive  metadata).  Metadata  does  this  by  describing  the 
materials (in our case journals and articles) in full bibliographic detail. 
Metadata  also  permits  the  management  of  the  content  for  the  archive 
(administrative metadata) by describing in detail the technical aspects of  the 
C# PDF bookmark Library: add, remove, update PDF bookmarks in C#.
|. Home ›› XDoc.PDF ›› C# PDF: Edit PDF Bookmark. C#.NET PDF SDK - Edit PDF Bookmark and Outline in C#.NET. Empower Your C#
pdf metadata online; pdf metadata editor online
C# PDF Sticky Note Library: add, delete, update PDF note in C#.net
Note. |. Home ›› XDoc.PDF ›› C# PDF: Add Sticky Note. C#.NET PDF SDK - Add Sticky Note to PDF Page in C#.NET. Able to change font size in PDF comment box.
edit multiple pdf metadata; add metadata to pdf file
ingested content (format, relevant transformations, etc.), the way content was 
ingested into the archive, and activities that have since taken place within the 
archive, thereby affecting the ingested item.  
Taken together, both types of metadata facilitate the preservation of the content for the 
future  (preservation  metadata).  Preservation  ensures  the  retrievability  of  protected 
materials, their authentication, and their content. 
Using metadata to describe the characteristics of an archived item is important for a 
number of reasons. With care, metadata can highlight the sensitivity to technological 
obsolescence of content under the care of an archival agency (i.e., items of a complex 
technical nature that are more susceptible to small changes in formats or browsers.) 
Metadata can  also  prevent contractual  conflicts  by pinpointing  issues  related  to  an 
archived item's governance while under the care of an archive; e.g., "the archive has 
permission to copy this item for a subscriber but not for a nonsubscriber." Finally, 
metadata can permit the archival agency to examine the requirements of the item during 
its life cycle within the archive; e.g., "this object has been migrated four times since it 
was deposited and it is now difficult to find a browser for its current format."[9] 
The Open Archival Information System (OAIS) model to which the YEA project has 
chosen to conform refers to metadata as preservation description information (PDI). 
There  are  four  types  of  PDI  within  OAIS:  1)  reference  information,  2)  context 
information, 3) provenance information, and 4) fixity information. Not all of these forms 
of PDI need be present in the Submission Information Package (SIP) ingested by the 
archive, but they all must be a part of the Archival Information Package (AIP) stored in 
the archive. This implies that some of these PDI elements are created during ingestion or 
input by the archive. 
Reference Information refers to standards used to define identifiers of the content. While 
YEA uses reference information and supplies this context in appendices to our metadata 
element set, we  do not refer to it as metadata.  Context  Information documents  the 
relationships of the content to its environment. For YEA, this is part of the descriptive 
metadata. Provenance Information documents the history of the content including its 
storage,  handling,  and  migration.  Fixity  Information  documents  the  authentication 
mechanisms and provides authentication keys to ensure that the content object has not 
been  altered  in an  undocumented  manner. Both  Provenance and  Fixity  are part  of 
administrative metadata for YEA. 
Given the focus YEA has chosen to place on a preservation model that serves as an 
archive as well as a guarantor for the content placed in its care, authenticity was an issue 
of importance for the group to explore. In its early investigations, the team was much 
struck by the detailed analysis of the InterPARES project on the subject of authenticity. 
While some of the InterPARES work is highly specific to records and manuscripts — and 
thus irrelevant to the journal archiving on which YEA is focusing — some general 
principles remain the same. It is important to record as much detail as possible about the 
original object brought under the care of the archive in order both to prove that a 
C# PDF Library SDK to view, edit, convert, process PDF file for C#
C#.NET: Edit PDF Metadata. PDF SDK for .NET allows you to read, add, edit, update, and delete PDF file metadata, like Title, Subject
search pdf metadata; pdf keywords metadata
VB.NET PDF Library SDK to view, edit, convert, process PDF file
PDF Metadata Edit. Offer professional PDF document metadata editing APIs, using which VB.NET developers can redact, delete, view and save PDF metadata.
google search pdf metadata; c# read pdf metadata
migrated or "refreshed" item is still the derivative of the original and to permit an 
analysis to be conducted in the future about when and how specific types of recorded 
information have changed or are  being  reinvented, or where  totally  new  forms are 
Finally,  as  YEA  has  examined  the  issue  of  metadata  for  a  system  designed  to 
authenticate, preserve, and make available electronic journals for an extended length of 
time, we have tried to keep in mind that metadata will not just be static; rather, metadata 
will be interacted with, often by individuals who are seeking knowledge. To this end, we 
acknowledge  the  four  issues  identified  by  the  International  Federation  of  Library 
Associations  and  Institutions  (IFLA)  in  the  report  on  functional  requirements  for 
bibliographic records: metadata exist because individuals want to find, identify, select, or 
obtain informational materials.[11] 
The Metadata Analysis 
YEA began its analysis of needed metadata for a preservation archive of electronic 
journals by conducting a review of extant literature and projects. In this process the team 
discovered and closely explored a number of models and schemes. The first document — 
and the one we returned to most strongly in the end — described the OAIS model, 
although OAIS provides only a general framework and leaves the details to be defined by 
implementers.[12] We also examined the Making of America's testbed project white 
paper[13] and determined it was compatible with OAIS. Next, we examined the 15 
January 2001 RLG/OCLC Preservation Metadata Review document[14] and determined 
that while all of the major projects described (CEDARS, NEDLIB, PANDORA) were 
compliant with the OAIS structure, none of them had the level of detail, particularly in 
contextual information, that we believed necessary for a long-term electronic journal 
archive. We also explored the InterPARES project (mentioned above) and found there a 
level  of  detail  in  contextual  information  that  we  had  not  seen  delineated  in  the 
RLG/OCLC review of the other projects. 
At the same time, the library and publisher participants in the project were exploring the 
extant metadata sets used by Elsevier Science to transport descriptions of their journal 
materials for their own document handling systems and customer interfaces. In addition 
to their EFFECT standard (see section describing Elsevier Science's Technical Systems 
and Processes), we also examined portions of the more detailed Elsevier Science "Full 
Length Article DTD 4.2.0."[15] Due to the solid pre-existing work by Elsevier Science in 
this area and the thorough documentation of the metadata elements that Elsevier Science 
is already using, we were able to proceed directly to an analysis of the extant Elsevier 
metadata to determine what additional information might need to be created or recorded 
during production for and by YEA. 
About halfway through the project year, the team made connections with British Library 
staff who were themselves just completing a metadata element set definition project and 
who generously shared with the team their draft version. While the British Library draft 
document was more expansive in scope than the needs of the YEA project (i.e., the 
How to C#: Basic SDK Concept of XDoc.PDF for .NET
XDoc.PDF for .NET allows C# developers to edit hyperlink of PDF document Various PDF annotation features can be integrated into your C# project, such Metadata.
embed metadata in pdf; view pdf metadata in explorer
VB.NET PDF Annotate Library: Draw, edit PDF annotation, markups in
VB.NET PDF - PDF Annotation in VB.NET. Guide to Draw, Add and Edit Various Annotations on PDF File in VB.NET Programming. Annotation Overview.
batch pdf metadata; remove metadata from pdf online
British Library document covers manuscripts, films, and many other items beyond the 
scope of any e-journal focus), the metadata elements defined therein and the level of 
detail in each area of coverage were almost precisely on target for what the e-archiving 
team sought to create. Thus, with the kind consent of contacts at the British Library, the 
team began working with the draft, stripping away unneeded elements, and inserting 
some missing items. 
In the fall of 2001, the YEA team committed to creating a working prototype or proof-of-
concept which demonstrated it would indeed be possible to ingest data supplied by 
Elsevier Science into a minimalistic environment conducive to archival maintenance. The 
prototype-building activity briefly diverted the metadata focus from assembling a full set 
of needed elements for the archival system to defining a very minimal set of elements for 
use in the prototype. The technical explorations of the prototype eventually led us to 
simply use the metadata supplied by Elsevier and the prototype metadata element set was 
never used. The one remaining activity  associated with metadata performed  for the 
prototype was to map the Elsevier EFFECT metadata to Dublin Core so that it could be 
exposed for harvesting. 
Once the prototype subset element set was identified, YEA returned to the question of a 
complete metadata element set  for  a  working archive.  As the British Library  draft 
document was examined, reviewed, and assessed, many decisions were made to include 
or exclude elements, particularly descriptive metadata elements. These decisions were 
informed in part by the recurring theme of whether the presence of such an item of 
information would assist individuals performing inquiries of the archive. The questions 
related to uses of scholarly journal materials for archival explorations are dealt with more 
fully elsewhere in this report. 
The full metadata element set was completed by YEA as a recommended set of metadata 
to be used in a future full archive construction. It is important to reiterate that our 
approach  to  producing  this  set  of  metadata  was  inclusive.  In  creating  an  archival 
architecture it is not enough to delineate the descriptive metadata that must be acquired 
from  the  publisher  or  created  by  the  archive  while  leaving  out  the  administrative 
metadata elements that permit the archive to function in its preserving role. Neither is it 
sufficient to focus on the administrative metadata aspects that are unique to an archive 
while setting aside the descriptive metadata elements, i.e., assuming they are sufficiently 
defined by other standards. Preservation metadata are the conflation of the two types of 
metadata and, in fact, both types of metadata work jointly to ensure the preservation of 
and continuing access to the materials under the care of the archive. 
One other fact may be of interest to those reviewing the description of metadata elements 
for the YEA: where possible, we used external standards and lists as materials upon 
which  the  archive  would  depend.  For  example,  we  refer  to  the  DCMI-Type 
Vocabulary[16] as the reference list of the element called "resource type." 
We certainly do not expect that the element set created by YEA will proceed into 
implementation in a future full archive construction without any further changes. It will 
undoubtedly be influenced by work done by other groups such as the E-Journal Archive 
DTD  Feasibility  Study[17] prepared for the Harvard University Library e-journal 
archiving  project.  However, we  now  have  a reference by  which  to  assess  whether 
proposed inclusions, exclusions, or modifications fit the structure we imagine an archive 
will need properly to preserve electronic journals. 
Metadata in Phase II 
In the next phase of the e-archiving project, the YEA desires further to define and refine 
metadata needed for a system designed to authenticate, preserve, and make available 
electronic journals for an extended period of time. We will need to connect with others 
working  informally  or  formally  to  create  a  standard  or  standards  for  preservation 
metadata. As noted above, further investigations may influence a revision to the initial 
metadata set defined during the planning phase. Additionally, we intend to rework the 
element set into an XML schema for Open Archives Initiative (OAI) manifestation and 
harvesting. With our small prototype, we have demonstrated that OAI harvesting can 
occur from the simple Dublin Core metadata set to which we mapped the Elsevier 
EFFECT elements. However, OAI interaction can occur much more richly if a fuller 
dataset is in use, and we intend to accomplish this schema transformation to enable fuller 
interaction with the archive as it develops.[18] 
As the next phase moves forward, another avenue of exploration will be to assess and 
examine our metadata element choices in a live environment. We are most particularly 
interested in testing those elements included or excluded on the basis of assumptions 
made  regarding  the  likelihood  of  archival  inquiries  targeting  specific  elements  for 
exploration. Such choices can only be validated over time and with the interaction of 
individuals conducting authentic research into the history of their fields. Finally, we look 
forward to testing our element choices for administrative metadata under the stress of 
daily archive administration and maintenance. Only in such a live environment can an 
archive be truly confirmed as a functioning entity for preserving the materials under its 
Elsevier Science's Technical Systems and Processes 
Elsevier Science is a major producer of scholarly communication and scientific journals 
that are distributed globally. The headquarters for production, along with the electronic 
warehouse, is located in Amsterdam, Netherlands. There the company maintains two 
office buildings and deploys several hundred staff to organize, produce, and distribute its 
content. The production of electronic scholarly information is a highly complex process 
that occurs in a distributed geographical environment involving many businesses beyond 
Elsevier Science. Changes to the manufacturing process can take years to percolate 
through the  entire  chain  of  assembly  and  are  considered  significant  business  risks. 
Consequently, Elsevier is moved to make changes to production only when compelling 
market demands exist. For example, the Computer Aided Production (CAP) workflow is 
now  under  modification  because  Science  Direct,  an  internal  customer  of  Elsevier 
Science, is experiencing market pressure to bring published items to its customers in a 
shorter time than ever before. 
The History 
Prior to the creation of the Electronic Warehouse (EW) in 1995, Elsevier Science had no 
standard processes to create and distribute journals or content. The production of journals 
was based upon a loose confederation of many smaller publishing houses owned by 
Elsevier Science. Content was produced using methods that were extant when Elsevier 
acquired a given publisher. Consequently, prior to the creation of the EW there was no 
uniformity in the structure or style of content marketed under the name of Elsevier 
Science. Each publishing house set its own standards for creation and distribution. The 
lack of a central infrastructure for creating and distributing content also served as an 
impediment to the rapid distribution of scholarly communication to the market. 
With the creation of networks in the early 1990s the perception of time delay amplified. 
Scientists began to use the network themselves to share communications with one another 
instantly. The scholarly community would no longer accept long delays between the 
submission  of  manuscripts  to  a  publisher  and  their  appearance  in  paper  journals. 
Scientists  and  publishers  realized that  reporting  research  in  electronic format  could 
significantly close the time gap between publication and distribution of content to the 
scholarly community. The origin of Elsevier Science's Electronic Warehouse is rooted in 
this realization. Elsevier Science's early solution to the problem was to support a research 
project  known  as  The  University  Licensing  Program  commonly  referred  to  as 
The  TULIP  Project  (1992-1996)  grew  out  of  a  series  of  Coalition  for  Networked 
Information (CNI) meetings in which Elsevier Science, a CNI member, invited academic 
libraries to partner with it to consider how best to develop online delivery capabilities for 
scientific journals. The purpose of the project was to discuss the need to build large-scale 
systems and infrastructures to support the production and rapid delivery of such journals 
over a network to the scholarly community. Given a critical mass of interest from the 
university communities, Elsevier Science justified a large investment that would create a 
manufacturing  function  for  converting  paper  journals  into  an  electronic  format  for 
network  distribution.  This  process  became  known  as the  PRECAP  method  for the 
creation of an electronic version of a journal. The creation of this conversion function 
served as the foundation for the present day EW. Near the end of the TULIP project plans 
for an EW were adopted by Elsevier Science in 1995 and built by the end of 1996. By 
1997 the EW could produce over one thousand journals using a standard means of 
The creation and success of the EW in producing and distributing journals was a very 
significant accomplishment for Elsevier Science because 1) many individual publishers 
had to be converted one by one, 2) standards for production were evolving from 1994 
through 2000, and 3) suppliers who created content for the producers needed to be 
continuously trained and retooled to adhere to the evolving standards. At the same time, 
these suppliers met their obligation to produce content, on time, for Elsevier Science. 
Current Workflow 
Elsevier Science maintains four production sites based in the United Kingdom (Oxford 
and Exeter), Ireland (Shannon), the United States (New York), and the Netherlands 
(Amsterdam). Each site provides content to the EW where this content is stored as an 
S300 dataset. The contents of each dataset represent an entire issue of a particular journal. 
The storage system at the EW originally used vanilla IBM technology, i.e., ADSTAR 
Distributed Storage Manager (ADSM), to create tape backup datasets of content stored 
on magnetic and optical storage. Access to the data was based only upon the file name of 
the S300 dataset. As of Summer 2001, the old hierarchical storage system was replaced 
by an all-magnetic disk-based system providing more flexibility and enabling faster 
throughput and production times. 
The CAP Workflow 
The following is a concise description and discussion of the Computer Aided Production 
(CAP) workflow. An item is accepted for publication by means of a peer review process. 
After peer review the item enters the CAP workflow via the Login Function in which a 
publication item identifier (PII) is assigned to the content. This is a tag that the EW uses 
to track the item through the production process, and it also serves as a piece of metadata 
used for the long-term storage of the item. Since this identifier is unique it could also be 
used as a digital object identifier for an information package in an OAIS archive. In 
addition to assigning the PII, the login process also obtains other metadata about the 
author and item such as the first author's name, address, e-mail address, and number of 
pages, tables, and figures in the item. This and other similar metadata are entered into a 
Production Tracking System (PTS) that is maintained by the Production Control system. 
The  item  is  then  sent  electronically  to  a  supplier  (Elsevier  has  sixteen  suppliers, 
distributed on a worldwide basis). There the item undergoes media conversion, file 
structuring,  copy  editing,  and  typesetting.  The  output  of  this  processing  is  a  first 
generation (no corrections) SGML markup of the item, a PDF file, and artwork for the 
item. These units of work are then sent to the author for corrections. The author makes 
the necessary corrections, then sends the item to Production Control where information in 
the PTS system is updated. Thereafter, Production Control sends the item to an Issues 
Manager. Any problems found in the content are worked out between the author and the 
Issues Manager. If there are no problems, the supplier sends the content directly to 
Production Control. 
The Issues Manager then passes the corrections on to the supplier and begins to compile 
the issue. This involves making decisions about proofs, cover pages, advertising, and 
building of indexes. On average, an Issues Manager is responsible for five to ten journals 
or about fifteen thousand pages a year. Once content is received, the supplier then creates 
a second-generation SGML and PDF file and new artwork, if necessary. This cycle is 
repeated until the complete issue is assembled. Once the issue is fully assembled the 
Issues Manager directs the supplier to create a distribution dataset called S300 which 
contains the entire issue. The supplier sends this file to the EW where the file serves as 
input for the creation of distribution datasets for customers such as Science Direct. At 
EW this dataset is added to an ADSM-based storage system that serves as a depository — 
not an archive — for all electronic data produced for the EW. The S300 dataset is also 
sent to a printer where a paper version of the issue is created and then distributed to 
customers. The paper version of the journal is also stored in a warehouse. Most printing 
occurs in the Netherlands and the United Kingdom. 
The current issue-based workflow has two serious problems. The first is that production 
does not produce content for distribution in a timely fashion for customers like Science 
Direct, and the second is that issue-based processing generates high and low periods of 
work for suppliers. A steady stream of work passing through the manufacturing process 
would be more efficient for the suppliers and would result in a more timely delivery of 
content to Elsevier's customers such as Science Direct. The driving force behind a need 
for change, as mentioned above, is not EW but rather, Science Direct as an internal 
customer of the EW.  The resolution  to  these workflow problems is to change the 
fundamental unit of work for production from an issue to an article, something Elsevier 
recognizes and is currently working toward. 
The new article-based e-workflow being developed by Science Direct will streamline 
interactions  between  authors,  producers,  and  suppliers.  At  a  management  level 
automation of key functions will yield the following efficiencies: 1) in the e-workflow 
model, Web sites will be created to automate the electronic submission of articles to an 
editorial office and to establish an electronic peer review system, and 2) the peer review 
system will interface with a more automated login and tracking system maintained by the 
The new Production Tracking System can then be  used by the EW, suppliers, and 
customers  to  manage  the  production  and  distribution  processes  more  efficiently. 
Functionally, the EW would also produce two additional intermediary datasets called 
S100 and S200. These datasets could be sent to the EW for distribution to customers at 
the time of creation by the supplier and before an S300 dataset was sent to the EW. For 
example, the physics community, which uses letter journals, would directly benefit by 
this change in production. Under the e-workflow model, the supplier could immediately 
upon creation send an S100 dataset that contained a first generation version of the letter 
or item (i.e., no author corrections) directly to the EW for distribution to a Science Direct 
Web site. In addition, Science Direct would also be able to distribute content at the article 
level in the form of an S200 dataset that contained second generation or correct SGML 
and  PDF data.  This content would  be sent to a  Web  site before  an S300  dataset, 
representing the entire issue that was sent to the EW by the supplier. It is interesting to 
note that the EW does not save intermediary datasets once an S300 dataset is created. 
Pilot projects have been launched to test the e-workflow model. 
Documents you may be interested
Documents you may be interested