c# parse pdf data : Edit pdf metadata software application cloud windows html winforms class yalefinal1-part917

because we do not trust the permanence of electronic media." The challenge for us all, 
then, is how to solve the problem that Carol so pointedly articulated at a NERL meeting. 
An Opportunity to Learn and Plan 
When the Andrew W. Mellon Foundation first began to signal its keen interest in long-
term preservation of digital resources, the Yale Library had already acquired, loaded on 
site, and migrated certain selected databases and full-text files for its readers. The Library 
had also explored, between 1997 and 1999, the possibility of serving as a local repository 
site for either all of Elsevier Science's more than 1,100 full-text e-journal titles or at least 
for the 300 or so that had been identified by NERL members as the most important for 
their programs. Yale information technology (IT) staff experimented with a year's worth 
of  Elsevier  electronic  journals,  using  the  Science  Server  software  for  loading  and 
providing functionality to those journals. In the end, the fuller functionality of Science 
Direct (Elsevier's commercial Web product) proved more attractive for immediate access, 
particularly as interlinking capabilities between publishers were developed and were 
more easily exploitable from the commercial site than through a local load. Nonetheless, 
Yale's positive experience in working with Elsevier content led our staff enthusiastically 
to consider Elsevier as a possible e-journal archive planning partner. 
When we were invited to consider applying for a planning grant (summer 2000) we 
contacted Karen Hunter, Elsevier Science's Senior Vice President for Strategy, who 
signaled  a  keen  personal  and  corporate  interest  in  long-term  electronic  archiving 
solutions. Additional attractions for Yale in working with Elsevier related to the huge 
amount of important content, particularly in STM, that this publisher provides. It also 
seemed to us that the strong commercial motivation of a for-profit publisher made such a 
partnership more important and interesting, at least initially, than one with a not-for-profit 
publisher. That is, a for-profit entity might not feel so much of a long-term or eternal 
commitment to its content as would a learned society. We have learned in the course of 
this planning project that Elsevier has its own serious commitment in this area. With Ms. 
Hunter and other senior Elsevier staff, a self-identified Yale Library team began to 
formulate e-journal questions and opportunities, and Elsevier officers strongly supported 
our submission of the Fall 2000 application to Mellon. 
Throughout the project, regular meetings between Yale and Elsevier team members have 
been held, and key topics have been identified and pursued therein, as well as by phone, 
e-mail, through the work of small sub-groups, through site visits by team members and 
visitors to our establishments. The principal lines of inquiry have been in the following 
areas: 1) "trigger" events; 2) a beginning exploration of the fascinating area of "archival 
uses," i.e., how real-life users might use the kind of archive we were proposing to 
develop; 3) contractual and licensing issues; 4) metadata identification and analysis, 
particularly through comparison and cross-mapping with datasets recommended by such 
players as the British Library and OCLC/RLG; and 5) technical issues, beginning with an 
examination  of  Elsevier's  production  and  workflow  processes,  and  with  particular 
emphasis after summer of 2001 on building a small prototype archive based on the OAIS 
(Open  Archival  Information  Systems)  model,[4]  focusing  on  the  archival  store 
Edit pdf metadata - add, remove, update PDF metadata in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Allow C# Developers to Read, Add, Edit, Update and Delete PDF Metadata
get pdf metadata; bulk edit pdf metadata
Edit pdf metadata - VB.NET PDF metadata library: add, remove, update PDF metadata in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
Enable VB.NET Users to Read, Write, Edit, Delete and Update PDF Document Metadata
pdf metadata editor; edit pdf metadata acrobat
component. Interlaced  have been  the economic  and sustainability  questions that are 
crucial to all electronic preservation projects. 
An Interesting Mid-Year Development: Acquisition of Academic Press (AP) 
In July 2001, the acquisition by Elsevier Science of a number of Harcourt properties and 
their component journal imprints was announced. This real-life business event presented 
interesting and significant challenges, not only to Elsevier Science but also prospectively 
to the Yale Electronic Archive (YEA). At that time, Elsevier had not fully formulated its 
organizational or technical plans for the new imprints, which included not only AP 
(whose IDEAL service represented one of the earliest commercially-licensed groups of 
important scientific journals, introduced to the marketplace in 1995), but also Harcourt, 
Saunders, Mosby, and Churchill Livingstone, i.e., primarily medical titles which are to be 
integrated into a new Elsevier division called Health Science. Elsevier staff believe that 
the imprints  of the acquired  titles will  survive;  it is not  clear whether the IDEAL 
electronic platform will continue or whether (more likely) it will be integrated into 
Science Direct production processes. 
Sizing 
As a result of this acquisition, Elsevier's total number of journal titles rose from around 
1,100-1,200, to about 1,500-1,600, i.e., by nearly 50 percent. In 2002, the combined 
publications will add collectively 240,000 new articles to Elsevier's electronic offerings; 
the  size  of  the  Elsevier  e-archive  will  become  1.7  million  articles  in  number. 
Additionally, Elsevier, like many other scholarly and scientific publishers, is pursuing a 
program of retrospective digitization of its journals, back to Volume One, Number One. 
The backfiles up to and including the years 1800-1995 (estimated at four to six million 
entries) will require 4.5 terabytes of storage. The years up to and including 1995-2000 
require .75 terabytes. Production output for 2001 is estimated to be at 150-200 gigabytes 
using the new ScienceDirect OnSite (SDOS) 3.0 format, SGML, and graphics. The 
addition of Harcourt titles adds another 1.25 terabytes of storage requirements, for a 
grand total of nearly 7 terabytes of storage being required for all Elsevier Science content 
back to Volume One, Number One. 
Although our e-archiving project is not yet working with non-journal electronic formats, 
it is worth noting that just as with Elsevier Science's publishing output, the new AP 
acquisitions include serials such as the Mosby yearbooks, various Advances in…, and 
certain major reference works. The Yale team believes that this non-journal output is 
worthy of attention and also poses significant challenges. 
After the acquisition, Ken Metzner, AP's Director of Electronic Publishing, was invited to 
attend project meetings; scheduling permitted him to participate only to a limited extent. 
Because of the relative newness of this additional content, the YEA team participants 
were  unable  to  determine the  specific impacts of  the  acquisition for our electronic 
archiving pursuits. Details will become clearer during 2002. What is clear — and has 
been all along, though not so dramatically — is that content of publishers is fluid, at least 
How to C#: Modify Image Metadata (tag)
edit, C#.NET PDF pages extract, copy, paste, C#.NET rotate PDF pages, C#.NET search text in PDF, C#.NET edit PDF bookmark, C#.NET edit PDF metadata, C#.NET
edit pdf metadata; pdf metadata viewer online
C# TIFF: TIFF Metadata Editor, How to Write & Read TIFF Metadata
Tiff ›› C# Tiff: Edit Tiff Metadata. C# TIFF - Edit TIFF Metadata in C#.NET. Allow Users to Read and Edit Metadata Stored in Tiff Image in C#.NET Application.
bulk edit pdf metadata; read pdf metadata java
around the edges. Titles come and go; rights are gained and lost, bought and sold. Any 
archive needs carefully to consider its desiderata with regard to such normally occurring 
business changes and how contractual obligations must be expressed to accommodate 
them. 
Approaches and Assumptions 
In January 2001, the Mellon Foundation approved a one-year planning grant for the Yale 
Library in partnership with Elsevier Science. The two organizations issued a press release 
and named members to the planning team. The work proceeded according to certain 
assumptions, some of which were identified very early in the process and others that 
evolved as we began to pursue various lines of inquiry. While it is not always easy to 
distinguish, one year into the planning process, assumptions from findings, we have made 
an effort to do so and to detail our a priori assumptions here: 
1.  The digital archive being planned will meet long-term needs. The team adopted a 
definition of "long" as one hundred or more years. One hundred years, while 
rather less than the life of well cared for library print collections, is significantly 
more than any period of time that digital media have so far lasted or needed to 
last. Users of an electronic archive must be secure in the knowledge that the 
content they find in that archive is the content the author created and the publisher 
published, the same kind of assurance they generally have with print collections. 
2.  Accordingly, and given the rapid changes in technologies of all sorts, the archive 
has  the  responsibility  to  migrate  content  through  numerous  generations  of 
hardware and software. Content can be defined as the data and discourse about the 
data  that  authors  submit  to  the  publisher.  Content  includes,  as  well,  other 
discourse-related  values  added  by  the  publisher's  editorial  process,  such  as 
revisions prompted by peer review or copy editing or editorial content such as 
letters,  reviews,  journal information and the like.  Specifically, content might 
comprise  articles  and  their  abstracts,  footnotes,  and  references,  as  well  as 
supplementary materials such as datasets, audio, visual and other enhancements. 
For practical purposes, of course, the content consists of the finished product 
made available to readers. 
3.  The archive will not compete with the publisher's presentation of or functionality 
for the same content nor with the publisher's revenue stream. Functionality is 
defined as a set of further value-adding activities that do not have a major impact 
on the reader's ability to read content but may help the reader to locate, interact 
with, and understand the content. The YEA project will not concern itself with 
reproducing  or  preserving the different  instances of publisher's  or  provider's 
functionality, because this functionality is very mutable and appears differently 
based on who delivers the content (publisher, vendor, aggregator, and so on). That 
is, an increasing number of journals, books, and other databases are provided 
through more than one source and thus multiple interfaces are already available, 
in many instances, for the same works. 
C# PDF bookmark Library: add, remove, update PDF bookmarks in C#.
|. Home ›› XDoc.PDF ›› C# PDF: Edit PDF Bookmark. C#.NET PDF SDK - Edit PDF Bookmark and Outline in C#.NET. Empower Your C#
remove pdf metadata online; remove metadata from pdf online
C# PDF Sticky Note Library: add, delete, update PDF note in C#.net
Note. |. Home ›› XDoc.PDF ›› C# PDF: Add Sticky Note. C#.NET PDF SDK - Add Sticky Note to PDF Page in C#.NET. Able to change font size in PDF comment box.
pdf metadata; preview edit pdf metadata
4.  Should  the  archive  be  seen  as  potentially  competitive,  the  publisher  would 
certainly have no incentive (and the authors might not have any incentive either) 
to cooperate with the archive by contributing to it, particularly content formatted 
for easy ingestion into the archive. 
5.  That said, some immediate uses of the archive seem desirable. We imagined that 
if/when the archive — or some portion of its offerings, such as metadata — could 
be conceived of as having rather different and possibly more limited uses than the 
primary, extensive uses the publisher's commercial service provides, the archive 
could be deployed early in its existence for those uses. 
6.  Once each set of data is loaded at regular, frequent intervals, the archive remains 
an entity separate from and independent of the publisher's production system and 
store. The publisher's data and the archive's data become, as it were, "fraternal 
twins" going their separate behavioral ways. 
7.  Such environmental separation enables the archive's content to be managed and 
rendered separately and to be migrated separately — and flexibly — over long 
periods of time, unencumbered by the formatting and production processes that 
the publisher needs to deploy for its own print and electronic dissemination. 
8.  The archive, accordingly, commits to preserving the author's content and does not 
make an effort to reproduce or preserve the publisher's presentation of the content, 
providing, at this time, basic functionality and content with no visible loss. The 
YEA is committed at this point in time only to a minimum "no frills" standard of 
presentation of content. 
9.  Where  extensive  functionality  is  required,  the  YEA  project  assumes  that 
functionality will be created — perhaps by the archive or by a separate contractor 
— when the time comes, and that the functionality will be created in standards 
applicable to that (present or future) time. 
10. The archive does not, in general, create electronic content that does not exist in 
the publisher's electronic offering of the same content, even though such content 
may exist in the printed version of the journals. The archive is not intended to 
mimic the printed version. (For example, if the print journal includes "letters to 
the editor" and the e-journal version does not include these, the e-archive will not 
create them. 
11. The archive will likely need to create metadata or other elements to define or 
describe the publisher's electronic content if the publisher has not provided these 
data during its production processes. However, it is desirable for the archive to 
create as few of these electronic elements as possible. The most accurate and 
efficient (and cost-effective) archive will be created if the publisher creates those 
data. This in turn indicates strongly the need both for industry-wide electronic 
preservation standards and close partnerships between archives (such as libraries) 
and publishers. 
C# PDF Library SDK to view, edit, convert, process PDF file for C#
C#.NET: Edit PDF Metadata. PDF SDK for .NET allows you to read, add, edit, update, and delete PDF file metadata, like Title, Subject
analyze pdf metadata; remove metadata from pdf acrobat
VB.NET PDF Library SDK to view, edit, convert, process PDF file
PDF Metadata Edit. Offer professional PDF document metadata editing APIs, using which VB.NET developers can redact, delete, view and save PDF metadata.
view pdf metadata; batch edit pdf metadata
12. The archive will work with the publisher to facilitate at-source creation of all 
electronic elements. The archive will work with other similar publishers and 
archives to develop, as quickly as possible, standards for such elements, in order 
to deliver consistent and complete archive ingestion packages. 
13. The archive will develop a system to ingest content regularly and frequently. In 
this way, it will record information identical to that generated by the authors and 
publishers. Any adjustments to content after ingestion into the archive will be 
added and identified as such. 
14. At Yale, the e-journals archival system and site will be part of a larger digital 
store and infrastructure comprising and integrating numerous other digital items, 
many of which are already on site, such as internally (to the University and 
Library) digitized content, images, University records, born-digital acquisitions 
that are purchased rather than leased, finding aids, preservation re-formatting, the 
online catalog, and others. In this way, efficiencies and synergies can be advanced 
and exploited. 
15. The archive will regularly and frequently "test" content, preferably both with 
automated systems that verify accuracy and completeness and with real users 
seeking content from the archive. 
16. YEA  team  members  assume  that  the  archive  may  be  searched  by  outside 
intelligent agents or harvesters or "bots," and that it must be constructed in a way 
that both facilitates  such searching and at the same time respects  the  rights 
agreements that have been made with the copyright owners. 
17. "Triggers" for ingestion are frequent and immediate; "triggers" for use of the 
archive are a different matter and will comply with rules developed between the 
publisher and the archive. These triggers would be identified during the course of 
the planning project. 
18. The archive will be constructed to comply with emerging standards such as the 
OAIS model, certain metadata recommendations if possible, XML, and the like. 
Standards that enable data portability are key to YEA development. 
19. The archive will be developed using, wherever possible, software tools as well as 
concepts being created in other institutions. 
Notes About Archival Approaches and the Absolute Necessity for 
Standards in E-Archival Development 
The assumptions listed above speak to four major activities of the YEA, which are 1) 
preservation planning, 2) administration of the archive, 3) access to the archive, and 4) 
ingestion of content. Like other Mellon research projects, the YEA defines activities 
associated with these processes within the context of the OAIS reference model of a 
How to C#: Basic SDK Concept of XDoc.PDF for .NET
XDoc.PDF for .NET allows C# developers to edit hyperlink of PDF document Various PDF annotation features can be integrated into your C# project, such Metadata.
pdf xmp metadata viewer; clean pdf metadata
VB.NET PDF Annotate Library: Draw, edit PDF annotation, markups in
VB.NET PDF - PDF Annotation in VB.NET. Guide to Draw, Add and Edit Various Annotations on PDF File in VB.NET Programming. Annotation Overview.
read pdf metadata online; metadata in pdf documents
digital archive. A fortiori, the model also states that implementations will vary depending 
upon the needs of an archival community. 
Research conducted during the planning year has identified four different approaches to 
preservation: emulation, migration, hard copy, and computer museums. These different 
approaches should not, however, be viewed as mutually exclusive. They can be used in 
conjunction with each other. Additionally, as we are not pursuing the present study as 
simply an academic exercise but rather, as a very practical investigation of what it will 
take to build, operate, and maintain a fully functioning production-mode digital archive, 
we cannot possibly discount the financial implications of the different approaches and the 
impact of standards on a choice of approach. 
In choosing our approach, we quickly discounted both hard copy and computer museums. 
Hard  copy  decays  over  time  and  multimedia  objects  cannot  be  printed.  Computer 
museums were also  discounted as impractical. To function as an archive,  computer 
museum equipment would  need to be operational, not simply a collection  of static 
exhibits. In turn, operation would lead to inevitable wear and tear on the equipment, with 
the consequential need for maintenance and repair work. When considering the repair of 
"antique" computer equipment, one has to ask about the source of spare parts — do all of 
them have to be hand-made at enormous expense? Even if money were available for such 
expensive work, does the "antique" equipment come with adequate diagnostic and testing 
equipment, wiring diagrams, component specifications, and the like, which would make 
the "museum" choice technically feasible in the first place? Even if the antique equipment 
were to receive only the most minimal usage, the silicon chips would deteriorate over 
time. In such a museum environment, one would question whether we would be in danger 
of losing our focus, ending up as a living history-of-computers museum rather than an 
archive of digital materials. 
Rejecting hardcopy and museum options left the team with two very different approaches 
to the storage of content in an OAIS archive. One approach to content preservation is to 
store objects based upon emerging standards such as XML and then migrate them to new 
formats as new paradigms emerge. The other approach, advanced by and associated with 
one of its chief proponents, Marc Rothenberg, is to preserve content through emulation. 
Both approaches have potential and value, but probably to different subcultures in the 
archival community. A goal of standards is to preserve the essential meaning or argument 
contained in the  digital  object. Archives that are  charged with the responsibility of 
preserving text-based objects such as e-journals are likely to adopt a migratory approach. 
Archives that need to preserve an exact replication or clone of the digital objects may 
choose, in the future, to deploy emulation as an archival approach. Both approaches are 
rooted in the use of standards. Contrary to an argument advanced in a research paper by 
Rothenberg,[5]  YEA  team  members  maintain  that  standards,  despite  their  flaws, 
represent an essential component of any coherent preservation strategy adopted. 
That said, Rothenberg criticized the use of migration as an approach to digital longevity. 
Rothenberg does make an insightful and enterprising case for the practice of emulation as 
the "true" answer to the digital longevity problem. The "central idea of the approach, " he 
writes, "is to enable the emulation of obsolete systems on future, unknown systems, so 
that  a  digital  document's  original  software  can  be  run  in  the  future  despite  being 
obsolete." Rothenberg avers that only by preservation of a digital object's context — or, 
simply stated, an object's original hardware and software environment — can the object's 
originality (look, feel, and meaning) be protected and preserved from technological decay 
and software dependency. 
The foundation of  this approach rests on  hardware  emulation, which  is  a common 
practice in the field of data processing. Rothenberg logically argues that once a hardware 
system is emulated, all else just naturally follows. The operating system designed to run 
on the hardware works and software application(s) that were written for the operating 
system  also  work.  Consequently,  the  digital  object  behaves  and  interacts  with  the 
software as originally designed. 
However, emulation cannot escape standards. Processors and peripherals are designed 
with the use of standards. If the manufacturer of a piece of hardware did not adhere 100 
percent  to  the  standard,  then  the  emulation  will  reflect  that  imperfection  or  flaw. 
Consequently,  there  is  never  a  true  solution,  as  suggested  by  Rothenberg,  that  a 
generalized specification for an emulator of a hardware platform can be constructed. In 
the  data  processing  trenches,  system  programmers  are  well  acquainted  with  the 
imperfections and problems of emulation. For example, the IBM operating system MVS 
never ran without problems under IBM's VM operating system. It was a good emulation 
but it was not perfect. Another major problem with emulation in a practical sense is its 
financial implications. The specification, development, and testing of an emulator require 
large amounts of very sophisticated and expensive resources. 
At this stage, the YEA team believes the most productive line of research is a migratory 
approach based upon standards. Standards development must, therefore, feature front and 
center  in  the  next  phase of  e-journal  archiving activities.  If  one  listens closely  to 
academic discourse, the most seductive adverb of all is one not found in a dictionary; it is 
spelled "just" and pronounced "jist" and is heard repeatedly in optimistic and transparent 
schemes  for  making  the  world  a  better  place.  If  scientists  would  "jist"  insist  on 
contributing to publishing venues with the appropriate high-minded standards of broad 
access, we would all be better off. If users would "jist" insist on using open source 
operating systems like Linux, we would all be better off. If libraries would "jist" spend 
more money on acquisitions, we would all be better off. 
Many of those propositions are undoubtedly true, but the adverb is their Achilles' heel. In 
each case the "jist" masks the crucial point of difficulty, the sticking point to movement. 
To identify those sticking points reliably is the first step to progress in any realistic plan 
for action. In some cases, the plan for action itself is arguably a good one, but building 
the consensus and the commonality is the difficulty; in other cases, the plan of action is 
fatally flawed because the "jist" masks not merely a difficulty but an impossibility. 
It would be a comparatively easy thing to design, for any given journal and any given 
publisher, a reliable system of digital information architecture and a plan for preservation 
that would be absolutely bulletproof — as long as the other players in the system would 
"jist" accept the self-evident virtue of the system proposed. Unfortunately, the acceptance 
of self-evident virtue is a practice far less widely emulated than one could wish. 
It is fundamental to the intention of a project such as the YEA that the product — the 
preserved artifact — be as independent of mischance and the need for special supervising 
providence as possible. That means that, like it or not, YEA and all other seriously 
aspiring archives must work in an environment of hardware, software, and information 
architecture that is as collaboratively developed and as broadly supported as possible, as 
open and inviting to other participants as possible, and as likely to have a clear migration 
forward into the future as possible. 
The lesson is simple: standards mean durability. Adhering to commonly and widely 
recognized data standards will create records in a form that lends itself to adaptation as 
technologies  change.  Best  of all  is  to  identify  standards  that  are  in  the  course  of 
emerging, i.e., that appear powerful at the present moment and are likely to have a strong 
future in front of them. Identifying those standards has an element of risk about it if we 
choose the version that has no future, but at the moment some of the choices seem fairly 
clear. 
Standards point not only to the future but also to the present in another way. The well-
chosen standard positions  itself at  a crossroads, from which multiple  paths  of data 
transformation radiate. The right standards are the ones that allow transformation into as 
many forms as the present and foreseeable user could wish. Thus PDF is a less desirable, 
though widely used, standard because it does not convert into structured text. The XML 
suite of technology standards is most desirable because it is portable, extensible, and 
transformative: it can generate everything from ASCII to HTML to PDF and beyond. 
Plan of Work 
The Project Manager chart describes the planning project's working efforts during the 
year, and it highlights certain key events: http://www.diglib.org/preserve/2bplan.pdf
Part II: Lines of Inquiry 
Trigger Events 
Makers of an archive need to be very explicit about one question: what is the archive for? 
The correct answer to that question is not a large idealistic answer about assuring the 
future of science and culture but a practical one: when and how and for what purpose will 
this archive be put to use? Any ongoing daily source needs to be backed up reliably, 
somewhere away from the risks of the live server, and that backup copy becomes the de 
facto archive and the basis for serious preservation activities. 
Types of Archives 
The team discovered during the course of its explorations that there is no single type of 
archive. While it is true that all or most digital archives might share a common mission, 
i.e., the provision of permanent access to content, as we noted in our original proposal to 
the Mellon Foundation, "This simple truth grows immensely complicated when one 
acknowledges that such access is also the basis of the publishers' business and that, in the 
digital arena (unlike the print arena), the archival agent owns nothing that it may preserve 
and cannot control the terms on which access to preserved information is provided." 
In beginning to think about triggers, business models, and sustainability, the project team 
modeled three kinds of archival agents. The first two types of archives include a de facto 
archival agent, defined as a library or consortium having a current license to load all of a 
publisher's journals locally, or a self-designated archival agent. Both of these types are 
commercial transactions, even though they do not conduct their business in the same 
ways or necessarily to meet the same missions. The third type of archive is a publisher-
archival agent partnership and the focus of our investigation. Whether this type can now 
be brought into existence turns on the business viability of an archive that is not heavily 
accessed. Project participants varied in their views about whether an archive with an as 
yet uncertain mission can be created and sustained over time and whether, if created, an 
individual library such as Yale or a wide-reaching library enterprise like OCLC would be 
the more likely archival partner. 
Accessing the Archive 
So when does one access the archive? Or does one ever access it? If the archive is never 
to be accessed (until, say, material passes into the public domain, which currently in the 
United States is seventy years plus the lifetime of the author or rights holder), then the 
incentives for building it diminish greatly, or at least the cost per use becomes infinite. 
There is talk these days of "dark" archives, that is, collections of data intended for no use 
but only for preservation in the abstract. Such a "dark" archive concept is at the least 
risky and in the end possibly absurd. 
Planning for access to the e-archive requires two elements. The less clearly defined at the 
present is the technical manner of opening and reading the archive, for this will depend 
on the state of technology at the point of need. The more clearly defined, however, will 
be what we have chosen to call "trigger" events. In developing an archival arrangement 
with a publisher or other rights holder, it will be necessary for the archive to specify the 
circumstances in which 1) the move to the archive will be authorized, which is much 
easier to agree to than the point at which 2) users may access the archive's content. The 
publisher or rights holder will naturally discourage too early or too easy authorization, for 
then the archive would begin to attract traffic that should go by rights to the commercial 
source. Many rights holders will also naturally resist thinking about the eventuality in 
which they are involuntarily removed from the scene by corporate transformation or other 
misadventure, but it is precisely such  circumstances that  need to  be most carefully 
defined. 
Project participants worked and thought hard to identify conditions that could prompt a 
transfer  of  access  responsibilities  from  the  publisher  to  the  archival  agent.  These 
conditions would be the key factors on which a business plan for a digital archive would 
turn. The investigation began by trying to identify events that would trigger such a 
transfer,  but  it  concluded  that  most  such  events  led  back  to  questions  about  the 
marketplace for and the life cycle of electronic information that were as yet impossible to 
answer.  Team  members  agreed  that  too  little  is  known  about the  relatively  young 
business of electronic publishing to enable us now to identify definitively situations in 
which  it would  be  reasonable  for  publishers to transfer  access responsibility  to  an 
archival agent. 
Possible Trigger Events 
That said, some of the possible trigger events identified during numerous discussions by 
the project team were: 
Long-term physical damage to the primary source. Note that we have not imagined 
the e-journal archive to serve as a temporary emergency service. We expect formal 
publishers to make provision for such access. Nevertheless, in the case of cataclysmic 
event, the publisher could have an agreement with the archive that would allow the 
publisher to recopy material for ongoing use. 
Loss of access or abdication of responsibility for access by the rights holder or 
his/her successor, or no successor for the rights holder is identified. In other words, 
the content of the archive could be made widely available by the archive if the content is 
no longer commercially available from the publisher or future owner of that content. We 
should note that at this point in time, we were not easily able to imagine a situation in 
which the owner or successor would not make provision precisely because in the event of 
a sale or bankruptcy, content is a primary transactional asset. But that is not to say that 
such situations will not occur or that the new owner might not choose to deal with the 
archive as, in some way, the distributor of the previous owner's content. 
Lapse of a specified period of time. That is, it could be negotiated in advance that the 
archive would become the primary source after a negotiated period or "moving wall," of 
the sort that JSTOR has introduced into the e-journal world's common parlance. It may be 
that the "free science" movement embodied in PubMed Central or Public Library of 
Science might set new norms in which scientific content is made widely available from 
any and all sources after a period of time, to be chosen by the rights owner. This is a 
variant on the "moving wall" model. 
On-site visitors. Elsevier, our partner in this planning venture, has agreed that at the 
least, its content could be made available to any onsite visitors at the archive site, and 
possibly to other institutions licensing the content from the publisher. Another possibility 
is provision of access to institutions that have previously licensed the content. This latter 
option goes directly to development of financial and sustainability models that will be 
key in Phase II. 
Documents you may be interested
Documents you may be interested