pdf reader library c# : How to delete text from pdf with acrobat SDK Library service wpf asp.net azure dnn nestor-handbuch32-part932

[ Version 1.5 ]   15-47
15 Anwendungsfelder in der Praxis
Abbildung 15.4.3
Abbildung 15.4.4
How to delete text from pdf with acrobat - delete, remove text from PDF file in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Allow C# developers to use mature APIs to delete and remove text content from PDF document
erase pdf text; online pdf editor to delete text
How to delete text from pdf with acrobat - VB.NET PDF delete text library: delete, remove text from PDF file in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
VB.NET Programming Guide to Delete Text from PDF File
delete text from pdf with acrobat; how to remove highlighted text in pdf
nestor Handbuch: Eine kleine Enzyklopädie der digitalen Langzeitarchivierung
15-48
nicht in der Lage, auf Daten zuzugreifen, die erst auf spezifische ad-hoc-
Anfragen zusammengestellt werden und nicht durch Verknüpfungen sta-
tischer Dokumente repräsentiert sind.
•  Inhalte, die erst nach einer Authentisierung zugänglich sind, entziehen 
sich verständlicherweise dem Harvesting-Prozess.
•  dynamische Elemente als Teile von Webseiten (z.B. in Script-Sprachen) 
können Endlosschleifen (crawler traps) verursachen, in denen sich der 
Harvester verfängt.
•  Hyperlinks in Web-Dokumenten können so gut verborgen sein (deep 
links), dass der Harvester nicht alle Verknüpfungen verfolgen kann und 
im Ergebnis inkonsistente Dokumente archiviert werden.
Vor allem bei der Ausführung flächigen Web-Harvestings führen die genann-
ten Schwächen häufig zu Unsicherheiten über die Qualität der erzielten Ergeb-
nisse, da eine Qualitätskontrolle aufgrund der erzeugten Datenmengen nur in 
Form von Stichproben erfolgen kann. Nationalbibliotheken verfolgen deshalb 
zunehmend Sammelstrategien, die das Web-Harvesting als eine von mehreren 
Zugangswegen für Online-Publikationen etablieren.
Der  individuelle Transfer von  Einzeldokumenten über Einlieferschnittstel-
len oder teilautomatisierte Zugangsprotokolle sowie bilaterale Vereinbarungen 
mit  Produzenten  bilden  eine  wichtige  Ergänzung  des  „vollautomatischen“ 
Sammelverfahrens.
2 Nationalbibliotheken und das World Wide Web
Nationalbibliotheken fassen grundsätzlich alle der im World Wide Web erreich-
baren Dokumente als Veröffentlichungen auf und beabsichtigen, ihre Sammel-
aufträge entsprechend zu erweitern, soweit dies noch nicht geschehen ist. Eine 
Anzahl von Typologien von Online-Publikationen wurde als Arbeitsgrundlage 
geschaffen, um Prioritäten bei der Aufgabenbewältigung setzen zu können und 
der Nutzererwartung mit Transparenz in der Aufgabenwahrnehmung begegnen 
zu können. So ist z.B. eine Klassenbildung, die mit den Begriffen „druckbil-
dähnlich“ und „webspezifisch“ operiert, in Deutschland entstanden.
30
In allen 
Nationalbibliotheken hat die Aufnahme von Online-Publikationen zu einer Dis-
kussion von Sammel-, Erschließungs- und Archivierungsverfahren geführt, da 
30  http://www.zlb.de/aktivitaeten/bd_neu/heftinhalte/heft9-1204/digitalebib1104.pdf [Aus-
wahlkriterien  für  das  Sammeln  von  Netzpublikationen  im  Rahmen  des  elektronischen 
Pflichtexemplars] (Juni 2006)
.NET PDF Document Viewing, Annotation, Conversion & Processing
Redact text content, images, whole pages from PDF file. Annotate & Comment. Edit, update, delete PDF annotations from PDF file. Print.
erase text from pdf file; remove text watermark from pdf
C# PDF Converter Library SDK to convert PDF to other file formats
Allow users to convert PDF to Text (TXT) file. can manipulate & convert standard PDF documents in other external third-party dependencies like Adobe Acrobat.
how to delete text in a pdf file; how to erase in pdf text
[ Version 1.5 ]   15-49
konventionelle Geschäftsgänge der Buch- und Zeitschriftenbearbeitung durch 
neue Zugangsverfahren, die Masse des zu bearbeitenden Materials und neue 
Methoden zur Nachnutzung von technischen und beschreibenden Metadaten 
nicht anwendbar waren. Die neue Aufgabe von Gedächtnisorganisationen, die 
langfristige Verfügbarkeit digitaler Ressourcen zu gewährleisten, hat zu neuen 
Formen der Kooperation
31
und Verabredungen zur Arbeitsteilung geführt. 
Eine Umfrage der IFLA
32
im Jahr 2005 hat ergeben, dass 16 Nationalbiblio-
theken Web-Harvesting praktizieren, 11 davon flächiges Harvesting in unter-
schiedlichen Stadien der Produktivität. 21 Nationalbibliotheken setzen parallel 
oder ausschließlich andere Verfahren zur Sammlung von Online-Publikationen 
ein. Die Ergebnisse von Web-Harvesting-Verfahren sind aus urheberrechtlichen 
Gründen fast ausschließlich nur in den Räumen der jeweiligen Nationalbiblio-
thek zugänglich.
Ein „Statement on the Development and Establishment of Voluntary Deposit 
31  http://www.langzeitarchivierung.de  [nestor  -  Kompetenznetzwerk  Langzeitarchivierung] 
(Juni 2006)
32  http://www.ifla.org/ [International Federation of Library Organisations] (Juni 2006)
15 Anwendungsfelder in der Praxis
Abbildung 15.4.5
C# powerpoint - PowerPoint Conversion & Rendering in C#.NET
documents in .NET class applications independently, without using other external third-party dependencies like Adobe Acrobat. PowerPoint to PDF Conversion.
delete text from pdf online; pdf text watermark remover
C# Word - Word Conversion in C#.NET
Word documents in .NET class applications independently, without using other external third-party dependencies like Adobe Acrobat. Word to PDF Conversion.
how to delete text in pdf converter professional; remove text watermark from pdf online
nestor Handbuch: Eine kleine Enzyklopädie der digitalen Langzeitarchivierung
15-50
Schemes for Electronic Publications“
33
der Conference of European National 
Librarians (CENL) und der Federation of European Publishers (FEP) hat fol-
gende Prinzipien im Umgang zwischen Verlagen und nationalen Archivbiblio-
theken empfohlen (unabhängig davon, ob sie gesetzlich geregelt werden oder 
nicht):
•  Ablieferung digitaler Verlagspublikationen  an  die zuständigen  Biblio-
theken mit nationaler Archivierungsfunktion
•  Geltung des Ursprungsland-Prinzip für die Bestimmung der Depotbibli-
othek, ggf. ergänzt durch den Stellenwert für das kulturelle Erbe einer 
europäischen Nation
•  Einschluss von Publikationen, die kontinuierlich verändert werden (web-
sites) in die Aufbewahrungspflicht
•  nicht  im  Geltungsbereich  der  Vereinbarung  sind:  Unterhaltungspro-
dukte (z.B. Computerspiele) und identische Inhalte in unterschiedlichen 
Medienformen  (z.B.  Online-Zeitschriften  zusätzlich  zur  gedruckten 
Ausgabe.
Das Statement empfiehlt, technische Maßnahmen zum Schutz des Urheber-
rechts  (z.B.  Kopierschutzverfahren) vor  der  Übergabe  an die  Archivbiblio-
theken zu deaktivieren, um die Langzeitverfügbarkeit zu gewährleisten.
3 Nationale Strategien von Nationalbibliotheken
Die norwegische Nationalbibliothek
34
gibt in ihren Planungen für das Jahr 
2005 an, viermal im Jahr ein Harvesting des vollständigen nationalen Adress-
raumes (.no) durchführen zu wollen. Darüber hinaus sollen Online-Tageszei-
tungen täglich und Online-Zeitschriften in der Häufigkeit ihrer Erscheinungs-
weise eingesammelt werden. Online-Publikationen mit einer Bedeutung für das 
norwegische kulturelle Erbe, die in anderen top level domains (z.B. .com, .org, 
.net) erscheinen, werden in Auswahl archiviert. Datenbanken und Netzpubli-
kationen, die im deep web erscheinen und derzeit nicht durch automatische 
Harvesting-Verfahren erreichbar sind, bleiben vorerst unberücksichtigt.
Die amerikanische Library of Congress (LoC) hat im Jahr 2000 das MINERVA-
Projekt
35
eingerichtet und mit Web Harvesting experimentiert. Dabei hat sich 
die LoC auf den Aufbau thematischer Sammlungen von Websites konzentriert. 
33  http://www.sne.fr/1_sne/pdf_doc/FINALCENLFEPDraftStatement050822.doc  [State-
ment on the Development and Establishment of Voluntary Deposit Schemes for Electronic 
Publications] (Juni 2006)
34  http://www.nb.no/english [The National Library of Norway] (Juni 2006)
35  www.loc.gov/minerva [MINERVA - Mapping the Internet Electronic Resources Virtual Ar-
chive] (Juni 2006)
VB.NET PDF: How to Create Watermark on PDF Document within
create a watermark that consists of text or image (such And with our PDF Watermark Creator, users need no external application plugin, like Adobe Acrobat.
pull text out of pdf; delete text from pdf file
C# Windows Viewer - Image and Document Conversion & Rendering in
standard image and document in .NET class applications independently, without using other external third-party dependencies like Adobe Acrobat. Convert to PDF.
how to erase text in pdf online; delete text pdf document
[ Version 1.5 ]   15-51
In Kooperation mit dem Internet Archive
36
wurden so z.B. folgende Samm-
lungen eingerichtet: Wahlen zum 107. Kongress, Präsidentschaftswahlen, 11. 
September 2001. Vorgesehen ist die Sammlung und Archivierung von Websites 
zu den Olympischen Winterspielen 2002, dem Irak-Krieg und weiteren Wahlen 
auf nationaler Ebene. Die Aktivitäten der amerikanischen Nationalbibliothek 
bei der Bildung thematischer Sammlungen stehen im Einklang mit der Vorge-
hensweise bei ihren Digitalisierungsvorhaben zum „American Memory“
37
.
Die australische Nationalbibliothek
38
war Vorreiter für die Anwendung innova-
tiver technischer Methoden bei der selektiven Sammlung kulturell bedeutender 
Websites in Australien. Das dortige digitale Archiv PANDORA
39
wird seit 1996 
betrieben. In einem kooperativen Verfahren wird es arbeitsteilig zusammen mit 
den australischen State Libraries aufgebaut. Eingesetzt wird fokussiertes Har-
vesting unter Verwendung der Standard-Software HTTRACK
40
. Die zusätzlich 
durchgeführte intensive Qualitätskontrolle der zu archivierenden Inhalte kostet 
personelle Ressourcen: bislang konnten durch das mit der Aufgabe betraute 
Personal (ca. 6 Stellen) insgesamt etwa 12.000 Websites mit 22.000 „Schnapp-
schüssen“ aufgenommen und mit Metadaten versehen werden. Da vorab von 
jedem einzelnen Urheber das Einverständnis zur Archivierung und öffentlichen 
Bereitstellung eingeholt wird, ist PANDORA eines der wenigen Web-Archive 
weltweit, die über das WWW offen zugänglich sind.
Die  Nationalbibliotheken  von  Neuseeland  und  Großbritannien  haben  im 
Rahmen Ihrer selektiven Aktivitäten zur Archivierung wichtiger Websites ihres 
jeweiligen nationalen Adressraumes ein „Web Curator Tool“
41
entwickelt, das 
als Freeware allen interessierten Anwendern zur Begutachtung und Verfügung 
steht.
4 Das International Internet Preservation Consortium (IIPC)
Das IIPC
42
wurde 2003 gegründet. Ihm gehören elf Nationalbibliotheken und 
das Internet Archive an. Die Gründungsidee des IIPC ist es, Wissen und In-
formationen aus dem Internet für zukünftige Generationen zu archivieren und 
verfügbar zu machen. Dies soll durch weltweiten Austausch und Kooperation 
36  http://archive.org [Internet Archive] (Juni 2006)
37  http://memory.loc.gov/ammem/index.html [The Library of Congress - American Memo-
ry] (Juni 2006)
38  http://www.nla.gov.au [National Library of Australia] (Juni 2006)
39  http://pandora.nla.gov.au [PANDORA - Australia’s Web Archive] (Juni 2006)
40  http://www.httrack.com [HTTrack Website Copier - Offline Browser] (Juni 2006)
41  http://webcurator.sourceforge.net
42  http://www.netpreserve.org [International Internet Preservation Consortium] (Juni 2006)
15 Anwendungsfelder in der Praxis
C# Excel - Excel Conversion & Rendering in C#.NET
Excel documents in .NET class applications independently, without using other external third-party dependencies like Adobe Acrobat. Excel to PDF Conversion.
how to remove text watermark from pdf; remove text from pdf acrobat
VB.NET PowerPoint: VB Code to Draw and Create Annotation on PPT
other documents are compatible, including PDF, TIFF, MS free hand, free hand line, rectangle, text, hotspot, hotspot more plug-ins needed like Acrobat or Adobe
how to delete text from a pdf reader; how to erase text in pdf file
nestor Handbuch: Eine kleine Enzyklopädie der digitalen Langzeitarchivierung
15-52
aller Gedächtnisorganisationen erreicht werden, die sich der neuen Aufgabe 
stellen.
Die Aktivitäten des IIPC sind vielschichtig. Internationale Kooperation auf 
einem technischen Gebiet erfordert Standardisierung. So hat das IIPC Mitte 
2005 einen Standardisierungsvorschlag (Internet Draft) für das „Web Archive 
File Format (WARC)“ vorgelegt. Eine Standardisierung des Archivierungsfor-
mates vereinfacht die Entwicklung nachnutzbarer technischer Instrumentarien 
unter den IIPC-Partnern und erlaubt auch den Austausch von Datenbeständen 
zur redundanten Speicherung aus Sicherheitsgründen.
Unter dem Projektnamen „HERITRIX“
43
arbeiten die IIPC-Partner an einem 
Web-Harvester, der allen interessierten Anwendern als Open Source Software 
frei zur Verfügung steht. HERITRIX tritt mit dem Anspruch an, eine skalierbare 
und ausbaufähige Software zu entwickeln, die (im Gegensatz zu marktüblichen 
Produkten) Ergebnisse mit Archiv-Qualität liefert. Standard-Produkte erzeu-
gen normalerweise Veränderungen in den lokalen Kopien von Websites, die 
den Authentizitätsansprüchen von Gedächtnisorganisationen zuwiderlaufen.
Mit NutchWAX
44
(Nutch & Web Archive Extensions) haben IIPC-Partner 
eine Suchmaschine für den Einsatz in der Web-Archiv-Umgebung vorbereitet. 
Damit wird es möglich, die Erwartungen von Web-Archiv-Nutzern im Hinblick 
auf den Suchkomfort durch die Integration von Standard-Suchmaschinentech-
nologie zu erfüllen.
WERA
45
(Web Archive Access) ist der Prototyp einer Zugriffskomponente, 
die als Endnutzer-Schnittstelle den Zugang zum digitalen Archiv erlaubt. Im 
Gegensatz zu marktüblichen Standard-Tools (z.B. HTTRACK) sind die Ergeb-
nisse des Harvesters HERITRIX als Datenpakete im WARC-Format nicht ohne 
weiteres von Endnutzern zu betrachten. WERA ergänzt die üblichen Suchfunk-
tionen um die Möglichkeit, einen Zeitpunkt für die Auswahl des gewünschten 
Schnappschusses im Archiv angeben zu können. Damit ist es möglich, mehrere 
in zeitlicher Abfolge geharvestete Schnappschüsse zusammen zu verwalten und 
Endnutzern komfortable Suchmöglichkeiten unter Einbeziehung der Zeitachse 
zu bieten.
Das IIPC sucht auch nach Lösungen, die oben genannten Defizite automa-
tischer Web-Harvesting-Verfahren auszugleichen. Mit „DeepARC“
46
wurde ein 
grafischer Editor vorgelegt, der es erlaubt, Strukturen aus relationalen Daten-
43  http://crawler.archive.org/ [HERITRIX] (Juni 2006)
44  http://archive-access.sourceforge.net/projects/nutch [NutchWAX] (Juni 2006)
45  http://archive-access.sourceforge.net/projects/wera [WERA] (Juni 2006)
46  http://deeparc.sourceforge.net [DeepARC] (Juni 2006)
[ Version 1.5 ]   15-53
banken in ein XML-Schema abzubilden. Der Transfer wichtiger Inhalte aus dem 
deep web kann unter Nutzung dieses Tools durch bilaterale Vereinbarungen 
zwischen Datenbankbetreibern und Archiven geregelt und unterstützt werden.
Zusammenfassend drückt das folgende Schaubild aus, dass die Tools des IIPC 
explizit an den Belangen von Gedächtnisorganisationen ausgerichtet sind, die 
an der Langzeitarchivierung von WWW-Inhalten interessiert sind.
5 Ein Blick nach Deutschland
Eine Anzahl von Aktivitäten in Deutschland hat sich der Aufgabe „Langzeiter-
haltung von Internetressourcen“ angenommen. Die Internetpräsenz des Pro-
jekts „nestor - Kompetenznetzwerk Langzeitarchivierung“
47
listet in der Rub-
rik „Projekte“ folgende Institutionen und Vorhaben auf, die sich im engeren 
Sinne mit der Sammlung und Archivierung von WWW-Ressourcen befassen: 
Parlamentsarchiv des Deutschen Bundestages, Baden-Württembergisches On-
line-Archiv, Digital Archive for Chinese Studies (Heidelberg), edoweb Rhein-
land-Pfalz, Archiv der Webseiten politischer Parteien in Deutschland und das 
Webseitenarchiv des Zentralarchivs zur Erforschung der Geschichte der Juden 
in Deutschland. Nähere Angaben und weiterführende Hinweise sind auf www.
langzeitarchivierung.de zu finden.
Die Deutsche Nationalbibliothek hat in den vergangenen Jahren vor allem auf 
die individuelle Bearbeitung von Netzpublikationen und das damit erreichbare 
hohe Qualitätsniveau im Hinblick auf Erschließung und Archivierung gesetzt. 
Eine interaktive Anmeldeschnittstelle kann seit 2001 zur freiwilligen Übermitt-
lung von Netzpublikationen an den Archivserver info-deposit.d-nb.de
48
genutzt 
werden. Im Herbst 2005 wurde zum Zeitpunkt der Wahlen zum Deutschen 
Bundestag in Kooperation mit dem European Archive
49
ein Experiment durch-
geführt, um Qualitätsaussagen über die Ergebnisse aus fokussiertem Harves-
ting zu erhalten.
47  http://www.langzeitarchivierung.de  [nestor  -  Kompetenznetzwerk  Langzeitarchivierung] 
(Juni 2006)
48  http://info-deposit.d-nb.de  [Archivserver  der  Deutschen  Nationalbibliothek]  (Februar 
2007)
49  http://europarchive.org [European Archive] (Februar 2007)
15 Anwendungsfelder in der Praxis
nestor Handbuch: Eine kleine Enzyklopädie der digitalen Langzeitarchivierung
15-54
15.5 Wissenschaftliche Primärdaten
Jens Klump
Einführung
Der Begriff „Primärdaten“ sorgt immer wieder für Diskussion, denn die De-
finition des Begriffs ist sehr von der eigenen Rolle in der wissenschaftlichen 
Wertschöpfungskette bestimmt. Für den einen sind „Primärdaten“ der Daten-
strom aus einem Gerät, z.B. einem Satelliten. In der Fernerkundung werden 
diese Daten „Level 0“ Produkte genannt. Für andere sind „Primärdaten“ zur 
Nachnutzung aufbereitete Daten, ohne weiterführende Prozessierungsschritte. 
Wieder andere differenzieren nicht nach Grad der Verarbeitung sondern be-
trachten alle Daten, die Grundlage einer wissenschaftlichen Veröffentlichung 
waren, als Primärdaten.
Welche  Definition des Begriffs  man auch wählt, wissenschaftliche Primär-
daten sind geprägt durch ihre Herkunft aus experimentellem Vorgehen, d.h. 
anders als Daten aus Arbeitsabläufen der Industrie oder Verwaltung stammen 
wissenschaftliche Primärdaten  überwiegend aus  informellen  Arbeitabläufen, 
die immer wieder ad hoc an die untersuchte Fragestellung angepasst werden 
(Barga und Gannon, 2007). Da in den meisten Fällen keine Formatvorgaben 
vorhanden sind, werden wissenschaftliche Primärdaten in einer Vielfalt von 
Dateiformaten hergestellt, die semantisch selten einheitlich  strukturiert und 
nur lückenhaft mit Metadaten beschrieben sind. Diese Faktoren stellen für die 
digitale Langzeitarchivierung von wissenschaftlichen Primärdaten eine größere 
Herausforderung dar, als die Datenmenge, auch wenn diese in einzelnen Fällen 
sehr groß sein kann.
Für den Forscher liegt es nicht im Fokus seines wissenschaftlichen Arbeitens, 
Daten zu archivieren und zugänglich zu machen, denn bisher bestehen keine 
Anreize an Wissenschaftler, zumindest Daten, die Grundlage einer Veröffent-
lichung waren, für andere zugänglich zu machen (Klump et al., 2006). Nur an 
sehr wenigen Stellen besteht heute im wissenschaftlichen Veröffentlichungssys-
tem oder in der Forschungsförderung die Pflicht, Forschungsdaten für andere 
zugänglich zu machen. Darüber hinaus ist nicht geklärt, wer für die Langzeitar-
chivierung von wissenschaftlichen Primärdaten verantwortlich ist und wie diese 
Leistung finanziert wird (Lyon, 2007). Dies führt zu Defiziten im Management 
und in der Archivierung wissenschaftlicher Daten mit möglichen negativen Fol-
[ Version 1.5 ]   15-55
gen für die Qualität der Forschung (Nature Redaktion, 2006).
Durch eine Reihe von Aufsehen erregenden Wissenschaftsskandalen in den 
neunziger Jahren des 20. Jahrhunderts sah sich die Deutsche Forschungsge-
meinschaft (DFG) gezwungen, „Empfehlungen für einen gute wissenschaft-
liche Praxis“ auszusprechen (DFG, 1998), die in vergleichbarer Form auch von 
anderen Wissenschaftsorganisationen übernommen wurden. In ihren Empfeh-
lungen bezieht sich die DFG auf Daten, die Grundlage einer wissenschaftlichen 
Veröffentlichung waren. Sie verlangt von ihren Zuwendungsempfängern, dass 
diese Daten für mindestens zehn Jahre auf geeigneten Datenträgern sicher auf-
bewahrt werden müssen (DFG, 1998, Empfehlung 7). Für die einzelnen Diszi-
plinen ist der Umgang mit Daten im einzelnen zu klären, um eine angemessene 
Lösung zu finden (DFG, 1998, Empfehlung 1). Diese Policy dient jedoch in 
erster Linie einer Art Beweissicherung; über Zugang zu den Daten und ihre 
Nachnutzbarkeit sagen die Empfehlungen nichts aus. Zudem ist bisher noch 
kein Fall bekannt geworden, in dem die DFG Sanktionen verhängt hätte, allein 
weil der Pflicht zur Archivierung von Daten nicht nachgekommen wurde.
Trotz der Empfehlungen für eine gute wissenschaftliche Praxis sind kohärente 
Datenmanagementstrategien, Archivierung von wissenschaftlichen Primärda-
ten und, soweit möglich, Zugang zu Daten meist nur in größeren Forschungs-
verbünden zu finden, die für Erfolge in der Forschung auf enge Zusammenar-
beit angewiesen sind, oder in Fällen, in denen es gesetzliche Vorgaben für den 
Umgang mit Daten gibt. Wie schon in der Diskussion um den Offenen Zugang 
zu wissenschaftlichem Wissen (Open Access) zeigt sich hier, dass eine Policy 
nur wirksam ist, wenn sie eine Verpflichtung mit sich bringt und gleichzeitig 
Anreize zur Zusammenarbeit bietet (Bates et al., 2006).
Um das Ziel einer nachhaltigen digitalen Langzeitarchivierung von wissen-
schaftlichen  Primärdaten  zu  erreichen,  muss  sowohl  eine  organisatorische 
Strategie verfolgt werden, die Langzeitarchivierung von Daten zu einem aner-
kannten Beitrag zur wissenschaftlichen Kultur macht und die gleichzeitig von 
einer technischen Strategie unterstützt wird, die den Akteuren für die digitalen 
Langzeitarchivierung von wissenschaftlichen Primärdaten geeignete Werkzeuge 
in die Hand gibt. Mit dazu gehören eine Professionalisierung des Datenma-
nagements und der digitalen Langzeitarchivierung von Forschungsdaten auf 
Seiten der Projekte und Archive.
Organisatorische Strategien
Auf Grund  der enormen Summen, die jährlich  für  die Erhebung wissen-
15 Anwendungsfelder in der Praxis
nestor Handbuch: Eine kleine Enzyklopädie der digitalen Langzeitarchivierung
15-56
schaftlicher Daten ausgegeben werden, beschäftigt sich die Organisation für 
wirtschaftliche Zusammenarbeit und Entwicklung (OECD) bereits seit einigen 
Jahren mit der Frage, wie mit Daten aus öffentlich geförderter Forschung um-
gegangen werden sollte. Auf dem Treffen der Forschungsminister im Januar 
2004 wurde beschlossen, dass der Zugang zu Daten aus öffentlich geförderter 
Forschung verbessert werden muss (OECD, 2004). Mit diesem Mandat im Hin-
tergrund befragte die OECD die Wissenschaftsorganisationen ihrer Mitglieds-
länder zu deren Umgang mit Forschungsdaten. Aus dem Ergebnissen der Be-
fragung wurde eine Studie verfasst und im Dezember 2006 verabschiedete der 
Rat der OECD eine „Empfehlung betreffend den Zugang zu Forschungsdaten 
aus öffentlicher Förderung“ (OECD, 2006). Diese Empfehlung ist bindend und 
muss von den Mitgliedsstaaten der OECD in nationale Gesetzgebung umge-
setzt werden, die Umsetzung wird von der OECD beobachtet. In Abschnitt M 
der Empfehlung wird vorgeschlagen, dass schon bei der Planung von Projekten 
eine nachhaltige, langfristige Archivierung der Daten berücksichtigt wird.
Parallel dazu, und mit mehr Aufsehen in der Öffentlichkeit, wurde im Okto-
ber 2003 von den Wissenschaftsorganisationen die „Berliner Erklärung über 
den offenen Zugang zu wissenschaftlichem Wissen“ veröffentlicht (Berliner 
Erklärung, 2003), deren Schwerpunkt auf dem Zugang zu wissenschaftlicher 
Literatur für Forschung und Lehre liegt. In ihre Definition des offenen Zugangs 
bezieht die „Berliner Erklärung“ auch Daten und Metadaten mit ein. Die Lang-
zeitarchivierung ist hier ein Mittel zum Zweck, das den offenen Zugang zu wis-
senschaftlichem Wissen über das Internet auf Dauer ermöglichen soll. Aufrufe 
dieser Art wurden stets begrüßt, aber blieben leider ohne Folgen (Zerhouni, 
2006). Dieses Problem betrifft die Institutional Repositories des Open Access 
genauso wie die Datenarchive. Es sollte daher geprüft werden, inwiefern die 
Strategien, die bei der Umsetzung von Open Access angewandt werden, sich 
auch auf den offenen Zugang zu Daten anwenden lassen (Bates et al., 2006; 
Sale, 2006).
Wenngleich es einige Policies gibt, die den Zugang zu Daten ermöglichen sol-
len, so hat sich erst recht spät die Erkenntnis durchgesetzt, dass die digitale 
Langzeitarchivierung von Forschungsdaten eine Grundvoraussetzung des of-
fenen Zugangs ist. Eine umfangreiche Studie wurde dazu bereits in der ersten 
Förderphase des Projekts nestor erstellt (Severiens und Hilf, 2006). Eine ähn-
liche Studie wurde auch für das britische Joint Information Systems Commit-
tee (JISC) veröffentlicht (Lord und Macdonald, 2003) und das Thema in einer 
weiteren Studie vertieft (Lyon, 2007). Einzelne Systeme, die als Best-Practice 
Beispiele gelten dürfen, da sie die Voraussetzungen von Offenem Zugang und 
Documents you may be interested
Documents you may be interested