ISSN: 1680-8975 PURL: http://purl.org/sichtungen/ |
Home > Berichte > Tagungen > Computergestützte Text-Edition |
Andreas Brandtner / Klaus Kastberger: Bericht über das Arbeitsgespräch »Computergestützte Text-Edition« am Deutschen Literaturarchiv in Marbach am Neckar, 13. bis 15. Mai 1998 (29. 12. 2001). In: Sichtungen online, PURL: http://purl.org/sichtungen/brandtner-a-11a.html ([aktuelles Datum]). - Auch in: Sichtungen 2 (1999), S. 295-299. |
Andreas Brandtner Wiener Stadt- und Landesbibliothek Handschriftensammlung Rathaus, A-1082 Wien Adressinformation zuletzt aktualisiert: 2000 Klaus Kastberger Österreichische Nationalbibliothek Österreichisches Literaturarchiv Josefsplatz 1, A-1015 Wien Adressinformation zuletzt aktualisiert: 2000 |
Bericht über das Arbeitsgespräch »Computergestützte Text-Edition« am Deutschen Literaturarchiv in Marbach am Neckar, 13. bis 15. Mai 1998Andreas Brandtner / Klaus Kastberger |
[2/ S. 295:] Das Arbeitsgespräch »Computergestützte Text-Edition«, das vom 13. bis 15. Mai 1998 am Deutschen Literaturarchiv in Marbach am Neckar abgehalten wurde, schloß an eine Tagung am Goethe- und Schiller-Archiv in Weimar an. Die Konferenz in Marbach wurde von den Organisatoren Roland Kamzelak und Heinz Werner Kramski (beide Marbach) unter drei Perspektiven angesetzt: Editionswissenschaft, Publikationswesen und Archivierung. In Form von Einführungen wurden zuerst wichtige Standards und Anwendungen wie SGML (Standard Generalized Markup Language), TEI (Text Encoding Initiative) und das Metadaten-Set Dublin Core sowie - in bezug auf die Urheberrechtsproblematik - das EU-Projekt ECUP (European Copyright User Platform) vergegenwärtigt. In Fallstudien wurden sodann Anwendungsbeispiele vorgeführt, drei Podiumsdiskussionen differenzierten schließlich die Schwerpunktthemen der Tagung. Nach der Begrüßung der Tagungsteilnehmer durch den Direktor des Marbacher Literaturarchivs Ulrich Ott und durch die beiden Organisatoren führte Michael Sperberg-McQueen (Chicago) in die Textauszeichnungsnorm SGML ein. Als Vorteile dieser Metasprache wurden die Firmen- und Geräteunabhängigkeit, die Basierung auf einer ISO-Norm (8879:1986), die weite Verbreitung sowie die vielfältigen Auszeichnungsmöglichkeiten (nicht nur einzelne Seiten, sondern ganze Texte) genannt. Mit dem etwas vereinfachten XML (Extensible Markup Language) bietet sich eine zu HTML (Hypertext Markup Language) alternative Möglichkeit, die Vorteile von SGML im World Wide Web (WWW) nutzbar zu machen. Der Vortrag von Winfried Bader (Stuttgart) setzte sich mit einer Anwendung von SGML, der Text Encoding Initiative (TEI) auseinander. Dieses internationale Projekt konstituierte sich 1987 bei der Poughkeepsie Planning Conference, seit 1994 liegen offizielle Richtlinien als Buch und in elektronischer Version vor (vgl. http://www.uic.edu /orgs/tei/p3/). TEI gründet technisch in einer Zusatzinformation über die Codierung, die dem ausgezeichneten Text als Header beigegeben wird. Dies ermöglicht eine breite Austauschmöglichkeit von Daten und die Unterstützung annähernd sämtlicher Texte und Sprachen. Darüber hinaus bietet die TEI eine Hinführung zur Praxis der Codie- [2/ S. 296:] rung sowie eine Hilfestellung zur richtigen Codierung von Information. Elmar Mittler (Göttingen) setzte sich in seinem Referat mit Fragen des europäischen Urheberrechts auseinander und informierte über den momentanen Stand der Entwicklung. Demnach sei mit richtungsweisenden Entscheidungen erst in zwei bis drei Jahren zu rechnen, derzeit herrsche große Unsicherheit. Was Publikationen im Internet betrifft, zieht sich der Gesetzgeber weitgehend zurück und beharrt auf privaten Vertragsregelungen. Perfekte Lösungen des Urheberrechts scheinen auf dieser Basis wohl ausgeschlossen zu sein. Nach der Vorstellung des auf 15 Kategorien basierenden Metadaten-Sets Dublin Core durch Volker Henze (Frankfurt / Main) wurden als Abschluß des ersten Tages von Gunter Hille (Hamburg), Herbert Wender und Robert Peter (beide Saarbrücken) sowie von Fotis Jannidis (München) drei Internetprojekte präsentiert: Gutenberg-De, die deutsche Variante des bekannten Textarchivs Gutenberg (http://www.gutenberg.aol.de/), die keinen Anspruch auf editorische Texttreue erhebt, ein noch verbesserungsbedürftiges Projekt zur Konzeption einer sogenannten »Apparatmaschine«, also eines Programms zum Vergleich verschiedener, elektronisch gespeicherter Textversionen, das auf dem Server der Universität Saarbrücken abzurufen ist (http://schiller.germanistik.uni-sb.de/edition1.html), sowie die an der Universität München erstellte Netzzeitschrift »Computerphilologie« (http://computerphilologie.uni-muenchen.de/). Ein Mitherausgeber dieser Zeitschrift, Fotis Jannidis, eröffnete den zweiten Tag mit einem Vortrag zu einer Hybridedition - also dem gleichzeitigen Erscheinen einer elektronischen und einer gedruckten Version - von Texten des jungen Johann Wolfgang von Goethe, die als CD-ROM und Buchausgabe publiziert werden wird. Die elektronische Version basiert auf dem proprietären Datenformat FolioViews, wird aber zudem auf dem stabilen Format TEI angeboten. Der innovative Aspekt der Ausgabe liegt vor allem in der umfangreichen Präsentation der Kontexte (Stoffe einzelner Werke, literarische Ausdrucksformen, Denk- und Lebenskonzepte, Gemeinschaftsprojekte, Briefe an Goethe und Goethe als literarische Figur), die ausschließlich auf der CD-ROM enthalten sind und »das semantische Spielmaterial der Zeit« repräsentieren sollen. Die versammelten Texte sind über die Angabe der Quelle auch zitierfähig. In den zumeist OCR-eingelesenen Texten kann über mehrere Suchmasken auch mit Hilfe der Boolschen Operatoren recherchiert werden. Für eine Hybridedition ist insofern zu plädieren, als sie die Vorteile beider Medien vereinigt (z. B. Lagerfähigkeit der [2/ S. 297:] Druckedition, leistungsfähige Retrievalfunktionen der elektronischen Publikation). Der Beitrag von Heinrich Schepers (Münster) und Tobias Ott (Tübingen) widmete sich der Edition der Schriften von Gottfried Wilhelm Leibniz der ab 1901 arbeitenden Akademieausgabe, die mit Verwendung des in Tübingen von Wilhelm Ott entwickelten Programms TUSTEP (Tübinger System von Textverarbeitungsprogrammen) als erste historisch-kritische Ausgabe im elektronischen Verfahren seit den 70er Jahren erarbeitet und gesetzt wurde. Schepers forderte, daß die elektronische Version dem Komplexitätsgrad der Druckversion gerecht werden müsse, und begründete die Qualität der Edition unter anderem in der Erschließungsdichte und -tiefe der Texte durch die Register, wodurch die Leistungsfähigkeit des Programms definiert würde. Mit TUSTEP ist es nicht nur möglich, aus einer einzigen Basisdatei eine offsetfertige Druckvorlage zu erstellen, sondern ebenfalls das Inhaltsverzeichnis, die Register und die Fußnoten automatisch zu erzeugen bzw. zuzuordnen. Die elektronische Fassung bildet den Seiten- und Zeilenfall ab, um den Text zitierbar zu halten, stellt die Überlieferung dar und läßt Varianten, Kommentare, Parallelstellen, Zitate usw. einblenden. Einzelne Textstellen sind über das Inhaltsverzeichnis, die Register und die Parallelstellen erreichbar. Daran anschließend demonstrierte Ott am Beispiel der Leibniz-Ausgabe die Übernahme einer Edition auf einen elektronischen Datenträger. Besonders zu beachten ist dabei, daß ein möglichst hoher Grad an Automatisierung erreicht werden sollte, um den Datenbestand ohne händische Eingriffe zu systematisieren. Auch müssen die Daten strukturiert - z. B. in SGML - aufbereitet sein, damit das Medium ohne aufwendige Nacharbeit gewechselt werden kann. Mit dem Critical Edition Typesetter (CET) präsentierte Bernt Karasch (Bochum) ein Programmsystem zum Satz textkritischer Editionen auf PCs. CET wurde für die Edition der »Summa« des Heinrich von Gent entwickelt und ist vorrangig für die Herausgabe von Texten mit Fußnotenreihen gedacht. Im Leistungsumfang enthalten sind unter anderem folgende Elemente: qualitativ hochwertiger Satz durch Verwendung des professionellen und bewährten Satzsystems TeX, automatische Bestimmung der Zeilennummern vor den Lemmata im kritischen Apparat und Erstellung von Wortindizes. Zukünftig soll Unicode unterstützt und SGML bzw. XML integriert werden. Eine automatische Kollationierung bleibt wohl vorerst problematisch. Manfred Koltes (Weimar) informierte über die Weimarer Regestausgabe der Briefe an Goethe, die ein Desiderat der germanistischen Forschung abdecken wird. Aufgrund der Fülle von nachgewiesenen Brie- [2/ S. 298:] fen wird statt einer Volltextedition die Methode des Regestierens angewandt. Für jeden Brief wird neben formalen Merkmalen ein kurze inhaltliche Zusammenfassung geboten, die gegebenenfalls durch Erläuterungen ergänzt wird. Der Zugang zu den publizierten Briefen wird durch ein Briefschreiberverzeichnis, ein Register der erwähnten Personen, ein Ortsregister und ein Register der Werke Goethes sowie ein allgemeines Werkregister erleichtert. EDV-gestützt erfolgt die Texterfassung und die Registererstellung. In der ersten Podiumsdiskussion wurde die Frage nach der Notwendigkeit einer neuen Editionswissenschaft angesichts von Hypermedia aufgeworfen. Unter der Moderation von Roland Kamzelak diskutierten Hans-Walter Gabler (München), Wilhelm Ott (Tübingen), Bodo Plachta (Osnabrück) und Michael Sperberg-McQueen. In der Debatte wurde deutlich, daß die Frage nach einer neuen Editionswissenschaft noch nicht relevant ist. Vielmehr sind vorerst eine Reihe von Einzelaspekten zu behandeln, die mit der vermehrten Publikation digitaler Ausgaben wichtig werden: z. B. Frage nach der Haltbarkeit der gegenwärtig eingesetzten technologischen Werkzeuge, Ausbildung der Editionspraktiker, verstärkte Berücksichtigung der Rezeptionsseite, Prüfung der erweiterten Recherchemöglichkeiten und Abklärung der Arbeitsteilung zwischen wissenschaftlichen und technologischen Aufgaben. Beachtet werden sollte ebenfalls, daß die EDV-Unterstützung nicht bloß neue Publikationsformen eröffnet, sondern ein wichtiges Instrument zur editorischen Arbeit darstellt (z. B. Feststellung von Varianten). Die zweite, von Friedrich Pfäfflin (Marbach) geleitete Diskussionsrunde ging unter der Beteiligung von Winfried Bader, Gunter Hille, Michael Kienecker (Paderborn), Elmar Mittler und Christina Volkmann (Cambridge) der Frage nach, ob das Verlagswesen durch ›selfpublishing‹ abgelöst werden wird. Eingangs wurde betont, daß der Markt sowohl für das traditionelle Verlagswesen als auch für innovative Formen des ›selfpublishing‹ ausreichend groß sei. Allerdings übernehmen die Autoren und Autorinnen zunehmend mehr Input-Aufgaben, die bis zur Gestaltung des Layouts führen. Im kulturwissenschaftlichen Bereich haben die Verlage ihre Aufgaben vor allem in der Kooperation mit der Forschung und in der Unterstützung von Großprojekten wahrzunehmen. Die Selbstveröffentlichung bietet für die Wissenschaft die Chance, im WWW aktiv zu werden, wobei das bibliothekarische Problem zu bedenken ist, Online-Publikationen dauerhaft zugänglich zu halten. Mit der dritten Podiumsdiskussion über Perspektiven für die Kulturspeicher der Zukunft wurde der letzte Tag des Arbeitsgespräches [2/ S. 299:] eröffnet. Moderiert von Ulrich Ott diskutierten Heinz Werner Kramski, Hans Liegmann (Frankfurt / Main), Hartmut Weber (Stuttgart) und Herbert Wender die mögliche Langzeitverfügbarkeit elektronischer Dokumente. Als Problemkatalog wurde vorgelegt: physischer Zerfall, keine Abwärtskompatibilität von Hard- und Software, Aufstieg und Niedergang von Produktlinien in kurzer Zeit, Vielfalt und Entwicklungsgeschwindigkeit von Datenformaten sowie Zeichencodes und geringe Lebensdauer von Dokumenten bzw. Servern. Derzeit werden drei Lösungsansätze diskutiert: die Migration, die einen sehr hohen Verwaltungsaufwand benötigt, die Emulation, die den Vorteil hat, daß einzelne Systemwechsel übersprungen werden können, allerdings auf ihre Wirtschaftlichkeit noch nicht geprüft wurde, und endlich die Konversion, die Übertragung der digitalen Information auf analoge Form. Die bisherige Erfahrung zeigte, daß nur analoge Medien als Langzeitspeicher geeignet erscheinen. Wichtig bleibt, zwei Grundsätze zu beachten, nämlich erstens, daß die Archivierung eine dauerhafte Benutzbarkeit einschließt, und zweitens, daß die Beteiligung an Standardisierungsvorgängen unerläßlich wird. In der Abschlußdiskussion wurden nochmals die drei Bereiche der Tagung akzentuiert: Edition, Publikation (Verlagswesen) und Archivierung. Von Verlagsseite wurde großes Interesse an den aufgezeigten Publikationsformen und -möglichkeiten artikuliert. Seitens des Marbacher Literaturarchivs hielt Ulrich Ott die wichtigsten Zukunftsaufgaben fest: die Einbeziehung elektronisch publizierter Literatur in die Sammelrichtlinien, die Erschließung digitaler Quellen aus den Nachlaßbeständen sowie die Sammlung verwendbarer Ergebnisse auf dem Sektor der elektronischen Archivierung. Innerhalb der Editionswissenschaft sind innovative Entwicklungsschübe zu erwarten. Um diese Effekte zu nutzen, sei es nötig, sich auf die Wechselwirkung mit der Softwareentwicklung einzulassen. Allgemeine Grundhaltung der Tagung war es, die vorgestellten und angesprochenen Projekte und die aufgezeigten Entwicklungslinien weiter verfolgen zu wollen. Unter anderem sollte dies auf einer Folgetagung geschehen, die in ungefähr zwei Jahren anzuberaumen wäre. Die einzelnen Beiträge und Diskussionen der Marbacher Tagung sind bereits zugänglich: Computergestützte Text-Edition. Hg. von Roland Kamzelak. Tübingen: Niemeyer 1999 (= Beihefte zu editio 12). Andreas Brandtner / Klaus Kastberger |
Printversion:
PURL dieser Datei: Metadaten zu dieser Datei: XML-Master dieser Datei: Datum XML-Master: PURL der zugrundeliegenden HTML-Datei: Aktuellste Version der zugrundeliegenden HTML-Datei: Metadaten zur zugrundeliegenden HTML-Datei: |
Sichtungen 2 (1999),
S. 295-299 http://purl.org/sichtungen/brandtner-a-11a-print.html http://purl.org/sichtungen/brandtner-a-11a-print.rdf http://purl.org/sichtungen/brandtner-a-11a.xml 2001-12-29 http://purl.org/sichtungen/brandtner-a-11a.html http://purl.org/sichtungen/brandtner-a-11 http://purl.org/sichtungen/brandtner-a-11a.rdf |
Copyright 2001-2002 by Sichtungen online
|