Bericht von der Tagung „Digital Scholarly Editions as Interfaces“ in Graz, 23.-24.9.16

Graz ist immer eine Reise wert. Seit es das Zentrum für Informationsmodellierung an der dortigen Universität gibt, ist fast umungänglich geworden mindestens einmal im Jahr dort vorbei zu schauen. Eine gute Gelegenheit dazu war die Tagung „Digital Scholarly Editions as Interfaces„, die vom 23. bis 24. September 2016 in Graz direkt vor der TEI Tagung in Wien stattfand. Mit über 100 Anmeldungen war die Tagung gut besucht und vor allem auf der Seite der Redner sehr international besetzt. Tagungssprache war Englisch. Gesponsert und auch organisiert wurde die Veranstaltung von dixit, dem „Digital Scholarly Editions Initial Training Network“. Ich erlaube mir im folgenden nur meine „persönlichen“ Highlights herauszupicken und näher zu besprechen. Das Niveau der Vorträge war insgesamt hoch und die Teilnahme auf jeden Fall ein Gewinn. Ich bin schon gespannt, welche Veranstaltung mich als nächstes nach Graz lockt.

Die Tagung begann mit einer Keynote von Dot Porter (University of Pennsylvania), die sich ganz grundsätzlich mit der Frage: „What is an Edition anyway? A critical examination of Digital Editions since 2002“ beschäftigte. Im Mittelpunkt ihres Vortrags standen mehrere Umfragen, die sie seit Anfang der 2000er Jahre in der DH community durchführt und die sich mit der Verwendung von digitalen Editionen durch Wissenschaftlerinnen und Wissenschaftler beschäftigen. Zentral ist dabei die Unterscheidung zwischen digitalisierten und digitalen Editionen, also den „nur“ in digitalem Format angebotenen gedruckten Editionen und den ohne Druckvorlage, rein digital erstellen Editionen. Die neueste Umfrage unter Mediaevisten im September 2016 erbrachte die folgende, interessante Nutzerstatistik:

Repräsentativ oder nicht, die Statistik weist zumindest auf einen hohen Anteil der Nutzung von digitalisierten und gedruckten Editionen bei solchen Personen hin, die häufig oder dauernd diese Textsorte verwenden. Damit bleibt die rein digitale Edition weiterhin ein Experimentierfeld, in dem sich erst noch Standards herausbilden und etablieren müssen. Dazu trägt sicher die Zeitschrift ride (Review Journal for digital Editions and Ressources) bei, das seit einigen Jahren versucht Standards in diesem Bereich zu schaffen.

Schon in diesem ersten Beitrag wurde am Ende eine Dichotomie zwischen Interface und Text postuliert, die im Anschluss in einer Reihe von Beiträgen wieder aufgenommen wurde. Interface over Text oder Text over Interface – diese Frage nahmen einige Vorträge gerne wieder auf und gaben ihre subjektive Antwort.

In den nun folgenden Sessions des ersten Tages fielen eine Reihe von Vorträgen wg. kurzfristiger Absagen aus, so dass eine intensive Diskussion der übrigen Beiträge möglich wurde. Eugene W. Lyman (Independent Scholar) wies die Teilnehmer auf die Relevanz von Verläßlichkeit bei Editionen, seien sie digital oder analog, hin. Dies würde, bei einer Konzentration auf Interfaces, leider schnell übersehen (Digital Scholarly Editions and the Affordances of Reliability). Christopher M. Ohge (University of California, Berkeley) stellte dann die erste konkrete Edition, die Notizbücher von Mark Twain, vor (http://www.marktwainproject.org/). Sein Vortrag war mit „Navigating Readability and Reliability in Digital Documentary Editions“ überschrieben und so nahm somit die oben gestellte Frage nach Interface und Verläßlichkeit des Texts auf. Die folgenden Vorträge wandten sich Themen der Visualierung, Typhographie und des Designs von Digitalen Editionen zu und dieser Komplex wurde abgerundet durch eine Keynote von Stan Ruecker (ITT Institute of Design, Chicago), die den ersten Tag beschloss. Es ist ein Verdienst der Tagung, dass konkret Designer eingeladen wurden (auch wenn am Ende nur wenige anwesend waren) und ihre Perspektive auf Digitale Editionen mitteilen konnten. Nur allzu oft bleibt dieser Aspekt aus Kostengründen oder Ignoranz bei wissenschaftlichen Editionen unberücksichtigt – mit den uns allen bekannten Folgen und Effekten. In diesem Zusammenhang wurden auch agile Methoden bei Design und Software-Entwicklung vorgestellt – inzwischen Standards im freiberuflichen Feld, aber bei weitem noch nicht Standard in den Geisteswissenschaften und den Digital Humanities.

Der zweite Tag begann mit einer „Nerd-Session“, in der mehr technische Fragen der Programmierung und Entwicklung von Interfaces für Digitale Editionen thematisiert wurden. Hugh Cayless (Duke University Libraries) startete mit einem Vortrag über
„Critical Editions and the Data Model as Interface“, in dem er eine Edition von lateinischen Texten vorstellte, die nicht auf TEI und XSLT Transformationen beruht, sondern über Javascript verschiedene Sichten auf Text ermöglicht. Seine Slides und eine Demo sind unter https://goo.gl/q7kbY0 abrufbar. Chiara Di Pietro (University of Pisa) und Roberto Rosselli Del Turco (University of Turin) sprachen anschliessend über „Between innovation and conservation: the narrow path of UI design for the Digital Scholarly Edition“ und stellten dabei die Version 2.0. des bekannten EVT-Editionstools vor.

Der dritte talk der Session ist mein persönlicher Spitzenreiter der Tagung.
Jeffrey C. Witt (Loyola University Maryland) sprach nicht nur kompetent sondern auch sehr anschaulich über „Digital Scholarly Editions as API Consuming Applications“ und stellte verschiedene LOD-Lösungen vor, die unter Einbeziehung des IIIF Standards ganz neue Möglichkeiten der Integration und Präsentation von Daten ermöglichen. Sein Vortrag und viele Beispiele finden sich auf http://lombardpress.org/. Ich sehe hier in der Tat eine wichtige Perspektive für die Zukunft der digitalen Editionen, die ja auch im MEDEA Projekt (modelling semantically enriched editions of accounts) anklingt, das leider auf der Tagung nicht vorgestellt wurde, aber dessen Protagonisten anwesend waren.

Die weitere Talks des zweiten Tages widmeten sich theortischen Implikationen und nahmen die Frage der Dichotomie von Interface und Edition wieder auf. Peter Robinson (University of Saskatchewan) schlug sich dabei ganz auf die Seite der Editionen (Why Interfaces Do Not and Should Not Matter for Scholarly Digital Editions), während Tara Andrews (Univ. Wien) und Joris van Zundert (Huygens Institute for the History of The Netherlands) die Seite der Intefaces mit einem Beitrag über das „Interface als Integrales Elements des Arguments einer Edition“ stark machten. Der Nachmittag war den anwenderorientierten Lösungen gewidment und es wurden Themen wie user-centred design und co-creation Ansätze diskutiert. Die Liste der Beiträge und ein Abstraktheft ist auf den Seiten des Grazer Instituts für Informationsmodellierung abrufbar. Im Fazit war dies eine Tagung, die die weite Anreise gelohnt hat und, wie schon oben erwähnt, Lust auf die nächste Reise nach Graz macht, zum Beispiel zur Digital Libraries Tagung 2017, die vom 2.-3. März 2017 ebendort stattfinden wird und deren CFP just gestern abgelaufen ist.

Jörg Wettlaufer, Göttingen

Tagungsbericht: Workshop Electronic Editions, Göttingen, 8.-9.1.2015

Der von Norbert Schappacher (Strassburg), Moritz Epple (Frankfurt) und Helmut Rohlfing (Göttingen) organisierte Workshop entstand aus einer Initiative der Kommission für Mathematikernachlässe der Göttinger Akademie der Wissenschaften. Vier Projekte wurden an zwei Tagen vorgestellt und intensiv diskutiert: Das Newton Projekt an der Univ. von Sussex, Blumenbach-online aus Göttingen, das Projekt ENCCRE zur D’Alembert Edition des Dictionaire raisonné aus Frankreich und die Arnold Sommerfeld Edition an der LMU München. Durch diese großzügige Zeitplanung war es möglich, den Workshop wirklich interaktiv mit dem (zahlreich vorhandenen) Publikum durchzuführen und die einzelnen Projekte intensiv zu diskutieren. Entsprechend lebhaft fiel auch die Schlußdiskussion aus, die Dirk Wintergrün vom MPI für Wissenschaftsgeschichte einleitete. Es ist geplant, die Folien der Vorträge online zu stellen. Da dies aber vermutlich noch etwas dauern wird, möchte ich im Folgenden schon jetzt (knapp) meine Eindrücke vor allem hinsichtlich der Schlussdiskussion und den Ergebnissen der Tagung formulieren.
Übergreifend wurde die Sorge artikuliert, dass die digitalen Editionsprojekte (im speziellen und allgemeinen) nicht langfristig für die Forschung zur Verfügung stehen könnten. Dies wurde vor allem mit technischen (weiter-)Entwicklungen begründet, die eine ständige Pflege der Edition voraussetzt. Lösungen wurden vor allem in der institutionellen Anbindungen von Projekten gesehen sowie der Bereitstellung der Daten über Geisteswissenschaftliche Datenzentren (z.B. DCH in Köln und HDC in Göttingen/Berlin). Trotzdem kreiste die Diskussion in weiten Teilen um die Frage, wie eine längerfristige Verfügbarkeit am ehesten zu erreichen sein. Konsens fand die Formel „je einfacher desto besser“, aber schon bei der Frage, ob sich dies nun auf das User Interface oder auch auf die dahinter stehende Technik beziehen sollte, schieden sich die Geister wieder. Zeitgemäße Suchindizes, ein zentraler Vorteil digitaler Edition im Vergleich zu ihren analogen Pendants, greifen auf eine Vielzahl von Technologien zurück, die andauernder Pflege bedürfen. Verschiedene Sichten auf den Text bedürfen in der Regel Transformationen, die im Falle von XML sicher als technisch relativ robust bezeichnet werden können. Trotzdem dürfte es sich als schwierig erweisen, anspruchsvolle und vor allem optisch ansprechende Editionen längerfristig zur Verfügung zu stellen, zumal die notwendige Dokumentation sowie die zum Verständnis der Datenbanklogik notwendigen Fachkenntnisse der Editoren oder technischen Betreuer natürlich endlich ist, ganz abgesehen einmal von DFG geförderten Projekten, bei denen zwar heute eine institutionelle Anbindung nachgewiesen werden muss, deren Belastbarkeit im Einzelfall aber sicher genauer zu betrachten wäre. Die Problematik von „Altprojekten“ ist dabei erst einmal außen vor. Zwar macht das Beispiel der Arnold Sommerfeld Edition, die an der LMU in München am Lehrstuhl für Geschichte der Naturwissenschaften gehostet wird und seit Ende der 90er Jahre verfügbar ist, etwas Mut, allerdings kommen hier die schon erwähnten Abstriche bei der Benutzerfreundlichkeit bzw. der Benutzbarkeit überhaupt voll zum tragen. Eine Migration in ein Datenzentrum würde aber auch Auswirkungen auf das zweite Kardinalproblem der digitalen Editionen, der Referenzierbarkeit (als Ganzes und in Teilen) und der Zitierbarkeit, haben. Die existierenden Lösungen (z.B. URN) werden bislang kaum angewendet, vielleicht auch weil die parallele Existenz verschiedener Identifiersysteme selber noch nicht wirklich vertrauenserweckend ist.
Zentral für eine informationstechnologisches Angebot ist und bleibt die konsequente Verwendung von Standards. Nach der einfachen Regel „je weniger unterschiedliche Standards desto mehr Effizienz bei der Erstellung von Pflege der Editionen“ könnte man im Rahmen der Forschungsdatenzzentren versuchen, den Editionen einen dauerhaften Ort zu verschaffen. Ob virtuelle Maschinen, die versuchen den letzten Bearbeitungsstand der Edition im Sinne eines Snapshot einzufangen und zu konservieren dabei behilflich sein könnten, wurde kontrovers gesehen. Natürlich verlagert sich die Problematik der Softwarepflege nur eine Schicht nach innen. Der große Vorteil eines solches Ansatzes wäre es aber, die Editionen physisch an einem Ort vorliegen zu haben und kuratieren zu können. Außerdem hätten wir dann digitale Objekte, die man ähnlich wie gedruckte Bücher im Rahmen digitaler Bibliotheken behandeln und in die vorhandenen Nachweissysteme einbinden könnte. Die Buchindustrie hat bislang leider kein Interesse an interaktiven Ebook-Formaten gezeigt. Bei der konsequenten Bereitstellung der Daten als Linked Data wäre zwar die Frage der Zugänglichkeit gelöst, aber die digitalen Editionen wären ihrer Funktionslogiken beraubt und würden auf einfache XML-Strukturen ohne das entsprechende Rendering zurückfallen. Der TEI Standard hat hier bekanntlich bislang nicht zur einer Lösung sondern vielmehr zu einer Verschärfung des Problems geführt. Gäbe es eine allgemeingültige Auszeichnungspraxis – wie einfach wäre der Aufbau eines Repositoriums digitaler Editionen…
Mehrfach wurde in der Diskussion die unterschiedliche Perspektive von Nutzer und Editor angesprochen. Bei den Projektvorstellungen wurde deutlich, wie weit die Vorstellungen hier auseinandergehen. Im Newton-Projekt war immer der größtmögliche Outreach geplant. Blumenbach-online konzipiert seine Edition der Schriften und Sammlungen Blumenbachs jedoch eher für ein wissenschaftshistorisches Fachpublikum, während ENCCRE ebenfalls auf eine breite Rezeption setzt. Ich meine, man sollte bei digitalen Editionen eher mit einem heterogenen Publikum rechnen, denn das Medium Internet bringt einfach ein sehr breites Rezeptionspotential mit sich. Jedenfalls schadet eine didaktisch aufbereitete Präsentation von Autor und Text sicher in keinem denkbaren Nutzungsszenario.
Der außerordentlich gut besuchte Workshop erlaubte durch sein Format und die gehaltvollen Projektpräsentationen einen intensiven Austausch der Wissenschaftshistorikerinnen und -Historiker untereinander, aber auch mit Informatikern und Bibliothekaren. Digitale Editionen sind und bleiben eine besondere Herausforderung und müssen ihr Verhältnis zur gedruckten Edition in Zukunft noch weiter schärfen und vielleicht auch Teilaspekte stärker integrieren, um die Vorteile beider Medienformen optimal zu bündeln.

Donnerstag, 8. January 2015
14:00 – 14:30 Opening by the organizers
14:30 – 16:10 The Newton Project, presented by Robert Iliffe, Michael Hawkins, Cornelis J. Schilt
16:40 – 18:20 Blumenbach-online, presented by Claudia Kroke, Wolfgang Böker, Alexander Gehler
Friday, 9 January 2015
09:00 – 10:40 ENCCRE and the D’Alembert Edition, presented by Irène Passeron, Alxandre Guilbaud, Vincent Barrelon
11:05 – 12:45 The Sommerfeld Edition, presented by Michael Eckert, Karl Märker
14:00 – 16:00 Final discussion opened by Dirk Wintergrün (Head IT group, MPIWG, Berlin)