Bericht DHd 2018 Köln „Kritik der digitalen Vernunft“, 26.2.-2.3. #dhd2018

Print Friendly, PDF & Email

Köln ist eine schöne Stadt! Und wenn die Jahrestagung des Vereins Digital Humanities im deutschsprachigen Raum dort stattfindet, ist sie noch schöner! Eine Woche lange stand die Kölner Universität im Zeichen des Themas „Kritik der Digitalen Vernunft„. Über 600 Teilnehmerinnen und Teilnehmer aus der Schweiz, Österreich und Deutschland waren zusammengekommen. Viele ließen sich auch von der grassierenden Grippewelle nicht abhalten… und wurden mit einer insgesamt perfekt organisierten Tagung belohnt, die nicht nur bei der Teilnehmerzahl sondern auch im Abendprogramm neue Maßstäbe setzte. Aber dazu später.

http://dhd2018.uni-koeln.de/wp-content/uploads/dhd2018_logo.png

Der DHd Verein ist noch verhältnismäßig jung. Um so bemerkenswerter ist der stete Zuspruch, den die Digital Humanities bislang erhalten. Die Mitgliederzahl des Vereins ist inzwischen auf über 300 Personen gestiegen und es gibt eine Vielzahl von Arbeitsgruppen, die tatsächlich auch etwas arbeiten. In wiss. Vereinen ist das nicht immer selbstverständlich. Die Tagung begann am Montag Mittag mit Workshops. Am Dienstag abend begann mit einem Vortrag von Sybille Krämer (Berlin) das Hauptprogramm. Sie sprach über den „Stachel des Digitalenein Anreiz zur Selbstreflektion in den Geisteswissenschaften?“. Generalthema und Keynotes der Tagung waren nicht zufällig philosophisch angehaucht: Lokaler Organisator war Andreas Speer, seit 2004 Professor der Philosophie an der Universität zu Köln und Direktor des dortigen Thomas-Instituts. Tatkräftig unterstützt wurde er von Patrick Sahle und dem gesamten Team des CCeH. Auch die Abschlußkeynote am Freitagnachmittag von Michael Sperberg-McQueen, einem Urgestein der digitalen Geisteswissenschaften, stieß mit „Kritik der digitalen Vernunft“ in das selbe kantianische Horn. Dazwischen lagen drei ereignisreiche Tage, deren über 60 Vorträge sich in vier parallelen Sessions über die Zuhörer ergossen.

Man kann nur berichten, was man gehört und gesehen hat, also beschränke ich mich schon aus praktischen Gründen darauf. Verschweigen will ich aber auch nicht, was ich gefühlt habe (tagsüber, in den Hörsälen): nämlich Kälte! Nun wird es am Niederrhein bekanntlich nie wirklich kalt (ausser in dieser Woche eben), aber falls es zutreffen sollte, dass das Hörsaalgebäude tatsächlich nicht über eine Heizungsanlage verfügt, dann kann daran nur der Kölner Klüngel Schuld sein, denn ansonsten machten mir die Kölner insgesamt einen recht vernünftigen, ja lebensfrohen Eindruck. Unerklärlich hingegen bleibt die wohl absichtliche Verweigerung von Strom und Steckdosen bei den vorgeschalteten Workshops. Ich selber musste einen sehr spannenden (und leider etwas zu klein geplanten, da sehr nachgefragten) Workshop zu wikidata im Übungsteil abbrechen, da meinem inzwischen betagten Notebook der Saft ausging. Und es ging mir nicht alleine so! Am bemerkenswertesten war aber die Begründung, die uns im ersten Workshop am Montag „Suche und Visualisierung von Annotationen historischer Korpora mit ANNIS“ mit Carolin Odebrecht und KollegInnen mitgeteilt wurde: die Universität zu Köln wolle keine Stromanschlüsse zur Verfügung stellen, da dies den Stromverbrauch ungebührlich erhöhen würde…. Wenn die Univerwaltung tatsächlich so argumentierte, dann würde sich hier doch in einzigartiger Weise ein für die Region Niederrhein untypischer Geiz mit Unvernunft paaren (denn ökologische Argumente können wir wohl ausschließen). Der Tagungsleitung und dem Organisationsteam ist dieser Schildbürgerstreich nicht anzulasten – vielmehr liegt hier das Problem wie so häufig bei der Verwaltung der Universitäten, und zwar vermutlich (hoffentlich) in den unteren Etagen…

Nun zum Inhalt. Der dritte Workshop, den ich besuchte, war dem Thema „Research Software Engineering und Digital Humanities“ gewidmet. Mit über hundert TeilnehmerInnen war das schon eine größere Veranstaltung und es war sicher klug, sich für die Diskussionen in Untergruppen aufzuteilen. Erst kürzlich hat sich eine Gruppe fächerübergreifend zu diesem Thema gegründet: de-RSE.org, die von Stefan Janosch (MPI-CBG) vorgestellt wurde. Insgesamt ist eine Diskussion über die Professionalisierung  der Softwareentwicklung in den DH sehr zu begrüßen, eben weil dies nicht zur originären Ausbildung von GeisteswissenschaftlerInnen gehört. Bei den Vorträgen und Panels gab es wie immer Licht und Schatten, obwohl mir das Niveau insgesamt diesmal erfreulich hoch erschien. Ich wende mich mal dem überwiegenden Licht zu. Da sind zunächst die Tracks, die sich durch das Programm zogen und strukturierten: Sitzungen zu Visualisierung, Theorie der digitalen Geisteswissenschaften, Textmining, Sammlungsdigitalisierung, Digitale Literaturwissenschaft, Computer Vision, Digitale Rekonstruktion, Sentimentanalyse, Softwareentwicklung, Annotation, Semantische Analyse sowie Panels zu Historischen Grundwissenschaften, Sprachanalyse, Wissenschaftsorganisation und Forschungsdaten. Zusammen boten sie ein breites Bild der aktuellen Forschungslandschaft und ermöglichten, sich spezifischen Interessengebieten zuzuwenden. Besonders am Herzen lagen mir die Panels zu Forschungsdaten. Das eine von DARIAH/CLARIN , das andere von der AG Datenzentren ausgerichtet. Beide fanden nacheinander am Donnerstagnachmittag statt und waren gute besucht. DARIAH/CLARIN hatte sich als Thema „Gute Forschungsdaten, bessere Forschung: wie Forschung durch
Forschungsdatenmanagement  unterstützt wird“ gewählt und das Datenzentrumspanel, organisiert von Katrin Moeller (Halle-Wittenberg) stand ganz im Zeichen der Frage nach den Standards und ihrer Einbettung in die Fachwissenschaften „Die Summe geisteswissenschaftlicher Methoden? Fachspezifisches Datenmanagement als Voraussetzung zukunftsorientierten Forschens“. Im Zuge des NFDI Prozesses zur Schaffung einer Nationalen Forschungsdateninfrastruktur legen sich alle Beteiligten zurzeit mächtig ins Zeug, um Teil einer föderierten Struktur zu werden. Die Forschungsinfrastrukturen und Datenzentren zeigen sich dazu gut gerüstet.

Besonders spannend fand ich persönlich den Vortrag „Das neue ‚Gesetz zur Angleichung des Urheberrechts an die aktuellen Erfordernisse der Wissensgesellschaft‘ und seine Auswirkungen für Digital Humanities“ am Donnerstag Vormittag. Just am 1.3. trat das neue Gesetz in Kraft und so war dieser Beitrag zum einen hochaktuell und zugleich sehr informativ.

Vielleicht hätte es gelohnt, etwas ausführlicher zu diskutieren, wie sich die Politik eine digitale Nutzung von Werken (keine Veröffentlichung!) für die eigene! wissenschaftliche Forschung im Umfang von bis zu 75% vorstellt. Sollen wir in Zukunft die letzten 25% eines Werkes einfach nicht mehr rezipieren? Oder vielleicht am Ende eines Textes nur noch Lore ipsum Seiten drucken, um diese unsinnige Bestimmung auszuhebeln? Insgesamt sind das Gesetz und die Wissenschaftsschranke sicher ein Schritt in die richtige Richtung, aber gut gemeint ist bekanntlich nicht immer ausreichend. So wird es jedenfalls nichts mit der exzellenten Forschung im internationalen Vergleich in Deutschland. Da schaffen wir maximal 75% Exzellenz!

„Data Models for Digital Editions: Complex XML versus Graph Structures“, so lautete ein Vortrag von Daniel Bruder und Simone Teufel, der ein wichtiges Problem in den DH adressierte, dem meiner Meinung nach zu wenig Aufmerksamkeit geschenkt wird. XML aus Auszeichnungssprache mit ihrem streng hierarchischen Baum wird in manchen Fällen der Komplexität geisteswissenschaftlicher Beschreibungstiefe nicht gerecht. Andere, z.B. Graph- bzw. RDF basierte Formen könnten langfristig besser geeignet sein, tiefe Annotation – vielleicht ja sogar über eine gemeinsame ontologische Basis(?) – zu repräsentieren. Posterslam und Postersession sind inzwischen etablierte Präsentationsformen auch in den Geisteswissenschaften. Ihnen war der Donnerstagnachmittag gewidmet, der mit einem Empfang schloss, bei dem man die Poster anschauen und diskutieren konnte. Kulturelles Highlight war aber sicher der für Mittwochabend angesetzte Fightclub, in dem vier prominente „KontrahentInnen“ (Henning Lobin, Heike Zinsmeister, Hubertus Kohle, Mareike König) mit Gedichten und coolen Sprüchen gegeneinander antraten und für eine gelungene Mischung aus Unterhaltung und Reflektion über das eigene Tun sorgten. Anschliessend wurde bis tief in die Nacht getanzt… Mehr dazu auf Twitter, immer unter dem Hashtag #dhd2018.

Bleibt der Blick in die Zukunft. Die nächste DHd  findet 2019 in Mainz und Frankfurt statt, also gar nicht so weit vom diesjährigen Austragungsort. Die Latte hängt hoch, aber die  nächsten Gastgeber sind gut gerüstet für diese Aufgabe und haben schon ein Boot organisiert, um die TeilnehmerInnen sicher und stilvoll von einem Ort an den anderen zu bringen….

Bericht von der Tagung #dhnord2017 in Lille, 27.-29.11.2017 über #digitalhistory

Print Friendly, PDF & Email

Im Rahmen einer „Tournée“ von drei Tagungen/workshops in Frankreich habe ich am 27. November am ersten Tag der #dhnord Tagung in Lille teilgenommen. Diese Tagung wurde vom MESHS organisiert und beschäftigte sich mit dem Thema „Digitale Geschichte“: (De)constructing Digital History. (Programm als PDF)

In Kooperation mit dem Luxembourg Centre for Contemporary and Digital History (C2DH) und durchaus international ausgerichtet bot sich an diesem ersten Tag die Möglichkeit, etwas genauer über den aktuellen Ort der Digitalen Geschichtswissenschaft zwischen Digital Humanities und der Fachdisziplin Geschichtswissenschaft nachzudenken. Andreas Fickers vom C2DH führte in das Thema der Tagung mit einem Vortrag zu „Digital History: On the heuristic potential of thinkering“ ein. Zunächst stellte er fest, dass Geschichtswissenschaft heute schon digital sei, wir also nur noch über Grad und hermeneutische Konsequenzen dieser Digitalisierung sprechen müssen. Er forderte explizit die Einführung von „digital hermeneutics“ in die Geschichtswissenschaft als Teil der Ausbildung. Unter digital hermeneutics versteht er dabei „the critical and self reflexive use of digital tools and technologies for the development of new research questions“. Er forderte zur Dekonstruktion des Wahrheitsbegriffs in der Geschichtswissenschaft auf und wies auf die Fiktion von Neutralität beim Schreiben von Geschichte hin. Weitere relevante Begriffspaar in diesem Zusammenhang waren für ihn „statistical evidence and historical relevance“ sowie die Spannung zwischen Verstehen und Erklären. Von digital arbeitenden HistorikerInnen forderte er Interdisziplinarität und „multimodal literacy“ sowie die Fähigkeit zur Kritik von Algorithmen, Werkzeugen, Schnittstellen und digitalen Quellen. Methodisch sprach er sich für einen spielerischen Ansatz im Umgang mit den Werkzeugen und Methoden der DH aus: Thinkering (Erkki Huhtamo) sei die passende Herangehensweise, die auch in Luxemburg unter Einsatz von lab diaries, reflexive reports sowie Audio- und Video Essays erprobt werde. Am Ende seines Beitrags fragte er nach „De-constructing oder Re-coding“ und stellte eine Reihe von kritischen Fragen hinsichtlich der heutigen Praxis in der digitalen Geschichtswissenschaft und in den DH:

Zudem benannte er zwei Hauptprobleme bei der Verwendung von digitalen Werkzeugen oder Methoden in der historischen Forschung:

1. Die Gefahr des Fehlens von Originalität bei der Forschungsfrage (danger of lack of originality in questioning the past)

2. Die Gefahr der Unterkomplexität bei der Problematisierung von vergangenen Realitäten (danger of lack of complexity in problematizing past realities)

Schliesslich wies er auf das vor kurzem veröffentlichte White Paper „Digital History and Argument“ hin, dass aus einer Tagung am Roy Rosenzweig Centre for History and New Media (kollaborativ) entstanden ist und einen Dialog zwischen digitaler und konventioneller Geschichtswissenschaft bzw. Methodik versucht. Der dort formulierte Eindruck „…there is a widespread sense that digital history has over-promised and under-delivered in terms of its interpretative contribution back to the discipline.“ (S. 2) ist sicher auch in Europa zutreffend und sollte in Zukunft stärker thematisiert werden.

Im Programm der Tagung wurde anschliessend die Keynote von Manfred Thaller „Distrustful Brothers 2.0 – On the relationship of quantitative history and ‚digital‘ history“ vorgezogen, in der es um die Beziehung zwischen der quantitativen Methode, wie sie in den 70er Jahren z.B. von der Bielefelder Schule praktiziert wurde, und digitaler Geistes- bzw. Geschichtswissenschaft ging. Wer Thallers Sicht der auf diese Beziehung und die Entwicklung dieses gesamten Felds in den letzten 40 Jahren nachlesen will, kann dies inzwischen in seiner Autobiographie tun, die vor kurzem in einem Sonderheft von Historical Social Research (HSR) erschien. Das ironische, zuweilen auch sarkastische Moment dieses Rückblicks war auch im Vortrag zu spüren, als er zusammenfassend seine Sicht auf diese Zeitspanne mit einem Vergleich zu dem bekannten Film „Und täglich grüßt das Murmeltier“ umschrieb. Immerhin sagte er mir im persönlichen Gespräch, dass es sich womöglich doch um eine Spirale und keinen Kreis handele, in dem sich die Entwicklung der „Digital Humanities“ seit ihrer institutionellen Begründung in den 60er Jahren bewege. In diesem Zusammenhang räumte er in seinem Vortrag auch gründlich mit dem Gründungsmythos auf, die Digital Humanities seien erst Anfang der 2000er Jahre entstanden und versuchte eine längere Traditionslinie bis hin zu dem vielzitierten Pater Busa zu etablieren, die auch die Entwicklungen ab den 60er Jahren stärker berücksichtigt.

Sein Fazit zur heutigen Situation der Digital Humanities fiel dagegen weniger kontrovers und fast zuversichtlich aus, obwohl er sich inzwischen selber nicht mehr den digitalen Geisteswissenschaften in ihrer heutigen Ausprägung zurechnen würde. Er betonte vielmehr die finaziellen Interessen und Ressourcen, die bei der Entwicklung des gesamten Bereichs und auch der Digitalen Geschichtswissenschaft heute eine Rolle spielen. Also eigentlich keine schlechten Voraussetzungen für die weitere Entwicklung…

Über die vier folgenden Beiträge in zwei Sitzungen (geleitet von Mareike König und Andreas Fickers) zu „Digital History in Context“ und „Time and Space of Digital History“, die teilweise die schon angedeutete Situation in den USA expemplifizierten (Mokhiber) oder ein interessantes Projekt der digitalen Kunstgeschichte (van den Heuvel) vorstellten, gehe ich in der Hoffnung, dass die entsprechenden Slides bald online gestellt werden, etwas weniger ausführlich hinweg. Erwähnen zum Schluss möchte ich nur kurz die zweite Keynote des Tages von Bertrand Jouve zu einem Thema der angewandten Netzwerkanalyse in der Mediävistik: „Modelisation of hierarchical organization of rural medieval society“.

Jouve war als Mathematiker sichtlich bemüht, dem Publikum das Projekt von seiner netzwerktheoretischen Seite Nahe zu bringen. Allein es waren mehr HistorikerInnen als MathematikerInnen im Raum, so dass sich mir der Eindruck aufdrängte, dass wir es hier mit einem Problem von „technical solutionism“ zu tun hatten, wie er kurz zuvor von Andreas Fickers beschrieben worden war. Das Thema und die Methodik liegen unbestreitbar im Zentrum der Digitalen Geschichtswissenschaft. Aber es stellt sich wie so oft bei gleichberechtigt interdisziplinären Kooperationen oder Themen die Frage, welches Zielpublikum am Ende angesprochen werden soll bzw. kann. Vielleicht hätte das Thema nicht nur gemeinsam erforscht, sondern auch gemeinsam präsentiert werden sollen? So war zumindest mein Eindruck zu diesem Projekt, dass ich sehr spannend finde und von dem ich auch aus historischer Perspektive gerne noch mehr erfahren würde.

Leider musste ich diesen Vortrag kurz vor Ende aus Termingründen verlassen, so dass ich über die folgende Diskussion und die Präsentation der Doktorandenausbildung am Luxemburger C2DH nicht berichten kann. Das mögen andere, die der gesamten Tagung und evtl. auch dem Nodegoat workshop am Mittwoch folgen konnten, vielleicht an anderer Stelle nachholen.

 

 

PANDORA LOD Ecosystem auf der semweb.pro Tagung in Paris am 22.11.2017

Print Friendly, PDF & Email

Das PANDORA LOD Framework von Christopher Johnson @cjohnson39, wird von Christopher und mir @joewett das nächste mal auf der SemWeb.Pro Tagung (#semwebpro) in Paris am 22. November 2017 vorgestellt. PANDORA selber sowie Infos zu dem Projekt gibt es unter https://github.com/pan-dora . Die Tagung findet im FIAP Jean Monnet, 30 rue Cabanis, 75014 Paris statt. Der Vortrag beginnt um 16:15 h und wird sportliche 15 Minuten dauern.

1. Digital-Humanities-Stammtisch 2017 am 27. Februar im Apex/Göttingen

Print Friendly, PDF & Email

Am 27.02.17 um 20.00 Uhr im Apex findet der 1. DH-Stammtisch 2017 (in lockerer Fortsetzung des früheren Webmontag) statt. Wie der Stammtisch auf lange Sicht gestalten werden soll – als reines Vernetzungstreffen oder themenbezogen mit Schwerpunkten aus der IT, Sicherheit, Open-Source-Tools, geistes- und sozialwissenschaftlichen Fragestellungen – soll auf diesem ersten Treffen besprochen werden! Alle sind herzlich eingeladen.

Bei Interesse bitte Eintrag unter: http://doodle.com/poll/ccaawe24tc6hhkkm. Rückfragen können an: franziska.pannach@stud.uni-goettingen.de gestellt werden.

PANDORA: [Presentation (of) ANnotations (in a) Digital Object Repository Architecture] – a video

Print Friendly, PDF & Email

Christopher Johnson has composed a video about the PANDORA Architecture for the SWIB2016 conference. It is now available at youtube:

Abstract from SWIB program 2016: „The IIIF Presentation API specifies a web service that returns JSON-LD structured documents that together describe the structure and layout of a digitized object or other collection of images and related content.“ IIIF website The dynamic serialization of IIIF JSON-LD structured manifests via SPARQL CONSTRUCT is an interesting possibility that has great potential for cross-domain discovery and rendering of digitized objects with variable criteria. I have explored this possibility by implementing a data model in the Fedora Commons Repository that matches the specifications of the IIIF Presentation API. Fedora has the facility to index objects via Apache Camel directly to a triplestore. With SPARQL CONSTRUCT, the triplestore can serialize normalized JSON-LD as a graph. The use of „ordered lists“ (aka collections) is a fundamental component of JSON-LD and necessary feature of the IIIF manifest sequence which is represented in a canonical RDF graph as a cascade of blank nodes. In order to dynamically create the sequence with SPARQL requires that the data is modelled identically to the IIIF specification. This gist is a representation of a compacted and framed JSON-LD graph that was serialized from a SPARQL query of Fedora metadata. The ability to assemble parts of distinct, disparate and disassociated digital objects on demand in one cohesive presentation becomes a real possibility. For example, the „range“ object is equivalent to a part of a sequence, like a chapter in a book. With SPARQL, it is possible to target ranges from different „editions“ based on a metadata specification (i.e. a person, place, or date) and unify them in a manifest object which is then rendered by a client viewer like OpenSeadragon.

Workshop: Digital Humanities and Social Media. @ „The Maghreb in Transition“, Tunis, 18.-19.11.2016

Print Friendly, PDF & Email

Digital Humanities have developed over the last 10 years to a major methodological approach in the humanities. Building on humanities computing, DH has built an independent infrastructure within the humanities and now reaches back into several disciplines, including literature, history, history of art and social and political sciences. By stressing the quantitative approach to data and using statistical methods DH has contributed in various ways to bring up new hypothesis for old questions and revived the discussion about the place of humanities in science and
society. This workshop gives and introduction into the aims and methods of
digital humanities and addresses questions of power shifts during the digital
transition of the humanities as well as the role of social media in that
process.

Some impressions from the workshop:

_dsc5269

_dsc5011

For the pics thanks to Driss!

For more information see:

https://maghrebitransition.wordpress.com/2016/11/04/announcement-of-our-workshop-digital-humanities/

Bericht von der Tagung „Digital Scholarly Editions as Interfaces“ in Graz, 23.-24.9.16

Print Friendly, PDF & Email

Graz ist immer eine Reise wert. Seit es das Zentrum für Informationsmodellierung an der dortigen Universität gibt, ist fast umungänglich geworden mindestens einmal im Jahr dort vorbei zu schauen. Eine gute Gelegenheit dazu war die Tagung „Digital Scholarly Editions as Interfaces„, die vom 23. bis 24. September 2016 in Graz direkt vor der TEI Tagung in Wien stattfand. Mit über 100 Anmeldungen war die Tagung gut besucht und vor allem auf der Seite der Redner sehr international besetzt. Tagungssprache war Englisch. Gesponsert und auch organisiert wurde die Veranstaltung von dixit, dem „Digital Scholarly Editions Initial Training Network“. Ich erlaube mir im folgenden nur meine „persönlichen“ Highlights herauszupicken und näher zu besprechen. Das Niveau der Vorträge war insgesamt hoch und die Teilnahme auf jeden Fall ein Gewinn. Ich bin schon gespannt, welche Veranstaltung mich als nächstes nach Graz lockt.

Die Tagung begann mit einer Keynote von Dot Porter (University of Pennsylvania), die sich ganz grundsätzlich mit der Frage: „What is an Edition anyway? A critical examination of Digital Editions since 2002“ beschäftigte. Im Mittelpunkt ihres Vortrags standen mehrere Umfragen, die sie seit Anfang der 2000er Jahre in der DH community durchführt und die sich mit der Verwendung von digitalen Editionen durch Wissenschaftlerinnen und Wissenschaftler beschäftigen. Zentral ist dabei die Unterscheidung zwischen digitalisierten und digitalen Editionen, also den „nur“ in digitalem Format angebotenen gedruckten Editionen und den ohne Druckvorlage, rein digital erstellen Editionen. Die neueste Umfrage unter Mediaevisten im September 2016 erbrachte die folgende, interessante Nutzerstatistik:

Repräsentativ oder nicht, die Statistik weist zumindest auf einen hohen Anteil der Nutzung von digitalisierten und gedruckten Editionen bei solchen Personen hin, die häufig oder dauernd diese Textsorte verwenden. Damit bleibt die rein digitale Edition weiterhin ein Experimentierfeld, in dem sich erst noch Standards herausbilden und etablieren müssen. Dazu trägt sicher die Zeitschrift ride (Review Journal for digital Editions and Ressources) bei, das seit einigen Jahren versucht Standards in diesem Bereich zu schaffen.

Schon in diesem ersten Beitrag wurde am Ende eine Dichotomie zwischen Interface und Text postuliert, die im Anschluss in einer Reihe von Beiträgen wieder aufgenommen wurde. Interface over Text oder Text over Interface – diese Frage nahmen einige Vorträge gerne wieder auf und gaben ihre subjektive Antwort.

In den nun folgenden Sessions des ersten Tages fielen eine Reihe von Vorträgen wg. kurzfristiger Absagen aus, so dass eine intensive Diskussion der übrigen Beiträge möglich wurde. Eugene W. Lyman (Independent Scholar) wies die Teilnehmer auf die Relevanz von Verläßlichkeit bei Editionen, seien sie digital oder analog, hin. Dies würde, bei einer Konzentration auf Interfaces, leider schnell übersehen (Digital Scholarly Editions and the Affordances of Reliability). Christopher M. Ohge (University of California, Berkeley) stellte dann die erste konkrete Edition, die Notizbücher von Mark Twain, vor (http://www.marktwainproject.org/). Sein Vortrag war mit „Navigating Readability and Reliability in Digital Documentary Editions“ überschrieben und so nahm somit die oben gestellte Frage nach Interface und Verläßlichkeit des Texts auf. Die folgenden Vorträge wandten sich Themen der Visualierung, Typhographie und des Designs von Digitalen Editionen zu und dieser Komplex wurde abgerundet durch eine Keynote von Stan Ruecker (ITT Institute of Design, Chicago), die den ersten Tag beschloss. Es ist ein Verdienst der Tagung, dass konkret Designer eingeladen wurden (auch wenn am Ende nur wenige anwesend waren) und ihre Perspektive auf Digitale Editionen mitteilen konnten. Nur allzu oft bleibt dieser Aspekt aus Kostengründen oder Ignoranz bei wissenschaftlichen Editionen unberücksichtigt – mit den uns allen bekannten Folgen und Effekten. In diesem Zusammenhang wurden auch agile Methoden bei Design und Software-Entwicklung vorgestellt – inzwischen Standards im freiberuflichen Feld, aber bei weitem noch nicht Standard in den Geisteswissenschaften und den Digital Humanities.

Der zweite Tag begann mit einer „Nerd-Session“, in der mehr technische Fragen der Programmierung und Entwicklung von Interfaces für Digitale Editionen thematisiert wurden. Hugh Cayless (Duke University Libraries) startete mit einem Vortrag über
„Critical Editions and the Data Model as Interface“, in dem er eine Edition von lateinischen Texten vorstellte, die nicht auf TEI und XSLT Transformationen beruht, sondern über Javascript verschiedene Sichten auf Text ermöglicht. Seine Slides und eine Demo sind unter https://goo.gl/q7kbY0 abrufbar. Chiara Di Pietro (University of Pisa) und Roberto Rosselli Del Turco (University of Turin) sprachen anschliessend über „Between innovation and conservation: the narrow path of UI design for the Digital Scholarly Edition“ und stellten dabei die Version 2.0. des bekannten EVT-Editionstools vor.

Der dritte talk der Session ist mein persönlicher Spitzenreiter der Tagung.
Jeffrey C. Witt (Loyola University Maryland) sprach nicht nur kompetent sondern auch sehr anschaulich über „Digital Scholarly Editions as API Consuming Applications“ und stellte verschiedene LOD-Lösungen vor, die unter Einbeziehung des IIIF Standards ganz neue Möglichkeiten der Integration und Präsentation von Daten ermöglichen. Sein Vortrag und viele Beispiele finden sich auf http://lombardpress.org/. Ich sehe hier in der Tat eine wichtige Perspektive für die Zukunft der digitalen Editionen, die ja auch im MEDEA Projekt (modelling semantically enriched editions of accounts) anklingt, das leider auf der Tagung nicht vorgestellt wurde, aber dessen Protagonisten anwesend waren.

Die weitere Talks des zweiten Tages widmeten sich theortischen Implikationen und nahmen die Frage der Dichotomie von Interface und Edition wieder auf. Peter Robinson (University of Saskatchewan) schlug sich dabei ganz auf die Seite der Editionen (Why Interfaces Do Not and Should Not Matter for Scholarly Digital Editions), während Tara Andrews (Univ. Wien) und Joris van Zundert (Huygens Institute for the History of The Netherlands) die Seite der Intefaces mit einem Beitrag über das „Interface als Integrales Elements des Arguments einer Edition“ stark machten. Der Nachmittag war den anwenderorientierten Lösungen gewidment und es wurden Themen wie user-centred design und co-creation Ansätze diskutiert. Die Liste der Beiträge und ein Abstraktheft ist auf den Seiten des Grazer Instituts für Informationsmodellierung abrufbar. Im Fazit war dies eine Tagung, die die weite Anreise gelohnt hat und, wie schon oben erwähnt, Lust auf die nächste Reise nach Graz macht, zum Beispiel zur Digital Libraries Tagung 2017, die vom 2.-3. März 2017 ebendort stattfinden wird und deren CFP just gestern abgelaufen ist.

Jörg Wettlaufer, Göttingen