Über Jörg Wettlaufer

Akademie der Wissenschaften zu Göttingen (AdWG) - Göttingen Centre for Digital Humanities (GCDH) - Institut für Digital Humanities (IfDH) an der Philosophischen Fakultät der Georg-August-Universität Göttingen.

CFP: The first Semantic Web for Cultural Heritage workshop (SW4CH’15). Poitiers, France / September 8-11, 2015

For more information see: http://SW4CH2015.ensma.fr/
——————————————————————————————-
IMPORTANT DATES
* Paper submission: April 24, 2015
* Paper notification: June 1, 2015
* Camera-ready paper: June 13, 2015
* Workshop: September 8, 2015

OVERVIEW
Nowadays, Cultural Heritage is gaining a lot of attention from academic and industry perspectives. Scientific researchers, organizations, associations, schools are looking for relevant technologies for accessing, integrating, sharing, annotating, visualizing, analyzing the mine of cultural collections by considering profiles and preferences of end users.
Most cultural information systems today process data based on the syntactic level without leveraging the rich semantic structures underlying the content. Moreover, they use multiple thesauri, or databases, without a formal connection between them. This situation has been identified in the 90’s when the need to build a unique interface to access huge collection of data has appeared. During the last decades, Semantic Web solutions have been proposed to explicit the semantic of data sources and make their content machine understandable and interoperable. By analyzing the most important conferences and workshops related to the Semantic Web, four main categories of topics have been identified: (i) the development of Ontologies and vocabularies dedicated to the studied domain, (ii) explicitation of collection semantics, (iii) usage of Semantic Web Cultural Heritage and (iv) applications related to Cultural Heritage.
The aim of our SW4CH Workshop is to bring together Computer Scientists, and more precisely Data Scientists, involved in Semantic Web solutions for Cultural Heritage. The goal is to exchange experiences, build a state of the art of realizations and challenges and reuse and adapt solutions that have been proposed in other domains.

RESEARCH TRACKS
We seek original and high quality submissions related to one or more of the following topics:
Development of Ontologies and Vocabularies
• User Requirements life cycle for Cultural Heritage
• Vocabularies, metadata schemas, and ontologies
• Semantic Web content creation, annotation, and extraction
• Ontology creation, extraction, and evolution
• Ontology mapping, merging, and alignment
• Use and development of standards, such as SKOS, VRA, etc.
• Developments and applications of the CIDOC Conceptual Reference Model (CRM)
• Virtual Cultural Heritage collections
• Integration of virtual and physical collections
• Use of common vocabularies for Cultural Heritage
• Ontology design patterns for Cultural Heritage

Explicitation of Semantics of Cultural Heritage
• Search, query, and visualization of the Cultural Heritage on the Semantic Web
• Search of virtual and integrated Cultural Heritage collections
• Personalized access of Cultural Heritage collections
• Contex-aware information presentation
• Navigation and browsing
• Facet browsers
• Interactive user interfaces
• Social aspects in Cultural Heritage access and presentation
• Trust and provenance issues in mixed collection and mixed vocabulary applications

Usage of Semantic Web
• Creative industries
• Municipality public services
• Tourist services
• Museums
• Digital Libraries
• Integration of virtual and physical collections
• Ambient Cultural Heritage
• Mobile museum guides
• Web-based museum guides

Applications of Semantic Web technologies in Cultural Heritage
• Domain ontologies
• User and context ontologies
• Reasoning strategies (e.g. context, temporal, spatial)
• Robust and scalable knowledge management and reasoning on the Web
• Machine learning and NLP techniques
• Applications with clear lessons learned
• Semantic Web technologies for multimedia content
• Cultural Heritage services
• Semantic Web architectures for Cultural Heritage
• Peer-to-peer Cultural Heritage architectures
• Data and Information Systems Integration and Interoperability

SUBMISSION INFORMATION
Authors are invited to submit unpublished original work. Submitted papers must use the LNCS style http://www.springer.com/series/11156 (see the link „Instructions for Authors“ in the right hand side) and may not exceed 10 pages. Papers will be submitted electronically in PDF, using this link: http://www.easychair.org/conferences/?conf=sw4ch2015.

ORGANIZATION
Program Co-Chairs: Béatrice Bouchou Markhoff, LI, Université François Rabelais de Tours, France, and Stéphane Jean, LIAS/ENSMA, France
Other members of the organization, including the Program Committee, can be found at: http://SW4CH2015.ensma.fr/

*** Proceedings to be published by Springer in the Advances in Intelligent Systems and Computing series (http://www.springer.com/series/11156) ***   *** Best papers to be published in a special issue of Information System Frontiers, Springer (Factor Impact = 0.761) ***


Béatrice Bouchou Markhoff
Maître de conférences HDR
LI & UFR Sciences et Techniques
Université François Rabelais Tours, France
Tél. +33 (0) 2 54 55 21 36
http://www.info.univ-tours.fr/~bouchou/

Workshop: Semantic Web Applications in the Humanities / 10.3.15 Göttingen

Ende 2012 fand der erste Workshop des Digital Humanities Forschungsverbund Niedersachsen (DHFV) unter dem Titel „Semantic Web Applications in the Humanities“ statt. Zwei Jahre später wollen wir uns erneut treffen und den Stand verschiedener Projekte diskutieren sowie gemeinsam Probleme und Erfahrungen bei der Umsetzung der jeweiligen Projektziele erörtern. Das Format soll eine intensive Diskussion nach den Projektvorstellungen ermöglichen und ausreichend Zeit für die Vernetzung der Projekte bieten.

Dienstag, 10.03.2015,
Staats und Universitätsbibliothek Göttingen, Historisches Gebäude,
Papendiek 14, Vortragsraum (1. Stock)

Begrüßung: ab 10:30
11:00 Uhr – Vorstellungsrunde
11:15 Uhr – „WissKI“, Dorian Merz (FAU Erlangen-Nürnberg)
12:15 Uhr – „Semantic Blumenbach“, Jörg Wettlaufer (DHFV/ADW Göttingen)
13:15 Uhr – Mittagspause / Pizza break
14:15 Uhr – „Textdatenbank und Wörterbuch des Klassischen Maya“, Franziska Diehr, Maximilian Brodhun (SUB Göttingen)
15:15 Uhr – Kaffeepause
15:45 Uhr – „SyMoGIH„, Francesco Beretta (CNRS, LARHRA, UMR 5190, Université de Lyon)
16:45 Uhr – „Semantic Web und Ontologien im Bereich des Historical Text Re-use“, Marco Büchler (GCDH Göttingen)
17:45 Uhr – Abschlussdiskussion
18:15 Uhr – Ende des Workshops
19:00 Uhr – Gemeinsames Abendessen (Gaststätte Kartoffelhaus)

Tagungssprachen sind Deutsch und Englisch. Anmeldungen für eine Teilnahme müssen bis zum 1. März unter der folgenden Adresse eingetragen werden:
http://doodle.com/pyvqy7haprxmd8pa

Programm (PDF, 327 KB)

Kontakt: Jörg Wettlaufer

EUCLID / EdUcational Curriculum for the usage of LInked Data

Dieses EU-Projekt ist jetzt nicht mehr ganz frisch, aber leider bin ich erst heute darauf gestossen. Die Laufzeit war von Mai 2012 bis April 2014. Die Materialien dieses Linked Data Curriculums stehen inzwischen online über verschiedene Kanäle zur Verfügung (HTML, iBook, ePUB, Kindle). Ein Ergebnis des Projekts ist unter anderem ein Buch mit dem Titel „Using Linked Data Effektively“.

Man kann es sogar über ibooks für das ipad herunterladen (570 MB). Cool. Ausserdem gibt es eine Reihe von Lernmodulen, die aufeinander aufbauen und alle wichtigen Aspekte des LOD Lifecycle abdecken. Es wird bei den ESWC Summer Schools als Lernmaterial verwendet. Die diesjährige findet übrigens vom 31. August bis 5. September in Kalamaki, Kreta, statt. Die ESWC Tagung selber dann vom 31. Mai bis 4. Juni 2015 in Portoroz, Slowenien. Leider ist der CFP gerade abgelaufen. Aber in Slowenien war ich noch nie… vielleicht trotzdem eine Reise wert.

Tagungsbericht: Workshop Electronic Editions, Göttingen, 8.-9.1.2015

Der von Norbert Schappacher (Strassburg), Moritz Epple (Frankfurt) und Helmut Rohlfing (Göttingen) organisierte Workshop entstand aus einer Initiative der Kommission für Mathematikernachlässe der Göttinger Akademie der Wissenschaften. Vier Projekte wurden an zwei Tagen vorgestellt und intensiv diskutiert: Das Newton Projekt an der Univ. von Sussex, Blumenbach-online aus Göttingen, das Projekt ENCCRE zur D’Alembert Edition des Dictionaire raisonné aus Frankreich und die Arnold Sommerfeld Edition an der LMU München. Durch diese großzügige Zeitplanung war es möglich, den Workshop wirklich interaktiv mit dem (zahlreich vorhandenen) Publikum durchzuführen und die einzelnen Projekte intensiv zu diskutieren. Entsprechend lebhaft fiel auch die Schlußdiskussion aus, die Dirk Wintergrün vom MPI für Wissenschaftsgeschichte einleitete. Es ist geplant, die Folien der Vorträge online zu stellen. Da dies aber vermutlich noch etwas dauern wird, möchte ich im Folgenden schon jetzt (knapp) meine Eindrücke vor allem hinsichtlich der Schlussdiskussion und den Ergebnissen der Tagung formulieren.
Übergreifend wurde die Sorge artikuliert, dass die digitalen Editionsprojekte (im speziellen und allgemeinen) nicht langfristig für die Forschung zur Verfügung stehen könnten. Dies wurde vor allem mit technischen (weiter-)Entwicklungen begründet, die eine ständige Pflege der Edition voraussetzt. Lösungen wurden vor allem in der institutionellen Anbindungen von Projekten gesehen sowie der Bereitstellung der Daten über Geisteswissenschaftliche Datenzentren (z.B. DCH in Köln und HDC in Göttingen/Berlin). Trotzdem kreiste die Diskussion in weiten Teilen um die Frage, wie eine längerfristige Verfügbarkeit am ehesten zu erreichen sein. Konsens fand die Formel „je einfacher desto besser“, aber schon bei der Frage, ob sich dies nun auf das User Interface oder auch auf die dahinter stehende Technik beziehen sollte, schieden sich die Geister wieder. Zeitgemäße Suchindizes, ein zentraler Vorteil digitaler Edition im Vergleich zu ihren analogen Pendants, greifen auf eine Vielzahl von Technologien zurück, die andauernder Pflege bedürfen. Verschiedene Sichten auf den Text bedürfen in der Regel Transformationen, die im Falle von XML sicher als technisch relativ robust bezeichnet werden können. Trotzdem dürfte es sich als schwierig erweisen, anspruchsvolle und vor allem optisch ansprechende Editionen längerfristig zur Verfügung zu stellen, zumal die notwendige Dokumentation sowie die zum Verständnis der Datenbanklogik notwendigen Fachkenntnisse der Editoren oder technischen Betreuer natürlich endlich ist, ganz abgesehen einmal von DFG geförderten Projekten, bei denen zwar heute eine institutionelle Anbindung nachgewiesen werden muss, deren Belastbarkeit im Einzelfall aber sicher genauer zu betrachten wäre. Die Problematik von „Altprojekten“ ist dabei erst einmal außen vor. Zwar macht das Beispiel der Arnold Sommerfeld Edition, die an der LMU in München am Lehrstuhl für Geschichte der Naturwissenschaften gehostet wird und seit Ende der 90er Jahre verfügbar ist, etwas Mut, allerdings kommen hier die schon erwähnten Abstriche bei der Benutzerfreundlichkeit bzw. der Benutzbarkeit überhaupt voll zum tragen. Eine Migration in ein Datenzentrum würde aber auch Auswirkungen auf das zweite Kardinalproblem der digitalen Editionen, der Referenzierbarkeit (als Ganzes und in Teilen) und der Zitierbarkeit, haben. Die existierenden Lösungen (z.B. URN) werden bislang kaum angewendet, vielleicht auch weil die parallele Existenz verschiedener Identifiersysteme selber noch nicht wirklich vertrauenserweckend ist.
Zentral für eine informationstechnologisches Angebot ist und bleibt die konsequente Verwendung von Standards. Nach der einfachen Regel „je weniger unterschiedliche Standards desto mehr Effizienz bei der Erstellung von Pflege der Editionen“ könnte man im Rahmen der Forschungsdatenzzentren versuchen, den Editionen einen dauerhaften Ort zu verschaffen. Ob virtuelle Maschinen, die versuchen den letzten Bearbeitungsstand der Edition im Sinne eines Snapshot einzufangen und zu konservieren dabei behilflich sein könnten, wurde kontrovers gesehen. Natürlich verlagert sich die Problematik der Softwarepflege nur eine Schicht nach innen. Der große Vorteil eines solches Ansatzes wäre es aber, die Editionen physisch an einem Ort vorliegen zu haben und kuratieren zu können. Außerdem hätten wir dann digitale Objekte, die man ähnlich wie gedruckte Bücher im Rahmen digitaler Bibliotheken behandeln und in die vorhandenen Nachweissysteme einbinden könnte. Die Buchindustrie hat bislang leider kein Interesse an interaktiven Ebook-Formaten gezeigt. Bei der konsequenten Bereitstellung der Daten als Linked Data wäre zwar die Frage der Zugänglichkeit gelöst, aber die digitalen Editionen wären ihrer Funktionslogiken beraubt und würden auf einfache XML-Strukturen ohne das entsprechende Rendering zurückfallen. Der TEI Standard hat hier bekanntlich bislang nicht zur einer Lösung sondern vielmehr zu einer Verschärfung des Problems geführt. Gäbe es eine allgemeingültige Auszeichnungspraxis – wie einfach wäre der Aufbau eines Repositoriums digitaler Editionen…
Mehrfach wurde in der Diskussion die unterschiedliche Perspektive von Nutzer und Editor angesprochen. Bei den Projektvorstellungen wurde deutlich, wie weit die Vorstellungen hier auseinandergehen. Im Newton-Projekt war immer der größtmögliche Outreach geplant. Blumenbach-online konzipiert seine Edition der Schriften und Sammlungen Blumenbachs jedoch eher für ein wissenschaftshistorisches Fachpublikum, während ENCCRE ebenfalls auf eine breite Rezeption setzt. Ich meine, man sollte bei digitalen Editionen eher mit einem heterogenen Publikum rechnen, denn das Medium Internet bringt einfach ein sehr breites Rezeptionspotential mit sich. Jedenfalls schadet eine didaktisch aufbereitete Präsentation von Autor und Text sicher in keinem denkbaren Nutzungsszenario.
Der außerordentlich gut besuchte Workshop erlaubte durch sein Format und die gehaltvollen Projektpräsentationen einen intensiven Austausch der Wissenschaftshistorikerinnen und -Historiker untereinander, aber auch mit Informatikern und Bibliothekaren. Digitale Editionen sind und bleiben eine besondere Herausforderung und müssen ihr Verhältnis zur gedruckten Edition in Zukunft noch weiter schärfen und vielleicht auch Teilaspekte stärker integrieren, um die Vorteile beider Medienformen optimal zu bündeln.

Donnerstag, 8. January 2015
14:00 – 14:30 Opening by the organizers
14:30 – 16:10 The Newton Project, presented by Robert Iliffe, Michael Hawkins, Cornelis J. Schilt
16:40 – 18:20 Blumenbach-online, presented by Claudia Kroke, Wolfgang Böker, Alexander Gehler
Friday, 9 January 2015
09:00 – 10:40 ENCCRE and the D’Alembert Edition, presented by Irène Passeron, Alxandre Guilbaud, Vincent Barrelon
11:05 – 12:45 The Sommerfeld Edition, presented by Michael Eckert, Karl Märker
14:00 – 16:00 Final discussion opened by Dirk Wintergrün (Head IT group, MPIWG, Berlin)

Tagungsbericht „Semantic Web in den Geisteswissenschaften“ / Paris INHA 2014: Outils, méthodes, corpus: la modélisation des données en SHS.

Am 17.11.14 fand in Paris ein Studientag zum Thema „Werkzeuge, Methoden, Korpora: die Modellierung von Daten in den Geistes –und Sozialwissenschaften“ statt. Organisiert und ausgerichtet von Emmanuelle Perrin im INHA, einem Zentrum für die Kunstgeschichte im Zentrum von Paris – sehr schön gelegen in der Nähe der alten BNF (Richelieu) – präsentierten sich 6 Projekte rund um das Thema Semantic Web Technologien (SWT) und Geisteswissenschaften. Dabei ging es nicht nur um kunsthistorische Projekte im engeren Sinne, sondern vielmehr um einen Überblick zu den zentralen Konzepten der digitalen Semantisierung von Daten, also Normdaten, kontrollierte Vokabularien, Ontologien und Linked Open Data (LOD). Eine zentrale Rolle bei der Umsetzung von Projekten mit SWT spielt in Frankreich die BNF und das CNRS. Beide Institutionen waren vertreten zum einen durch Antoine Isaac, dem Leiter der Abteilung Forschung und Entwicklung des Europeana-Projekts und zum anderen durch Didier Torny, dem stellvertretenden Direktor für Wissenschaftliche Information am InSHS, einer Abteilung des CNRS zur Unterstützung von Sozial- und Geisteswissenschaftlern in informationstechnologischen Dingen. Didier Torny stellte seinem sehr allgemein gehaltenen einführenden Beitrag (Données, corpus, publications : les enjeux de l’information scientifique et technique au CNRS à l’ère numérique) die drei wichtigen Organisationen bzw. Projekte bei der Unterstützung der Forscherinnen und Forscher vor: CLEO (Centre de l’edition electronique ouverte), Persée (ein Online-Zeitschriftenarchiv) und HumaNum, das Pariser Zentrum für Digital Humanities. Emmanuelle Perrin von der InVisu Gruppe des INHA, betonte die zentrale Rolle des Semantic Web für die langfristige und vor allem auch interoperable Bereitstellung von Daten und Forschungsergebnissen in den Geisteswissenschaften und stellte das eigene Projekt (STORM), eine Topographie der Stadt Kairo anhand europäischer Quellen, vor. Der Beitrag von Anila Angjeli (BNF) war hauptsächlich dem Thema Normdaten und hier speziell dem ISO Standard ISNI gewidmet, einem Versuch der BNF und der British Library, die verschiedenen nationalen Normdaten zu harmonisieren und zu integrieren. Obwohl der Ansatz sicher sehr zu begrüßen ist und offensichtlich gute Algorithmen für die Elimination von Dubletten und die Zuordnung der versch. Datensätze eingesetzt werden, bleibt doch das alte Problem vieler derartiger Projekte bestehen, dass (projekt-)relevante Personen im Datenbestand (immerhin inzwischen 8 Mio!) fehlen und nicht ohne weiteres beigefügt werden können. Der günstigste Weg ist hier eine Mitgliedschaft im ISNI Verband, der mit 800,- Euro/Jahr zu Buche schlägt.

ISNI

Nach der Pause sprach René-Vincent Du Grandlaunay, der Direktor der Bibliothek des Dominikanerinstituts für Orientstudien in Kairo (IDEO) über das Modell FRBR (Functional Requirements for Bibliographic Records) zur Katalogisierung und seiner Anwendung auf die im Institut kuratierten Publikationen aus dem arabisch-islamischen Kulturkreis. Die detailverliebte Darlegung zeigte, wie hilfreich ein FRBR-Ansatz in einem Kontext sein kann, in dem Einzelausgaben aus vielen Jahrhunderten einem Werk zugeordnet werden müssen. Der letzte Beitrag des Vormittags von Matthieu Bonicel und Stefanie Gehrke war dem Europeana Projekt „Biblissima“ gewidmet, das sich mit der Modellierung der Überlieferungsgeschichte von Texten und Sammlungen im Mittelalter und der Renaissance beschäftigt. Die Modellierung erfolgt dort in CIDOC-CRM und FRBRoo und in der Präsentation konnten schon eine Reihe von interessanten Lösungen für die Modellierung von Sammlungen, aber auch von Inventaren und Katalogen vorgestellt werden.

Biblissima

Der Nachmittag war den Themen Linked Open Data (LOD), Ontologien für Historiker und einem Wörterbuchprojekt zum Wandel der Begrifflichkeit in der Kunstgeschichte zwischen 1600 und 1750 an der Universität von Montpellier gewidmet. Anne-Violaine Szabados (CNRS, ArScAn, UMR 7041, ESPRI-LIMC, Paris Ouest Nanterre La Défense) sprach über die Erfahrungen mit den Projekten LIMC und CLAROS, die beide dem Bereich der Archäologie zugeordnet werden können und auf die Vernetzung und Verlinkung mit LOD setzen. Francesco Beretta (CNRS, LARHRA, UMR 5190, Université de Lyon) stellte anhand des Historischen Projekts SyMoGIH (Système Modulaire de Gestion de l’Information Historique) die Probleme von Historikern bei der Suche nach einer passenden Ontologie für historische Ereignisse dar.

SyMoGIH

Das EU-geförderte Projekt LexArt, das von Flore César (CRISES, EA 4424, université Paul-Valéry, Montpellier 3) präsentiert wurde, steht noch anz am Anfang. Es versucht die Entwicklung von Kunstbegriffen in der Frühen Neuzeit anhand einer detaillierten Analyse von 300 Kunsttraktaten und Abhandlungen nachzuzeichnen, die anhand eines digitalen Werkzeugs gesammelt, analysiert und präsentiert werden sollen. Dies wird in Zusammenarbeit mit dem Trierer Zentrum für Digital Humanities realisiert werden, das entsprechend Expertise im Kontext digitalisierter Wörterbücher besitzt. Zum Abschluss fasste Mercedes Volait (InVisu, USR 3103 CNRS/INHA) die Ergebnisse des Tages noch einmal zusammen und erwähnte dabei auch einige der Themen, die nicht angesprochen werden konnten, wie z.B. die juristischen Fragen rund um LOD.

Insgesamt stellt sich für mich das Interesse an Semantic Web Technologien für geisteswissenschaftliche Projekte in Frankreich positiv da. Darauf weisen zumindest die besprochene Veranstaltung aber auch andere Aktivitäten in diese Richtung hin, die derzeit vor allem in Paris stattfinden. Am 12 Dezember wird dort z.B. eine Schulung „Einführung in das Semantic Web“ durch den früheren Leiter der Informatikabteilung der BNF, Romain Wenz, angeboten. Insbesondere die Ausrichtung von Europeana, die sich mit EDM auf ein graphenbasiertes Datenformat festgelegt hat, befördert die Akzeptanz und auch die Beschäftigung mit Semantik Web Technologien, gerade in den Geistes- und Sozialwissenschaften. Angebote wie data.bnf.fr erhöhen dabei die Sichtbarkeit und machen den konkreten Nutzen von Semantic Web Technologien evident.

Die Folien der Beiträge sind jetzt online unter: http://invisu.inha.fr/lundi-17-novembre-2014-Outils

Jörg Wettlaufer, Göttingen

Outils, méthodes, corpus : la modélisation des données en SHS.

Emmanuelle Perrin (InVisu, USR 3103 CNRS/INHA) : Présentation de la journée.

Didier Torny (directeur adjoint scientifique en charge de l’information scientifique et technique à l’InSHS) : Données, corpus, publications : les enjeux de l’information scientifique et technique au CNRS à l’ère numérique.

Première parti : Présidence de séance : Antoine Isaac (R & D manager, Europeana)

Anila Angjeli (BnF, département de l’information bibliographique et numérique) : ISNI – Les enjeux d’un identifiant international pour les personnes et les organismes.

René-Vincent Du Grandlaunay (directeur de la bibliothèque de l’Institut dominicain d’études orientales, Le Caire) : Le modèle FRBR appliqué au patrimoine arabo-musulman.

Matthieu Bonicel (BnF, coordinateur de Biblissima) et Stefanie Gehrke (coordinatrice métadonnées, Biblissima) : Biblissima et la modélisation de l’histoire de la transmission des textes et de la constitution des collections.

Seconde partie (Présidence de séance : Anila Angjeli)

Anne-Violaine Szabados (CNRS, ArScAn, UMR 7041, ESPRI-LIMC, Paris Ouest Nanterre La Défense) : L’expérience LIMC & CLAROS : pour l’élévation des données du patrimoine et de la culture dans le Linked Open Data.

Francesco Beretta (CNRS, LARHRA, UMR 5190, Université de Lyon) : Le projet SyMoGIH et le web de données.

Flore César (CRISES, EA 4424, université Paul-Valéry, Montpellier 3) : Modéliser le transfert des savoirs en Europe septentrionale aux xviie et xviiie siècles : l’exemple du projet LexArt.

Mercedes Volait (InVisu, USR 3103 CNRS/INHA) :Synthèse de la journée et discussion.

Schöner Bericht über die digitalen Aktivitäten auf dem Historikertag in Göttingen… #HisTag14 #digigw14

Kurzmitteilung

Ria Hänsich, Historikerin und Kunsthistorikerin aus Münster Redakteurin am IStG, hat einen schönen Bericht zu den verschiedenen digitalen Sektionen verfasst, die auf dem diesjährigen Historikertag in Göttingen stattgefunden haben. Er ist unter der folgenden Adresse als PDF abrufbar: http://www.uni-muenster.de/imperia/md/content/staedtegeschichte/pdf-dateien/wissenschaftsservice/historikertag_2014_bericht_digital_humanities.pdf

Digitalisierung der Geschichtswissenschaften: Gewinner und Verlierer? #historikertag

Mit dem Abstand einer guten Woche wage ich mal eine kleine Rückschau auf unsere Sektion „Digitalisierung der Geschichtswissenschaften: Gewinner und Verlierer?“, die am 25.09.14 stattfand und, wie viele Veranstaltungen auf dem diesjährigen Historikertag, als google hangout Lifestream bei youtube gelandet sind. Live meint dabei wirklich live, d.h. man hat die Kamera am Anfang eingestellt und am Ende wieder abgestellt. Zwischendrin gibt es zwar ein Pausenbild, aber der Ton lief die gesamte Zeit über weiter. Das führt teilweise zu lustigen Mitschnitten von Kommentaren auf dem Podium, die so sicher nicht intendiert waren. Ein Tipp fürs nächste Mal – besser also zwischendurch auch den Ton abschalten.
Die folgenden Ergänzungen und Kommentare erstrecken sich nur auf den zweiten Teil der Sektion, der Podiumsdiskussion „Methoden und Paradigmen der Digitalen
Geschichtswissenschaften und Digital Humanities“, die ich zusammen mit Heiko Weber (Göttingen) vorbereitet und durchgeführt habe. Dem knappen verbleibenden Zeitbudget fielen leider die Selbstverortungen der Diskussionsteilnehmerinnen und Teilnehmer zum Opfer, weshalb diese hier unten nachgereicht werden. Desweiteren erlaube ich mir hier den Kommentar, dass etwas mehr Kontroverse vor allem im ersten Teil der Podiumsdiskussion nicht geschadet hätte. Ich erinnere an das Rahmenthema des Historikertags: Gibt es bei der aktuellen Situation der Digitalisierung der Geschichtswissenschaft zwischen Digital Humanities einerseits und Digitaler Geschichtswissenschaft andererseits keine Gewinner und Verlierer (oder doch zumindest Ängste vor Gewinn und Verlust – von Einfluß, Macht und Fördergeldern)? Charlotte Schubert war als einzige auf dem Podium bereit, sich offen zu diesen Verlustängsten zu bekennen. War das Thema am Ende zu heiss, als das man öffentlich darüber Reden konnte oder wollte? Teilnehmer aus dem Publikum waren jedenfalls weniger zurückhaltend, sprachen sogar von der „tödlichen Umarmung“ der Geschichtswissenschaft durch die Digital Humanities an einigen Standorten. Wäre es da nicht Zeit für eine breite Diskussion in der Community – oder auch Zunft, wenn man das lieber mag – über mögliche Chancen und Gefahren, aber auch Ängste einer Digitalisierung der Geschichtswissenschaften? Digitalisierung von aussen oder von innnen???
Soviel sei hier (Selbst-)kritisch angemerkt. Am Ende gab es dann eine Mahnung von Manfred Thaller, die Digitalisierung der Geschichtswissenschaft durchaus wieder stärker „visionär“ zu betreiben und zu aktiv zu gestalten. Ein Schlußwort, dem ich mich als Moderator nur anschliessen konnte und kann.

Zum Video (Podiumsdiskussion etwa ab 2:35 h):

Einführung zur Podiumsdiskussion und Vorstellung der Teilnehmerinnen und Teilnehmer (mit Selbstverortungen)

„Methoden und Paradigmen der Digitalen Geschichtswissenschaften und Digital Humanities”

Herzlich willkommen zu unserer Podiumsdiskussion“ Methoden und Paradigmen der Digitalen Geschichtswissenschaften und Digital Humanities“, dem zweiten Teil der Sektion „Digitalisierung der Geschichtswissenschaften: Gewinner und Verlierer?“ Wir wollen in den nächsten 90 Minuten auf dem Podium und mit Ihnen diskutieren, was es mit diesen beiden Begriffen „Digitale Geschichtswissenschaft“ und „Digital Humanities“ auf sich haben könnte: Wir wollen gewissermaßen einen Blick hinter die Schlagworte und auf den Prozess der Digitalisierung der Geschichtswissenschaften (Verfahren, Theorien und Methoden) werfen.
Die methodischen, konzeptionellen und empirischen Forschungsdesigns und Paradigmen der sog. „Digital Humanities“ sind in den Geschichtswissenschaften in den vergangenen Jahren nicht unwidersprochen geblieben. Der Begriff der „Digital Humanities“ selbst, der durch das 2004 erschiene Buch „A Companion to Digital Humanities“, hg. von Susan Schreibman, Ray Siemens und John Unsworth, geprägt wurde, erscheint noch fließend und im Prozeß der Definition begriffen. Auf der anderen Seite blicken wir auf eine viele Jahrzehnte zurückreichende Tradition der Verwendung digitaler Methoden in den geisteswissenschaftlichen Fachdisziplinen, allen voran den Geschichtswissenschaften, zurück. Das Podium wird deshalb auch Fragen nach der eigenen digitalen tradition der Geschichtswissenschaften nachgehen und diskutieren, inwieweit diese auch unabhängig von computerphilologischen und computerlinguistischen Ansätzen entstanden ist. Es wird auch zu erörtern sein, wie zentral die Editionswissenschaften für die zukünftigen digitale Geschichtswissenschaft bzw. die historischen Digital Humanities sind? Zentral erscheint uns hierbei: Wo treffen heute Digitale Geschichtswissenschaft und Digital Humanities aufeinander und welche Schnittmenge gibt es?
Angelehnt an das Rahmenthema des Historikertages wollen wir zudem nach möglichen Gewinnern und Verlierern in diesem anhaltenden Diskussions- und Findungsprozess fragen und dabei auch die spezifischen Probleme der Professionalisierung dieser (neuen) historischen „Hilfs“-Wissenschaft – oder handelt es sich doch eher um eine eigenständige Disziplin? – thematisieren. Wir erhoffen uns davon eine Klärung der Begrifflichkeiten sowie die Offenlegung von Gemeinsamkeiten und Unterschieden zwischen Digital Humanities und Digitaler Geschichtswissenschaft sowie auch Informationen über den aktuellen Stand und die Integration digitaler Methoden in den Geschichtswissenschaften – letzteres insbesondere auch über die Einbindung des Publikums in die Diskussion. Dabei sollen dann die Themen des ersten Blocks dieser Sektion ebenfalls aufgegriffen bzw. diskutiert und mit Blick auf den fachinternen Diskurs neue Perspektiven auf eine dynamisch und zugleich kohärente Weiterentwicklung der Digitalisierung der Geschichtswissenschaften aufgezeigt werden.
Wir haben auf dem Podium 4 ausgewiesene Expertinnen und Experten der Digitalen Geschichtswissenschaft und der Digital Humanities, die uns im Vorfeld kurze oder auch manchmal längere Statements zugesendet haben, mit denen sie sich selbst in dieser Diskussion verorten. Wir werden die Diskussionsteilnehmer nun kurz jeweils mit diesen Statements vorstellen und dann in die erste Diskussionsrunde gehen. Sie werden gleich sehen, dass wir hier ein deutliches Übergewicht der Alten Geschichte auf dem Podium versammelt haben: drei der vier Teilnehmer sind dieser Epoche zuzuordnen. Dies ist keine Absicht, aber vielleicht symptomatisch für die Rezeption digitaler Methoden in unserem Fach – der Geschichtswissenschaft – und leider auch Folge der Absage von Frau Gersmann aus Köln geschuldet, die aus wichtigen Termingründen heute leider nicht wie geplant dabei sein kann. Für Sie hat sich freundlicherweise Herr Spickermann aus Graz bereit erklärt, mitzudiskutieren.
Wir beginnen nun mit der Vorstellung und fangen natürlich mit der Dame in der Runde an.

Frau Prof. Charlotte Schubert studierte Alte Geschichte, Klassische Archäologie und Germanistik in Bonn, wo sie 1980 promoviert wurde. Ihre Habilitation für Medizingeschichte erfolgte 1987 ebenfalls in Bonn. Seit 1993 hat sie den Lehrstuhl für Alte Geschichte an der Universität Leipzig inne. Zusammen mit Simone Lässig ist sie Sprecherin der AG „Digitale Geschichtswissenschaft“ im Verband der Historiker und Historikerinnen Deutschlands. Für Frau Schubert „ist der Bereich der Digital Humanities (pars pro toto für alle Begriffe) für diejenigen, die sich damit befassen, eine willkommene Erweiterung des Methodenspektrums des eigenen Fachs, die – zumindest ist das ihre Erfahrung aus eAQUA – bei klar definierten Forschungsfragen mit Hilfe der neuen Möglichkeiten (z. B. Textmining – distant reading/ oder xml-Technologien für digitale Editionen – close reading) zu neuen Wegen und Ergebnissen führen kann. Die spannende Frage stellt sich für sie aber nun, wie es weitergeht, insb. im Hinblick auf die Infrastrukturentwicklung – auch und gerade mit dem erweiterten Infrastrukturbegriff, siehe die Empfehlungen des Wissenschaftsrats. Das Problem ist nach ihrer Ansicht, wie sich diese Entwicklung auf die Fachdisziplinen auswirken wird. Soll ein neues Fach etabliert werden („Digital Humanities“ o. ä.) oder sollen die Geisteswissenschaften ihr traditionell-hermeneutisch-kulturalistisches Methodenspektrum um diese neuen, stark von der Informationswissenschaft her geprägten Methoden erweitern? Auf die Digital Humanities übertragen, wäre dies zuerst einmal die Frage nach den Inhalten und Methoden Aus diesem Grund meint Sie, dass die Digital Humanities als Methode in die Grundlagenausbildung (Propädeutik) der Geistes- und Sozialwissenschaften integriert werden müssen. Die Einrichtung eigener, neuer Studiengänge als Digital Humanities-Fach hält Sie demgegenüber für weniger sinnvoll, da damit gar nicht die nötige Breitenwirkung erreicht werden kann und auch die inhaltliche Beschreibung vermutlich an jedem Ort anders aussehen, d. h. nahe an die Beliebigkeit rücken würde. Nach ihrer Meinung ist es aber dringend nötig, dass sich die Fachverbände hierzu positionieren und dass die Integration in die Lehramtsausbildung thematisiert wird. Nur über den Kreislauf Lehrerausbildung und Schülerausbildung ist eine echte, breitenwirksame Nachhaltigkeit zu erreichen.“

Herr Prof. Manfred Thaller: studierte Geschichte und Altorientalistik in Graz und wurde dort 1975 mit einer Arbeit zum Europäischen Amerikabild zwischen 1840 und 1941 promoviert. Nach einer Zeit in Wien wechselte er 1978 an das MPI für Geschichte in Göttingen, wo er sich mit der Planung und Implementierung eines Datenbanksystems für die Geschichte mit dem Namen kleio beschäftigte. Seit dem Jahr 2000 ist er Professor für Historisch-Kulturwissenschaftliche Informationsverarbeitung an der Univ. Köln auf einem eigens für ihn geschaffenen Lehrstuhl. Er gehört damit zum Urgestein „digitaler Geschichtswissenschaft“ in Deutschland, beschreibt seinen Standpunkt aber selber so:
„Das Geburtsjahr der interdisziplinären Forschung zwischen den Geisteswissenschaften und der Informatik ist das Jahr 1949. Wäre sie eine Person, sie würde 2014 emeritiert. Trotzdem wirkt sie in ihrer Inkarnation als „Digital Humanities“ erstaunlich jung. Leider ist diese ewige Jugend jedoch nicht auf ihre kontinuierliche Weiterentwicklung zurück zu führen, sondern auf eine Abfolge von Wellen, die das Erscheinen der jeweils nächsten als Neugeburt erscheinen lassen. Manfred Thaller glaubt von allen diesen Wellen getragen worden zu sein, weil er davon ausgeht, dass die Unterstützung der historischen Disziplinen durch Techniken der Informatik eine Methodik erfordert, die der Historizität der in diesen Disziplinen per Definition heranzuziehenden (Informations)quellen gerecht wird. Er ist daher völlig davon überzeugt, dass die Anwendung der sich herausbildenden Vorgehensweisen der Digital Humanities sich weder in der Übernahme linguistischer noch quantitativer Verfahren erschöpfen kann. Und ganz definitiv auch nicht in der Übernahme von als Methoden missverstandenen Techniken, die breite Bereiche der heutigen Digital Humanities prägen.“

Herr Prof. Wolfgang Spickermann: studierte Geschichte, katholische Theologie und Philosophie an der Ruhr-Universität Bochum und Alte Geschichte an der Universität Osnabrück. 1991 erfolgte seine Promotion, 2002 habilitierte er sich dort. 2009 bis 2013 hatte er die Professur für Religionsgeschichte des Mittelmeerraumes in Erfurt inne, seit Oktober 2013 ist er Professor für alte Geschichte an der Universität Graz. Herr Spickermann ist Gründungs- und seit vielen Jahren Vorstandsmitglied der Arbeitsgemeinschaft Geschichte und EDV e.V. Er ordnet sich selber grundsätzlich der Digitalen Geschichtswissenschaft zu, wobei das Erfurter Interdisciplinary Center of eHumanities (ICE), dessen Sprecher er ist, gerade auch Methoden der Geowissenschaften und Netzwerkanalyse mit Datenbanken und Textanalyse zusammen bringe. So sieht er sich denn auch in einer gewissen Brückenfunktion, wobei er sich seit einigen Jahren gegen das Primat der Computerlinguistik engagiert, um so neue und für die Geisteswissenschaften und insbesondere die Geschichtswissenschaften bessere Wege aufzuzeigen. Interessant findet er, dass es heute immer noch Diskussionen gibt, die schon bei der Gründung der Arbeitsgemeinschaft Geschichte und EDV e.V. 1993 geführt wurden. Auch müsste seiner Auffassung nach jetzt eine Debatte darüber entstehen werden, was DH denn überhaupt sein soll – gerade vor dem Hintergrund unserer auf Dilthey und Gadamer beruhenden geisteswissenschaftlichen Hermeneutik. Dieses Thema stehe auf dem Programm der kommenden DH-Tagung in Februar 2015 in Graz. Und er outet sich auch gleich selbst. Wolfgang Spickermann sagt: Wir reden hier immer (nach mind. 20ig Jahren) noch über Methoden, nicht über ein neues Fach.

Herr Prof. Gregory Crane ist passionierter Philologe und ist als solcher in klassischer Philologie an der Universität Harvard promoviert worden. Dort hat er anschließend als Assistenzprofessor gearbeitet und war seit 1985 in die Planung des Perseus Projekts eingebunden, dessen Chefeditor er inzwischen ist. Er hat eine Professur an der TUFTS University in Boston. Unter anderem hat er 2010 den Google Digital Humanities Award für seine Arbeit in diesem Bereich erhalten. Seit 2012 ist er Humboldt Professor in Leipzig und hat dort den Lehrstuhl für Digital Humanities inne. Er meint zur Frage des Verhältnisses zwischen etablierten Fachdisziplinen und Digital Humanities folgendes:
„I don’t know if Digital Humanities can claim to have emerged as a distinct field but Digital Humanities provides two critical functions. First, it provides a new and, in my experience, unprecedented space of encounter both across disciplines within the Humanities and — in Germany most of all — between humanists and computer scientists. […] No single Humanities discipline dominates the Digital Humanities and this neutral space fosters far more cross-disciplinary exchange than I have seen (however much we have spoken of interdisciplinary work over recent decades). Second, departments of Digital Humanities offer a space where students can try out ideas and explore intellectual pathways that are not feasible in traditional, disciplinary programs.

One more thing: THATCamp Göttingen 22/23 September im GCDH

Hier kommt ein Reminder an das bevorstehende THATCamp in Göttingen, 22.-23. September 2014. Um es mit Tim Cooks Worten zu sagen: „We are really exited about this…“ Bisher haben sich schon über 50 Teilnehmerinnen und Teilnehmer angemeldet und die ersten Sessionvorschläge sind auch schon eingegangen. In der kommenden Woche werden sicher noch viele weitere hinzukommen und das Organisationsteam arbeitet mit Hochdruck an der Vorbereitung des Camps. Das aktualisierte Programm sowie alle weiteren Infos findet man auf unserer THATCamp Webseite:

THATCamp

Wir freuen uns auf Euch!

Sally & Jörg in behalf of the Orgateam