Workshop: Digitale Geschichtswissenschaft und Semantic Web [Journées „Histoire numérique et web sémantique“], Brest, 9-11 mai 2017

Print Friendly, PDF & Email

Ich möchte gerne auf diese Tagung in Brest in der kommenden Woche hinweisen, da sie sich thematisch genau im Zentrum dieses Blogs befindet und zudem Francesco Beretta, der auch schon einmal zu einem von mir organisierten Workshop zu diesem Thema in Göttingen war, sein Projekt einer Ontologie für die Historische Forschung dort ausführlich vorstellt. Tagungssprache ist sicherlich französisch. Hier der Ankündigungstext aus einem Post der französischen DH-Liste:
La Maison des sciences de l’Homme de Bretagne, le Centre François Viète, le Lab-STICC, le Centre européen de réalité virtuelle et le LARHRA organisent à Brest en collaboration avec la Maison des sciences de l’Homme de Bretagne du 9 au 11 mai 2017 les journées „Histoire numérique et web sémantique“.

Ces journées sont destinées aux participants du groupe de travail pour la constitution du consortium „Données pour l’histoire“. Ce groupe est ouvert à toute personne intéressée par l’histoire numérique et la modélisation des données, n’hésitez pas à nous contacter :
Aurélie Hess : aurelie.hess(at) / Vincent Alamercery : vincent.alamercery(at)

Programme :

Mardi 9 mai

14h-14h30 : Introduction aux journées
14h30-15h15 : Le système d’autorité IdRef – François Mistral (ABES équipe IdRef)
15h15-16h00 : La gestion des autorités aux Archives de France – Hélène Zettel (Archives de France)
16h-16h30 : pause
16h30-17h15 : Modélisation et alignement en CIDOC-CRM (présentation en anglais, discussion en français) – George Bruseker (FORTH ICS).
17h15-18h15 : Projet d’extension du CIDOC-CRM pour l’histoire – Francesco Beretta (CNRS LARHRA)
18h15-18h30 : Organisation des ateliers du lendemain

Mercredi 10 mai

9h-12h : Ateliers en parallèle
Thématiques communes (mais discussion en petits groupes) : „Quel type de données je souhaite produire ?“, „Quelle est la différence entre objets / entités temporelles ?“, „Quelles difficultés je rencontre à modéliser mes données avec le CIDOC-CRM ?“, dans le contexte de la modélisation des données en CIDOC-CRM / l’extension du CIDOC-CRM pour l’histoire /

14h-14h30 : Bilan rapide des ateliers
14h30-15h30 : Pause et visite du Centre européen de réalité virtuelle
15h30-16h30 : Présentation de l’ontologie MASCARET – Ronan Querrec (ENIB CERV / Lab-STICC), Sylvain Laubé (UBO Centre François Viète)
16h30-18h : Discussion, l’extension du CIDOC-CRM pour l’histoire – animation Francesco Beretta

Jeudi 11 mai

9h-11h30 : Discussion, le consortium et la plateforme en cours de développement : état d’avancement ; programmation des chantiers communs (modélisation et ontologies) ; perspectives et feuille de route ; planification d’une journée d’études en vue du lancement public du consortium.

PANDORA: [Presentation (of) ANnotations (in a) Digital Object Repository Architecture] – a video

Print Friendly, PDF & Email

Christopher Johnson has composed a video about the PANDORA Architecture for the SWIB2016 conference. It is now available at youtube:

Abstract from SWIB program 2016: „The IIIF Presentation API specifies a web service that returns JSON-LD structured documents that together describe the structure and layout of a digitized object or other collection of images and related content.“ IIIF website The dynamic serialization of IIIF JSON-LD structured manifests via SPARQL CONSTRUCT is an interesting possibility that has great potential for cross-domain discovery and rendering of digitized objects with variable criteria. I have explored this possibility by implementing a data model in the Fedora Commons Repository that matches the specifications of the IIIF Presentation API. Fedora has the facility to index objects via Apache Camel directly to a triplestore. With SPARQL CONSTRUCT, the triplestore can serialize normalized JSON-LD as a graph. The use of „ordered lists“ (aka collections) is a fundamental component of JSON-LD and necessary feature of the IIIF manifest sequence which is represented in a canonical RDF graph as a cascade of blank nodes. In order to dynamically create the sequence with SPARQL requires that the data is modelled identically to the IIIF specification. This gist is a representation of a compacted and framed JSON-LD graph that was serialized from a SPARQL query of Fedora metadata. The ability to assemble parts of distinct, disparate and disassociated digital objects on demand in one cohesive presentation becomes a real possibility. For example, the „range“ object is equivalent to a part of a sequence, like a chapter in a book. With SPARQL, it is possible to target ranges from different „editions“ based on a metadata specification (i.e. a person, place, or date) and unify them in a manifest object which is then rendered by a client viewer like OpenSeadragon.

Workshop: Digital Humanities and Social Media. @ „The Maghreb in Transition“, Tunis, 18.-19.11.2016

Print Friendly, PDF & Email

Digital Humanities have developed over the last 10 years to a major methodological approach in the humanities. Building on humanities computing, DH has built an independent infrastructure within the humanities and now reaches back into several disciplines, including literature, history, history of art and social and political sciences. By stressing the quantitative approach to data and using statistical methods DH has contributed in various ways to bring up new hypothesis for old questions and revived the discussion about the place of humanities in science and
society. This workshop gives and introduction into the aims and methods of
digital humanities and addresses questions of power shifts during the digital
transition of the humanities as well as the role of social media in that

Some impressions from the workshop:



For the pics thanks to Driss!

For more information see:

CFP: 3rd Workshop on Computational History (HistoInformatics 2016) – 11th July, Krakow, Poland

Print Friendly, PDF & Email

Crossposted from


HistoInformatics2016 – the 3rd International Workshop on Computational History will be held on July 11th in Krakow, Poland in conjunction with the 2016 Digital Humanities conference. The HistoInformatics workshop series brings together researchers in the historical disciplines, computer science and associated disciplines as well as the cultural heritage sector. Historians, like other humanists show keen interests in computational approaches to the study and processing of digitized sources (usually text, images, audio). In computer science, experimental tools and methods stand the challenge to be validated regarding their relevance for real-world questions and applications. The HistoInformatics workshop series is designed to bring researchers in both fields together, to discuss best practices as well as possible future collaborations. Traditionally, historical research is based on the hermeneutic investigation of preserved records and artifacts to provide a reliable account of the past and to discuss different hypotheses. Alongside this hermeneutic approach historians have always been interested to translate primary sources into data and used methods, often borrowed from the social sciences, to analyze them. A new wealth of digitized historical documents have however opened up completely new challenges for the computer-assisted analysis of e.g. large text or image corpora. Historians can greatly benefit from the advances of computer and information sciences which are dedicated to the processing, organization and analysis of such data. New computational techniques can be applied to help verify and validate historical assumptions. We call this approach HistoInformatics, analogous to Bioinformatics and ChemoInformatics which have respectively proposed new research trends in biology and chemistry. The main topics of the workshop are: (1) support for historical research and analysis in general through the application of computer science theories or technologies, (2) analysis and re-use of historical texts, (3) visualisations of historical data, (4) provision of access to historical knowledge. HistoInformatics workshops took place twice in the past. The first one, HistoInformatics2013, was held in conjunction with the 5th International Conference on Social Informatics in Kyoto, Japan in 2013. The second workshop, HistoInformatics2014, took place at the same conference in the following year in Barcelona.

Our objective is to provide for the two different research communities a place to meet and exchange ideas and to facilitate discussion. We hope the workshop will result in a survey of current problems and potential solutions, with particular focus on exploring opportunities for collaboration and interaction of researchers working on various subareas within Computer Science and History Sciences.

For our workshop at DH2016 we invite papers from a wide range of topics which are of relevance for history, the cultural heritage sector and the humanities in general. The workshop targets researchers who work on the intersections of history and computer science. We invite papers on the following and related topics:

• Natural language processing and text analytics applied to historical documents
• Analysis of longitudinal document collections
• Search and retrieval in document archives and historical collections, associative search
• Causal relationship discovery based on historical resources
• Named entity recognition and disambiguation in historical texts
• Entity relationship extraction, detecting and resolving historical references in text
• Finding analogical entities over time
• Analysis of language change over time
• Modeling evolution of entities and relationships over time
• Network Analysis
• Automatic multimedia document dating
• Simulating and recreating the past course of actions, social relations, motivations, figurations
• Handling uncertain and fragmentary text and image data
• Mining Wikipedia for historical data
• OCR and transcription old texts
• Effective interfaces for searching, browsing or visualizing historical data collections
• Studies on collective memory
• Studying and modeling forgetting and remembering processes
• Estimating credibility of historical findings
• Epistemologies in the Humanities and computer science

**Practical matters**

Submission deadline: 9th May 2016
Notification deadline: 31st May 2016
Camera ready copy deadline: 7th June 2016

Submissions need to be:

• formatted according to Easychair paper formatting guidelines (
• original and have not been submitted for publication elsewhere.
• submitted in English in PDF format
• at the workshop’s Easychair page:

Full paper submissions are limited to 10 pages, while short paper submissions should be less than 5 pages. Submissions will be evaluated by at least three different reviewers who come from Computer Science and History backgrounds. The accepted papers will be published on CEUR Workshop Proceedings (

Presenters and participants are expected to cover their travel and accommodation costs.

For any inquiries, please contact the organising committee at

**Organising committee**

• Marten Düring (CVCE Luxembourg)
• Adam Jatowt (Kyoto University)
• Antal van den Bosch (Radboud University Nijmegen)
• Johannes Preiser-Kappeller (Austrian Academy of Sciences)

**Programme committee**

• Adam Kosto (Columbia University, USA)
• Andrea Nanetti (Nanyang Technological University, Singapore)
• Catherine Jones (Centre Virtuel de la Connaissance sur l’Europe (CVCE), Luxemburg)
• Ching-man Au Yeung (Huawei Noah’s Ark Lab, Hong Kong)
• Christian Gudehus (University of Bochum, Germany)
• Daan Odijk (University of Amsterdam, The Netherlands)
• Frederick Clavert (Paris Sorbonne University, France)
• Günter Mühlberger (University of Innsbruck, Austria)
• Lars Wieneke (Centre Virtuel de la Connaissance sur l’Europe (CVCE), Luxemburg)
• Marc Spaniol (Max Planck Institute for Informatics, Germany)
• Mike Kestemont (University of Antwerp, Belgium)
• Nattiya Kanhabua (LS3 Research Center, Germany)
• Nina Tahmasebi (University of Gothenburg, Sweden)
• Pim Huijnen (Utrecht University, The Netherlands)
• Robert Allen (Yonsei University, South Korea)
• Roger Evans (University of Brighton, United Kingdom)
• Tom Kenter (University of Amsterdam, The Netherlands)

Workshop „Wissenschaftsgeschichte und Digital Humanities in Forschung und Lehre“ – 07.04. bis 09.04.2016 in Göttingen

Print Friendly, PDF & Email


Zeit: Donnerstag (07.04.2016) bis Samstag (09.04.2016)
Ort: Göttingen, Tagungszentrum an der Historischen Sternwarte), Geismar Landstrasse 11, 37083 Göttingen. Unkostenbeitrag für die Kaffeepausen: 15 Euro.

Donnerstag, 7. April 2016

13:00 Begrüßung durch den Fachverband Wissenschaftsgeschichte (FVWG) und dem Göttingen Centre for Digital Humanities (GCDH)
Klaus Hentschel (FVWG)
Gerhard Lauer (GCDH)

13:15-15:55: Hinleitungen zum Thema
Chair: Gerhard Lauer (Göttingen)
(13:15) Marcus Schröter (Freiburg/Br.): Teaching Libraries zwischen der Vermittlung traditioneller Information Literacy und der Unterstützung des wissenschaftlichen Nachwuchses in den Digital Humanities
(13.55) Adrian Wüthrich (Berlin): Digitale Wissenschaftsgeschichte: Workflow, Projekte und Reflexion
(14:35) Christian Lehmann (Stuttgart): Der digitale Werkzeugkoffer des Historikers
(15:15) Annette van Dyck-Hemming / Melanie Wald-Fuhrmann (Frankfurt/Main): Fachge¬schichte der deutschsprachigen Musikwissenschaft zwischen ca. 1819 und ca. 1990
15:55-16:25: Kaffeepause

16:25-20:00: Objekt- und Personenorientierte Projekte
Chair: Heiko Weber (Göttingen)
(16:25) Frank Dührkohp (Göttingen): Das DFG-Projekt KENOM – Bereitstellung einer Infrastruktur zur Kooperativen Erschließung und Nutzung der Objektdaten von Münzsammlungen
(17:05) Sarah Bärtschi (Bern): Datenvisualisierungen als Forschungsinstrument: Distant reading am Beispiel der verstreuten Schriften Alexander von Humboldts
(17:45) Christian Thomas; Marius Hug (Berlin) Den Kosmos sondieren. Das Thermometer und andere Instrumente der Wissenschafts- und Technikgeschichte in A. v. Humboldts ‚Kosmos-Vorträgen‘
18:25-18:40 Kurze Kaffeepause
(18:40) Jörg Wettlaufer; Christopher H. Johnson (Göttingen): Semantic Blumenbach: Verknüpfungen von Texten und Objekten für die Beantwortung wissenschaftshisto-rischer Fragestellungen
(19:20) Maik Fiedler / Christian Scheel / Andreas Weiß / Ernesto William De Luca (Braunschweig): Welt der Kinder. Semantisches Information Retrieval als Zugang zu Wissensbeständen des 19. Jahrhunderts
20:00-20:15: Kurze Kaffeepause
20:15-21:15: Öffentlicher Abendvortrag (Einführung von Heiko Weber)
Andreas Christoph (Jena): … for the Masses. Virtuelle Potenziale der Wissenschaftsgeschichte in Forschung und Lehre
21:30 Gemeinsames Abendessen im „Nudelhaus“ Göttingen

Freitag, 8. April 2016

9:00-12:00 Netzwerke
Chair: Klaus Hentschel (Stuttgart)
(9:00) Dagmar Mrozik (Wuppertal): The Jesuit Science Network. Ein wissenschaftshistorisches Datenbankprojekt
(9:40) Matteo Valleriani / Dirk Wintergrün (Berlin): Das Netzwerk der Traktate De sphaera von Sacrobosco in der Frühen Neuzeit und das Subnetzwerk der Traktaten Sphaera Ioannis de Sacrobosco von Christophorus Clavius
10:20-10:40 Kurze Kaffeepause
(10:40) Andreas Haka (Stuttgart): Historische Netzwerkanalyse am Beispiel von Forschungsvorhaben aus dem Bereich der technischen Thermodynamik im 20. Jahrhundert
(11:20) Andreas Jüttemann (Berlin): Die preußischen Lungenheilstätten 1863-1964
12:00-13:00 Mittagspause (Rathauskantine Göttingen)

13:00-15:40 Prosopographische Datenbanken / Editionen
Chair: Heiko Weber (Göttingen)
(13:00) Bärbel Kröger / Christian Popp (Göttingen): Forschung und Lehre im Wandel – Die Germania Sacra in der digitalen Welt
(13:40) Torsten Himmel / Klaus Hentschel (Stuttgart): Database of Scientific Illustrators 1450–1950 (DSI)
(14:20) Michael W. Leonow (Moskau): Erfahrungen bei der Digitalisierung des Archivs der ältesten wissenschaftlichen Gesellschaft Russlands
(15:00) Vera Faßhauer (Frankfurt/Main): Digitale Edition der Tagebücher Johann Christian Senckenbergs
15:40-16.10 Kaffeepause

16:10-19:00 Wissenschaftsgeschichte und Digital Humanities
Chair: Klaus Hentschel (Stuttgart)
(16:10) Toni Bernhart (Stuttgart): 200 Jahre Digital Humanities? Vorläufer, Ausläufer und Irrläufer aus vergangenen Jahrhunderten
(16:50) Marco Büchler (Göttingen): Semantische Erschließung in Big Humanities Data
(17:30-19:00) Round-table (Podiumsdiskussion) zu Perspektiven der Wissenschaftsgeschichte und der Digital Humanities
Heiko Weber (Göttingen) – Moderation
Caroline Sporleder (Göttingen)
Andreas Haka (Stuttgart)
Rudolf Seising (Jena)
Dirk Wintergrün (Berlin)
Gerhard Lauer (Göttingen)
19.30 Gemeinsames Abendessen im „Kartoffelhaus“ Göttingen

Samstag, 9. April 2016

9:00-11:00 Briefeditionen
Chair: Caroline Sporleder (Göttingen)
(9:00) Stefan Dumont (Berlin): correspSearch ? Briefeditionen vernetzen
(9:40) Fritz Nagel (Basel): Die Basler Edition der Bernoulli-Briefwechsel. Vom Nutzen und Nachteil einer Online-Edition
(10:20) Roman Göbel (Jena): Editionsalltag im digitalen Zeitalter – ein Zwischenbericht aus der Edition der Briefe Ernst Haeckels
11:00-11:30 Kaffeepause

11:30-12:00 Digitale Informations- und Wissenssysteme
Chair: Caroline Sporleder (Göttingen)
(12:00) Tobias Winnerling (Düsseldorf): Chambers‘ „Cyclopedia“ als Informationsnetzwerk – und Fallbeispiel für die Lehre
(12.40) Henning Wolf (Göttingen): Die Onlineversion des Frühneuhochdeutschen Wörterbuchs – Grundlagen, Konzeption und Umsetzung
(13:20) Nathalie Mederake / Wiebke Blank / Hans-Joachim Patricke (Göttingen): Das Deutsche Wörterbuch und seine digitalen Hilfsmittel: Hintergründe, Umsetzung und Perspektiven der Nutzbarmachung für die Öffentlichkeit
14:00:-14:15: Schlussworte der Organisatoren

Diskussionsforum H-Soz-Kult: Historische Grundwissenschaften und die digitale Herausforderung

Print Friendly, PDF & Email

Auf dem Historikertag 2014 in Göttingen hatte es sich schon angedeutet. Der Verband der Historiker und Historikerinnen Deutschlands (VHD) wollte eine Diskussion zu den historischen Grundwissenschaften im Kontext der Digital Humanities führen und bat Rüdiger Hohls, Heiko Weber und Joerg Wettlaufer, dies in der Sektion zur Digitalisierung der Geschichtswissenschaften, die aus einem Vortragsteil und einer Podiumsdiskussion bestand, zu thematisieren. Am Ende kam diese Frage aber sicher zu kurz, und so ist es sehr zu begrüssen, dass nun eine breite Diskussion über dieses Thema über das Medium der Mailingliste von H-Soz-Kult und das Portal Clio-online geführt wird. Vielleicht ist es einigen auch so gegangen wie mir – vor den Weihnachtstagen blieb nur wenig Zeit, diese Diskussion zeitnah zu verfolgen oder sich gar selber zu beteiligen. Daher nun mit etwas Abstand und „zwischen den Tagen“ ein kurzes Statement von mir zu diesem Thema via

Bild Historische Grundwissenschaften Univ. Bamberg(Abb.: Professur für Historische Grundwissenschaften, Univ. Bamberg)

Die Diskussion mit bislang 21 Beiträgen ist nachzulesen unter:

Das Statement des VHD (Eva Schlotheuber / Frank Bösch) auf einen Blick lautet wie folgt:

– Historische Grundwissenschaften sind die Kompetenz, schriftliche und materielle Originalquellen vergangener Zeiten zu entschlüsseln und für eigene Fragestellungen fruchtbar zu machen
– Die Historischen Grundwissenschaften betreffen vormoderne, neuzeitliche und zeitgeschichtliche Quellen als auch deren Digitalisate
– Die „digitale Wende“ erfordert somit mehr und vertiefte Kompetenzen sowohl in der klassischen Quellenkritik als auch der Medienkritik
– Nur eine feste Verankerung der Historischen Grundwissenschaften in den Lehrplänen des Faches Geschichte verhindert einen drohenden Kompetenz-
und Reputationsverlust der deutschen Forschung1.

Die Grundthese besagt also, dass mit einer Digitalisierung der Quellen auch ein Ausbau der Fähigkeiten, dieselben nach wiss. Standards zu lesen und zu interpretieren, einhergehen müsste. Die Hinwendung zu den Digital Humanities, auch in der Forschungsförderung, wird somit zum Hebel für einen (Wieder-)Aufbau der Historischen Grund- oder Hilfswissenschaften, die in den letzten Jahrzehnten in Deutschland (und offensichtlich nur hier) massiv institutionell abgebaut wurden. Liest man sich etwas in die Diskussionbeiträge ein, dann gewinnt man schnell den Eindruck, dass es hier um noch grundsätzlichere Dinge wie das Selbstverständnis und die gesellschaftliche Relevanz des Fachs Geschichte selber dreht (z.B. Schmale, Müller). Sollte sich die Geschichtswissenschaft in Zukunft grundsätzlich als „Mannschaftssport“ begreifen, wie Jon Olson vorschlägt? Sollte man pragmatisch eine gewisse regionale Schwerpunktbildung für bestimmte Grundwissenschaften anstreben, wie Harald Müller in seinem Beitrag vorschlägt? Und verkomplizieren die Digital Humanities nicht eigentlich alles noch weiter, weil es nun weitere Kompetenzen (von Studenten und Professoren!) zu erwerben gilt, die parallel zu den zeitaufwändigen grundwissenschaftlichen Fähigkeiten erworben bzw. eingeübt werden müssten?

In der Tat, nicht jeder kann alles sein und können und die Mehrfachkompetenzen sind, wie Wolfgang Schmale zu Recht betont, recht dünn gesäht. Ist es nicht eher so wie Jochen Johrendt in seinem Diskussionbeitrag fordert, dass wir das Potential für das Zusammenspiel aus Digital Humanities und Hilfswissenschaften – z.B. bei der Handwriting Text Recognition, den Datenbanken für Wasserzeichen, Münzen und Siegeln usw. sehen und fördern sollten? Die Digitalisierung von Wissenschaft und Gesellschaft ist ein tiefgreifender und mit erstaunlicher Geschwindigkeit fortschreitender Prozess, der permanent selbstreflektiv verlaufen sollte. Die Diskussion um Digital Humanities und Historische Grundwissenschaften ist sicher Teil dieser notwendigen Disskussion, die sich aber nicht in Forderungen nach einer Rückkehr zum Status Quo vor dem Abbau der Lehrstühle in diesem Bereich erschöpfen darf, sondern vielmehr von den Wissenschaftlerinnen und Wissenschaftlern die offene Hinwendung zu den neuen Möglichkeiten und Techniken der digitalen Bereitstellung, Aufbereitung und Verwaltung von Informationen erfordert, die sich dann auch fruchtbar in der Weiterentwicklung und Vermittlung der Historischen Grundwissenschaften auswirken werden. Also: Historische Grundwissenschaften und Digital Humanities gehören zusammen. Paläografie muss in Zukunft digital betrieben und gelehrt werden. Wenn Projekte wie die Venice Time Machine oder Transcribus/READ mit Horizon 2020 Förderung funktionieren, dann wäre dies das beste Argument für eine solche digitalisierte Geschichtswissenschaft auf allen Ebenen: in der Analyse, der Interpretation und eben auch ich der Text- und Materialkritik, wie sie nur von den Grundwissenschaften geleistet werden kann.

Es wäre also ganz verkehrt, das Eine (die Digital Humanities) gegen das Andere (die Historischen Grundwissenschaften) ausspielen zu wollen – vielmehr können nur digitalisierte Grundwissenschaften diejenigen Kompetenzen aufbauen und verbreiten, die zur Interpretation und zum Verständnis der inzwischen immer öfter vorliegenden Quellendigitalisate notwendig sind. Vielfach wird das nur in Teamarbeit und in Kooperation zwischen Historikern mit vertieften Kompetezen in den Grundwissenschaften und Informatikern gehen. Es geht also in der Tat um Grundsätzliches und das Selbstverständnis des Fachs. Eine spannende Diskussion, die hoffentlich auch im neuen Jahr weitergeführt werden wird.

(Jörg Wettlaufer, Göttingen)

Tagungsbericht „Semantic Web in den Geisteswissenschaften“ / Paris INHA 2014: Outils, méthodes, corpus: la modélisation des données en SHS.

Print Friendly, PDF & Email

Am 17.11.14 fand in Paris ein Studientag zum Thema „Werkzeuge, Methoden, Korpora: die Modellierung von Daten in den Geistes –und Sozialwissenschaften“ statt. Organisiert und ausgerichtet von Emmanuelle Perrin im INHA, einem Zentrum für die Kunstgeschichte im Zentrum von Paris – sehr schön gelegen in der Nähe der alten BNF (Richelieu) – präsentierten sich 6 Projekte rund um das Thema Semantic Web Technologien (SWT) und Geisteswissenschaften. Dabei ging es nicht nur um kunsthistorische Projekte im engeren Sinne, sondern vielmehr um einen Überblick zu den zentralen Konzepten der digitalen Semantisierung von Daten, also Normdaten, kontrollierte Vokabularien, Ontologien und Linked Open Data (LOD). Eine zentrale Rolle bei der Umsetzung von Projekten mit SWT spielt in Frankreich die BNF und das CNRS. Beide Institutionen waren vertreten zum einen durch Antoine Isaac, dem Leiter der Abteilung Forschung und Entwicklung des Europeana-Projekts und zum anderen durch Didier Torny, dem stellvertretenden Direktor für Wissenschaftliche Information am InSHS, einer Abteilung des CNRS zur Unterstützung von Sozial- und Geisteswissenschaftlern in informationstechnologischen Dingen. Didier Torny stellte seinem sehr allgemein gehaltenen einführenden Beitrag (Données, corpus, publications : les enjeux de l’information scientifique et technique au CNRS à l’ère numérique) die drei wichtigen Organisationen bzw. Projekte bei der Unterstützung der Forscherinnen und Forscher vor: CLEO (Centre de l’edition electronique ouverte), Persée (ein Online-Zeitschriftenarchiv) und HumaNum, das Pariser Zentrum für Digital Humanities. Emmanuelle Perrin von der InVisu Gruppe des INHA, betonte die zentrale Rolle des Semantic Web für die langfristige und vor allem auch interoperable Bereitstellung von Daten und Forschungsergebnissen in den Geisteswissenschaften und stellte das eigene Projekt (STORM), eine Topographie der Stadt Kairo anhand europäischer Quellen, vor. Der Beitrag von Anila Angjeli (BNF) war hauptsächlich dem Thema Normdaten und hier speziell dem ISO Standard ISNI gewidmet, einem Versuch der BNF und der British Library, die verschiedenen nationalen Normdaten zu harmonisieren und zu integrieren. Obwohl der Ansatz sicher sehr zu begrüßen ist und offensichtlich gute Algorithmen für die Elimination von Dubletten und die Zuordnung der versch. Datensätze eingesetzt werden, bleibt doch das alte Problem vieler derartiger Projekte bestehen, dass (projekt-)relevante Personen im Datenbestand (immerhin inzwischen 8 Mio!) fehlen und nicht ohne weiteres beigefügt werden können. Der günstigste Weg ist hier eine Mitgliedschaft im ISNI Verband, der mit 800,- Euro/Jahr zu Buche schlägt.


Nach der Pause sprach René-Vincent Du Grandlaunay, der Direktor der Bibliothek des Dominikanerinstituts für Orientstudien in Kairo (IDEO) über das Modell FRBR (Functional Requirements for Bibliographic Records) zur Katalogisierung und seiner Anwendung auf die im Institut kuratierten Publikationen aus dem arabisch-islamischen Kulturkreis. Die detailverliebte Darlegung zeigte, wie hilfreich ein FRBR-Ansatz in einem Kontext sein kann, in dem Einzelausgaben aus vielen Jahrhunderten einem Werk zugeordnet werden müssen. Der letzte Beitrag des Vormittags von Matthieu Bonicel und Stefanie Gehrke war dem Europeana Projekt „Biblissima“ gewidmet, das sich mit der Modellierung der Überlieferungsgeschichte von Texten und Sammlungen im Mittelalter und der Renaissance beschäftigt. Die Modellierung erfolgt dort in CIDOC-CRM und FRBRoo und in der Präsentation konnten schon eine Reihe von interessanten Lösungen für die Modellierung von Sammlungen, aber auch von Inventaren und Katalogen vorgestellt werden.


Der Nachmittag war den Themen Linked Open Data (LOD), Ontologien für Historiker und einem Wörterbuchprojekt zum Wandel der Begrifflichkeit in der Kunstgeschichte zwischen 1600 und 1750 an der Universität von Montpellier gewidmet. Anne-Violaine Szabados (CNRS, ArScAn, UMR 7041, ESPRI-LIMC, Paris Ouest Nanterre La Défense) sprach über die Erfahrungen mit den Projekten LIMC und CLAROS, die beide dem Bereich der Archäologie zugeordnet werden können und auf die Vernetzung und Verlinkung mit LOD setzen. Francesco Beretta (CNRS, LARHRA, UMR 5190, Université de Lyon) stellte anhand des Historischen Projekts SyMoGIH (Système Modulaire de Gestion de l’Information Historique) die Probleme von Historikern bei der Suche nach einer passenden Ontologie für historische Ereignisse dar.


Das EU-geförderte Projekt LexArt, das von Flore César (CRISES, EA 4424, université Paul-Valéry, Montpellier 3) präsentiert wurde, steht noch anz am Anfang. Es versucht die Entwicklung von Kunstbegriffen in der Frühen Neuzeit anhand einer detaillierten Analyse von 300 Kunsttraktaten und Abhandlungen nachzuzeichnen, die anhand eines digitalen Werkzeugs gesammelt, analysiert und präsentiert werden sollen. Dies wird in Zusammenarbeit mit dem Trierer Zentrum für Digital Humanities realisiert werden, das entsprechend Expertise im Kontext digitalisierter Wörterbücher besitzt. Zum Abschluss fasste Mercedes Volait (InVisu, USR 3103 CNRS/INHA) die Ergebnisse des Tages noch einmal zusammen und erwähnte dabei auch einige der Themen, die nicht angesprochen werden konnten, wie z.B. die juristischen Fragen rund um LOD.

Insgesamt stellt sich für mich das Interesse an Semantic Web Technologien für geisteswissenschaftliche Projekte in Frankreich positiv da. Darauf weisen zumindest die besprochene Veranstaltung aber auch andere Aktivitäten in diese Richtung hin, die derzeit vor allem in Paris stattfinden. Am 12 Dezember wird dort z.B. eine Schulung „Einführung in das Semantic Web“ durch den früheren Leiter der Informatikabteilung der BNF, Romain Wenz, angeboten. Insbesondere die Ausrichtung von Europeana, die sich mit EDM auf ein graphenbasiertes Datenformat festgelegt hat, befördert die Akzeptanz und auch die Beschäftigung mit Semantik Web Technologien, gerade in den Geistes- und Sozialwissenschaften. Angebote wie erhöhen dabei die Sichtbarkeit und machen den konkreten Nutzen von Semantic Web Technologien evident.

Die Folien der Beiträge sind jetzt online unter:

Jörg Wettlaufer, Göttingen

Outils, méthodes, corpus : la modélisation des données en SHS.

Emmanuelle Perrin (InVisu, USR 3103 CNRS/INHA) : Présentation de la journée.

Didier Torny (directeur adjoint scientifique en charge de l’information scientifique et technique à l’InSHS) : Données, corpus, publications : les enjeux de l’information scientifique et technique au CNRS à l’ère numérique.

Première parti : Présidence de séance : Antoine Isaac (R & D manager, Europeana)

Anila Angjeli (BnF, département de l’information bibliographique et numérique) : ISNI – Les enjeux d’un identifiant international pour les personnes et les organismes.

René-Vincent Du Grandlaunay (directeur de la bibliothèque de l’Institut dominicain d’études orientales, Le Caire) : Le modèle FRBR appliqué au patrimoine arabo-musulman.

Matthieu Bonicel (BnF, coordinateur de Biblissima) et Stefanie Gehrke (coordinatrice métadonnées, Biblissima) : Biblissima et la modélisation de l’histoire de la transmission des textes et de la constitution des collections.

Seconde partie (Présidence de séance : Anila Angjeli)

Anne-Violaine Szabados (CNRS, ArScAn, UMR 7041, ESPRI-LIMC, Paris Ouest Nanterre La Défense) : L’expérience LIMC & CLAROS : pour l’élévation des données du patrimoine et de la culture dans le Linked Open Data.

Francesco Beretta (CNRS, LARHRA, UMR 5190, Université de Lyon) : Le projet SyMoGIH et le web de données.

Flore César (CRISES, EA 4424, université Paul-Valéry, Montpellier 3) : Modéliser le transfert des savoirs en Europe septentrionale aux xviie et xviiie siècles : l’exemple du projet LexArt.

Mercedes Volait (InVisu, USR 3103 CNRS/INHA) :Synthèse de la journée et discussion.

Schöner Bericht über die digitalen Aktivitäten auf dem Historikertag in Göttingen… #HisTag14 #digigw14


Print Friendly, PDF & Email

Ria Hänsich, Historikerin und Kunsthistorikerin aus Münster Redakteurin am IStG, hat einen schönen Bericht zu den verschiedenen digitalen Sektionen verfasst, die auf dem diesjährigen Historikertag in Göttingen stattgefunden haben. Er ist unter der folgenden Adresse als PDF abrufbar:

Rückschau: DH2014 Lausanne, Switzerland – 7.7.-11.7.2014

Print Friendly, PDF & Email

DH2014 ist vorbei und Deutschland Fussball-Weltmeister. Da gibt es zwar keinen direkten Zusammenhang, aber auf der Tagung war auch nicht bei allen Vorträgen der Zusammenhang zu Digital Humanities offensichtlich, daher sei diese Bemerkung hier einmal erlaubt. Mit den Workshops am Montag und Dienstag dauerte die Tagung eine ganze Woche, die prall gefüllt war mit Vorträgen, Postern, einem Fun Run und sehr sehr viel Regen. Das Wetter hat sicher auch so manchen davon abgehalten, die reizvolle Landschaft des Genfer Sees näher zu erkunden. Statt dessen drängte es sich am Veranstaltungsort. Mit über 700 Teilnehmerinnen und Teilnehmern war DH2014 bislang die größte Veranstaltung ihrer Art. Das hat sich natürlich auch auf den Charakter der Konferenz ausgewirkt.
Am ersten Tag der Tagung war es schwierig, eine der acht Parallelsektionen zu besuchen, so voll waren die darfür vorgesehenen Räume. Das ist aber vielleicht auch schon der einzige Kriktikpunkt, den man der ansonsten vorbildlich von Claire Clivaz (UNIL) und Frederik Kaplan (EPFL) organisierten Tagung anheften kann. Besonders hervorzuheben ist die Vorbereitung der Tagung durch Melissa Terras (UCL), die das peer review der Beiträge organisierte und sich auch sonst als gute Seele der Konferenz herausstellte (sozusagen der Schweinsteiger der DH). Für die verhinderte Bethany Nowviskie (University of Virginia Library) sprach sie deren Redemanuskript – digital humanities in the anthropocene – eine teilweise düstere und zugleich poetische und feinfühlige Reflektion über DH im Kontext von Umwelt, Natur und Technologie der modernen Welt. Die Frage nach der Relevanz des von ihr konstatierten Artensterbens für die Arbeit in den DH blieb über die postulierte Analogie von Vergänglichkeit in Natur und Kultur hinaus für mich zwar weitgehend unbeantwortet, aber ein Ohrenschmaus war die Rede allemal für diejenigen, die der englischen Sprache auf dieser Schöpfungshöhe mächtig sind (bei einer internationalen Tagung wie dieser übrigens nicht unbedingt ein Zustand, von dem man ausgehen sollte). Sie brachte auch etwas politisches in die DH Community, das ich bislang so nicht wahrgenommen hatte.
A propos Community. Ray Siemens beschwor diese Community in gewohnt souverainer Art in seiner Keynote: Das wir zählt! Alle, die sich noch irgendwie nicht zur großen Gemeinschaft der Digital Humanities zugehörig fühlten – spätestens nach seiner Rede waren sie in den weiten rhetorischen Armen von Siemens angekommen. Das führte aber sogleich zu Lästerei auf Twitter, diesem vermutlich von der NSA ins Leben gerufenen Kurznachrichtendienst, bei dem man der gesamten Welt in Echtzeit mitteilen kann, was man gerade denkt, fühlt und macht. Die Kritik prallte aber an Siemens ab wie der Zölibat am Papst (siehe aber, inzwischen dementiert: Katholische Priester: Papst Franziskus deutet Lösungen in Zölibatsfrage an). Und das ist auch richtig so, denn wir haben ja schließlich gestern erst gesehen, dass Teamgeist und „Community“ alles erreichen kann, wenn er bzw. sie nur wollen – sogar den Weltmeistertitel.
Sehr gelungen waren auch das Logo und die Corporate Identity der Tagung. Die von einem „italienschen“! Designer entworfenen Netzwerkvisualisierungen der aktiven Tagungsteilnehmerinnen und -teilnehmer, die zunächst als begehbare Bodenkunst vor dem (imposanten und gerade neu eröffneten) Swiss Tech Convention Centre sowie auch multimedial (mit Photos)! gezeigt wurden, kamen sehr gut an und waren ein guter Icebreaker für die Kontaktaufnahme. Diese kleinen Kunstwerke waren damit vielleicht dem Kern von „Digital Humanities“ näher als einige der Vorträge an den folgenden Tagen.



Fast hätte ich nun bei meiner kurzen Umschau die Eröffnungsvorlesung von Bruno Latour, dem großen französischen Wissenschaftshistoriker, vergessen. Er sprach zum Thema: „Rematerializing Humanities Thanks to Digital Traces“. Seiner Beobachtung des Wiederstarken des „Empirismus“ durch die moderne Digitalisierung ist inhaltlich und faktisch zuzustimmen. Es bleibt für mich allerdings offen, ob das „Digitale“ wirklich am treffendsten durch seine Materialität beschrieben ist – als ob Denkprozesse im Gehirn weniger materiell wären? Aber das sind vielleicht philosophische Fragen, mit denen sich die Geisteswissenschaftler beschäftigen sollten. Ich als Digitaler Humanist bin jedenfalls auch gerne materiell…


Zum Schluß noch einige Links zu interessanten Projekten oder Folien, die mir im Laufe der Tage unter gekommen sind. Die nächste DH Konferenz der ADHO findet übrigens vom 29. Juni bis 3. Juli 2015 in Sidney statt! Und 2016 folgt dann Krakau.


Abstracts Proceedings of DH 2015 als PDF mit ca. 85MB

Alexander O’Connor, David Lewis, Felix Sasaki: Towards Linking Linguistic Resources in the Humanities