1. Digital-Humanities-Stammtisch 2017 am 27. Februar im Apex/Göttingen

Am 27.02.17 um 20.00 Uhr im Apex findet der 1. DH-Stammtisch 2017 (in lockerer Fortsetzung des früheren Webmontag) statt. Wie der Stammtisch auf lange Sicht gestalten werden soll – als reines Vernetzungstreffen oder themenbezogen mit Schwerpunkten aus der IT, Sicherheit, Open-Source-Tools, geistes- und sozialwissenschaftlichen Fragestellungen – soll auf diesem ersten Treffen besprochen werden! Alle sind herzlich eingeladen.

Bei Interesse bitte Eintrag unter: http://doodle.com/poll/ccaawe24tc6hhkkm. Rückfragen können an: franziska.pannach@stud.uni-goettingen.de gestellt werden.

PANDORA: [Presentation (of) ANnotations (in a) Digital Object Repository Architecture] – a video

Christopher Johnson has composed a video about the PANDORA Architecture for the SWIB2016 conference. It is now available at youtube:

Abstract from SWIB program 2016: „The IIIF Presentation API specifies a web service that returns JSON-LD structured documents that together describe the structure and layout of a digitized object or other collection of images and related content.“ IIIF website The dynamic serialization of IIIF JSON-LD structured manifests via SPARQL CONSTRUCT is an interesting possibility that has great potential for cross-domain discovery and rendering of digitized objects with variable criteria. I have explored this possibility by implementing a data model in the Fedora Commons Repository that matches the specifications of the IIIF Presentation API. Fedora has the facility to index objects via Apache Camel directly to a triplestore. With SPARQL CONSTRUCT, the triplestore can serialize normalized JSON-LD as a graph. The use of „ordered lists“ (aka collections) is a fundamental component of JSON-LD and necessary feature of the IIIF manifest sequence which is represented in a canonical RDF graph as a cascade of blank nodes. In order to dynamically create the sequence with SPARQL requires that the data is modelled identically to the IIIF specification. This gist is a representation of a compacted and framed JSON-LD graph that was serialized from a SPARQL query of Fedora metadata. The ability to assemble parts of distinct, disparate and disassociated digital objects on demand in one cohesive presentation becomes a real possibility. For example, the „range“ object is equivalent to a part of a sequence, like a chapter in a book. With SPARQL, it is possible to target ranges from different „editions“ based on a metadata specification (i.e. a person, place, or date) and unify them in a manifest object which is then rendered by a client viewer like OpenSeadragon.

Workshop: Digital Humanities and Social Media. @ „The Maghreb in Transition“, Tunis, 18.-19.11.2016

Digital Humanities have developed over the last 10 years to a major methodological approach in the humanities. Building on humanities computing, DH has built an independent infrastructure within the humanities and now reaches back into several disciplines, including literature, history, history of art and social and political sciences. By stressing the quantitative approach to data and using statistical methods DH has contributed in various ways to bring up new hypothesis for old questions and revived the discussion about the place of humanities in science and
society. This workshop gives and introduction into the aims and methods of
digital humanities and addresses questions of power shifts during the digital
transition of the humanities as well as the role of social media in that
process.

Some impressions from the workshop:

_dsc5269

_dsc5011

For the pics thanks to Driss!

For more information see:

https://maghrebitransition.wordpress.com/2016/11/04/announcement-of-our-workshop-digital-humanities/

Bericht von der Tagung „Digital Scholarly Editions as Interfaces“ in Graz, 23.-24.9.16

Graz ist immer eine Reise wert. Seit es das Zentrum für Informationsmodellierung an der dortigen Universität gibt, ist fast umungänglich geworden mindestens einmal im Jahr dort vorbei zu schauen. Eine gute Gelegenheit dazu war die Tagung „Digital Scholarly Editions as Interfaces„, die vom 23. bis 24. September 2016 in Graz direkt vor der TEI Tagung in Wien stattfand. Mit über 100 Anmeldungen war die Tagung gut besucht und vor allem auf der Seite der Redner sehr international besetzt. Tagungssprache war Englisch. Gesponsert und auch organisiert wurde die Veranstaltung von dixit, dem „Digital Scholarly Editions Initial Training Network“. Ich erlaube mir im folgenden nur meine „persönlichen“ Highlights herauszupicken und näher zu besprechen. Das Niveau der Vorträge war insgesamt hoch und die Teilnahme auf jeden Fall ein Gewinn. Ich bin schon gespannt, welche Veranstaltung mich als nächstes nach Graz lockt.

Die Tagung begann mit einer Keynote von Dot Porter (University of Pennsylvania), die sich ganz grundsätzlich mit der Frage: „What is an Edition anyway? A critical examination of Digital Editions since 2002“ beschäftigte. Im Mittelpunkt ihres Vortrags standen mehrere Umfragen, die sie seit Anfang der 2000er Jahre in der DH community durchführt und die sich mit der Verwendung von digitalen Editionen durch Wissenschaftlerinnen und Wissenschaftler beschäftigen. Zentral ist dabei die Unterscheidung zwischen digitalisierten und digitalen Editionen, also den „nur“ in digitalem Format angebotenen gedruckten Editionen und den ohne Druckvorlage, rein digital erstellen Editionen. Die neueste Umfrage unter Mediaevisten im September 2016 erbrachte die folgende, interessante Nutzerstatistik:

Repräsentativ oder nicht, die Statistik weist zumindest auf einen hohen Anteil der Nutzung von digitalisierten und gedruckten Editionen bei solchen Personen hin, die häufig oder dauernd diese Textsorte verwenden. Damit bleibt die rein digitale Edition weiterhin ein Experimentierfeld, in dem sich erst noch Standards herausbilden und etablieren müssen. Dazu trägt sicher die Zeitschrift ride (Review Journal for digital Editions and Ressources) bei, das seit einigen Jahren versucht Standards in diesem Bereich zu schaffen.

Schon in diesem ersten Beitrag wurde am Ende eine Dichotomie zwischen Interface und Text postuliert, die im Anschluss in einer Reihe von Beiträgen wieder aufgenommen wurde. Interface over Text oder Text over Interface – diese Frage nahmen einige Vorträge gerne wieder auf und gaben ihre subjektive Antwort.

In den nun folgenden Sessions des ersten Tages fielen eine Reihe von Vorträgen wg. kurzfristiger Absagen aus, so dass eine intensive Diskussion der übrigen Beiträge möglich wurde. Eugene W. Lyman (Independent Scholar) wies die Teilnehmer auf die Relevanz von Verläßlichkeit bei Editionen, seien sie digital oder analog, hin. Dies würde, bei einer Konzentration auf Interfaces, leider schnell übersehen (Digital Scholarly Editions and the Affordances of Reliability). Christopher M. Ohge (University of California, Berkeley) stellte dann die erste konkrete Edition, die Notizbücher von Mark Twain, vor (http://www.marktwainproject.org/). Sein Vortrag war mit „Navigating Readability and Reliability in Digital Documentary Editions“ überschrieben und so nahm somit die oben gestellte Frage nach Interface und Verläßlichkeit des Texts auf. Die folgenden Vorträge wandten sich Themen der Visualierung, Typhographie und des Designs von Digitalen Editionen zu und dieser Komplex wurde abgerundet durch eine Keynote von Stan Ruecker (ITT Institute of Design, Chicago), die den ersten Tag beschloss. Es ist ein Verdienst der Tagung, dass konkret Designer eingeladen wurden (auch wenn am Ende nur wenige anwesend waren) und ihre Perspektive auf Digitale Editionen mitteilen konnten. Nur allzu oft bleibt dieser Aspekt aus Kostengründen oder Ignoranz bei wissenschaftlichen Editionen unberücksichtigt – mit den uns allen bekannten Folgen und Effekten. In diesem Zusammenhang wurden auch agile Methoden bei Design und Software-Entwicklung vorgestellt – inzwischen Standards im freiberuflichen Feld, aber bei weitem noch nicht Standard in den Geisteswissenschaften und den Digital Humanities.

Der zweite Tag begann mit einer „Nerd-Session“, in der mehr technische Fragen der Programmierung und Entwicklung von Interfaces für Digitale Editionen thematisiert wurden. Hugh Cayless (Duke University Libraries) startete mit einem Vortrag über
„Critical Editions and the Data Model as Interface“, in dem er eine Edition von lateinischen Texten vorstellte, die nicht auf TEI und XSLT Transformationen beruht, sondern über Javascript verschiedene Sichten auf Text ermöglicht. Seine Slides und eine Demo sind unter https://goo.gl/q7kbY0 abrufbar. Chiara Di Pietro (University of Pisa) und Roberto Rosselli Del Turco (University of Turin) sprachen anschliessend über „Between innovation and conservation: the narrow path of UI design for the Digital Scholarly Edition“ und stellten dabei die Version 2.0. des bekannten EVT-Editionstools vor.

Der dritte talk der Session ist mein persönlicher Spitzenreiter der Tagung.
Jeffrey C. Witt (Loyola University Maryland) sprach nicht nur kompetent sondern auch sehr anschaulich über „Digital Scholarly Editions as API Consuming Applications“ und stellte verschiedene LOD-Lösungen vor, die unter Einbeziehung des IIIF Standards ganz neue Möglichkeiten der Integration und Präsentation von Daten ermöglichen. Sein Vortrag und viele Beispiele finden sich auf http://lombardpress.org/. Ich sehe hier in der Tat eine wichtige Perspektive für die Zukunft der digitalen Editionen, die ja auch im MEDEA Projekt (modelling semantically enriched editions of accounts) anklingt, das leider auf der Tagung nicht vorgestellt wurde, aber dessen Protagonisten anwesend waren.

Die weitere Talks des zweiten Tages widmeten sich theortischen Implikationen und nahmen die Frage der Dichotomie von Interface und Edition wieder auf. Peter Robinson (University of Saskatchewan) schlug sich dabei ganz auf die Seite der Editionen (Why Interfaces Do Not and Should Not Matter for Scholarly Digital Editions), während Tara Andrews (Univ. Wien) und Joris van Zundert (Huygens Institute for the History of The Netherlands) die Seite der Intefaces mit einem Beitrag über das „Interface als Integrales Elements des Arguments einer Edition“ stark machten. Der Nachmittag war den anwenderorientierten Lösungen gewidment und es wurden Themen wie user-centred design und co-creation Ansätze diskutiert. Die Liste der Beiträge und ein Abstraktheft ist auf den Seiten des Grazer Instituts für Informationsmodellierung abrufbar. Im Fazit war dies eine Tagung, die die weite Anreise gelohnt hat und, wie schon oben erwähnt, Lust auf die nächste Reise nach Graz macht, zum Beispiel zur Digital Libraries Tagung 2017, die vom 2.-3. März 2017 ebendort stattfinden wird und deren CFP just gestern abgelaufen ist.

Jörg Wettlaufer, Göttingen

CFP: 3rd Workshop on Computational History (HistoInformatics 2016) – 11th July, Krakow, Poland

Crossposted from http://histoinformatics.org/

dh_2016_logo

**Objectives**
HistoInformatics2016 – the 3rd International Workshop on Computational History will be held on July 11th in Krakow, Poland in conjunction with the 2016 Digital Humanities conference. The HistoInformatics workshop series brings together researchers in the historical disciplines, computer science and associated disciplines as well as the cultural heritage sector. Historians, like other humanists show keen interests in computational approaches to the study and processing of digitized sources (usually text, images, audio). In computer science, experimental tools and methods stand the challenge to be validated regarding their relevance for real-world questions and applications. The HistoInformatics workshop series is designed to bring researchers in both fields together, to discuss best practices as well as possible future collaborations. Traditionally, historical research is based on the hermeneutic investigation of preserved records and artifacts to provide a reliable account of the past and to discuss different hypotheses. Alongside this hermeneutic approach historians have always been interested to translate primary sources into data and used methods, often borrowed from the social sciences, to analyze them. A new wealth of digitized historical documents have however opened up completely new challenges for the computer-assisted analysis of e.g. large text or image corpora. Historians can greatly benefit from the advances of computer and information sciences which are dedicated to the processing, organization and analysis of such data. New computational techniques can be applied to help verify and validate historical assumptions. We call this approach HistoInformatics, analogous to Bioinformatics and ChemoInformatics which have respectively proposed new research trends in biology and chemistry. The main topics of the workshop are: (1) support for historical research and analysis in general through the application of computer science theories or technologies, (2) analysis and re-use of historical texts, (3) visualisations of historical data, (4) provision of access to historical knowledge. HistoInformatics workshops took place twice in the past. The first one, HistoInformatics2013, was held in conjunction with the 5th International Conference on Social Informatics in Kyoto, Japan in 2013. The second workshop, HistoInformatics2014, took place at the same conference in the following year in Barcelona.

Our objective is to provide for the two different research communities a place to meet and exchange ideas and to facilitate discussion. We hope the workshop will result in a survey of current problems and potential solutions, with particular focus on exploring opportunities for collaboration and interaction of researchers working on various subareas within Computer Science and History Sciences.

For our workshop at DH2016 we invite papers from a wide range of topics which are of relevance for history, the cultural heritage sector and the humanities in general. The workshop targets researchers who work on the intersections of history and computer science. We invite papers on the following and related topics:

• Natural language processing and text analytics applied to historical documents
• Analysis of longitudinal document collections
• Search and retrieval in document archives and historical collections, associative search
• Causal relationship discovery based on historical resources
• Named entity recognition and disambiguation in historical texts
• Entity relationship extraction, detecting and resolving historical references in text
• Finding analogical entities over time
• Analysis of language change over time
• Modeling evolution of entities and relationships over time
• Network Analysis
• Automatic multimedia document dating
• Simulating and recreating the past course of actions, social relations, motivations, figurations
• Handling uncertain and fragmentary text and image data
• Mining Wikipedia for historical data
• OCR and transcription old texts
• Effective interfaces for searching, browsing or visualizing historical data collections
• Studies on collective memory
• Studying and modeling forgetting and remembering processes
• Estimating credibility of historical findings
• Epistemologies in the Humanities and computer science

**Practical matters**

Submission deadline: 9th May 2016
Notification deadline: 31st May 2016
Camera ready copy deadline: 7th June 2016

Submissions need to be:

• formatted according to Easychair paper formatting guidelines (http://www.easychair.org/publications/?page=1594225690).
• original and have not been submitted for publication elsewhere.
• submitted in English in PDF format
• at the workshop’s Easychair page: https://easychair.org/conferences/?conf=histoinformatics2016.

Full paper submissions are limited to 10 pages, while short paper submissions should be less than 5 pages. Submissions will be evaluated by at least three different reviewers who come from Computer Science and History backgrounds. The accepted papers will be published on CEUR Workshop Proceedings (http://ceur-ws.org/).

Presenters and participants are expected to cover their travel and accommodation costs.

For any inquiries, please contact the organising committee at histoinformatics2016@easychair.org

**Organising committee**

• Marten Düring (CVCE Luxembourg)
• Adam Jatowt (Kyoto University)
• Antal van den Bosch (Radboud University Nijmegen)
• Johannes Preiser-Kappeller (Austrian Academy of Sciences)

**Programme committee**

• Adam Kosto (Columbia University, USA)
• Andrea Nanetti (Nanyang Technological University, Singapore)
• Catherine Jones (Centre Virtuel de la Connaissance sur l’Europe (CVCE), Luxemburg)
• Ching-man Au Yeung (Huawei Noah’s Ark Lab, Hong Kong)
• Christian Gudehus (University of Bochum, Germany)
• Daan Odijk (University of Amsterdam, The Netherlands)
• Frederick Clavert (Paris Sorbonne University, France)
• Günter Mühlberger (University of Innsbruck, Austria)
• Lars Wieneke (Centre Virtuel de la Connaissance sur l’Europe (CVCE), Luxemburg)
• Marc Spaniol (Max Planck Institute for Informatics, Germany)
• Mike Kestemont (University of Antwerp, Belgium)
• Nattiya Kanhabua (LS3 Research Center, Germany)
• Nina Tahmasebi (University of Gothenburg, Sweden)
• Pim Huijnen (Utrecht University, The Netherlands)
• Robert Allen (Yonsei University, South Korea)
• Roger Evans (University of Brighton, United Kingdom)
• Tom Kenter (University of Amsterdam, The Netherlands)

Workshop „Wissenschaftsgeschichte und Digital Humanities in Forschung und Lehre“ – 07.04. bis 09.04.2016 in Göttingen

Programm

Zeit: Donnerstag (07.04.2016) bis Samstag (09.04.2016)
Ort: Göttingen, Tagungszentrum an der Historischen Sternwarte), Geismar Landstrasse 11, 37083 Göttingen. Unkostenbeitrag für die Kaffeepausen: 15 Euro.

Donnerstag, 7. April 2016

13:00 Begrüßung durch den Fachverband Wissenschaftsgeschichte (FVWG) und dem Göttingen Centre for Digital Humanities (GCDH)
Klaus Hentschel (FVWG)
Gerhard Lauer (GCDH)

13:15-15:55: Hinleitungen zum Thema
Chair: Gerhard Lauer (Göttingen)
(13:15) Marcus Schröter (Freiburg/Br.): Teaching Libraries zwischen der Vermittlung traditioneller Information Literacy und der Unterstützung des wissenschaftlichen Nachwuchses in den Digital Humanities
(13.55) Adrian Wüthrich (Berlin): Digitale Wissenschaftsgeschichte: Workflow, Projekte und Reflexion
(14:35) Christian Lehmann (Stuttgart): Der digitale Werkzeugkoffer des Historikers
(15:15) Annette van Dyck-Hemming / Melanie Wald-Fuhrmann (Frankfurt/Main): Fachge¬schichte der deutschsprachigen Musikwissenschaft zwischen ca. 1819 und ca. 1990
15:55-16:25: Kaffeepause

16:25-20:00: Objekt- und Personenorientierte Projekte
Chair: Heiko Weber (Göttingen)
(16:25) Frank Dührkohp (Göttingen): Das DFG-Projekt KENOM – Bereitstellung einer Infrastruktur zur Kooperativen Erschließung und Nutzung der Objektdaten von Münzsammlungen
(17:05) Sarah Bärtschi (Bern): Datenvisualisierungen als Forschungsinstrument: Distant reading am Beispiel der verstreuten Schriften Alexander von Humboldts
(17:45) Christian Thomas; Marius Hug (Berlin) Den Kosmos sondieren. Das Thermometer und andere Instrumente der Wissenschafts- und Technikgeschichte in A. v. Humboldts ‚Kosmos-Vorträgen‘
18:25-18:40 Kurze Kaffeepause
(18:40) Jörg Wettlaufer; Christopher H. Johnson (Göttingen): Semantic Blumenbach: Verknüpfungen von Texten und Objekten für die Beantwortung wissenschaftshisto-rischer Fragestellungen
(19:20) Maik Fiedler / Christian Scheel / Andreas Weiß / Ernesto William De Luca (Braunschweig): Welt der Kinder. Semantisches Information Retrieval als Zugang zu Wissensbeständen des 19. Jahrhunderts
20:00-20:15: Kurze Kaffeepause
20:15-21:15: Öffentlicher Abendvortrag (Einführung von Heiko Weber)
Andreas Christoph (Jena): … for the Masses. Virtuelle Potenziale der Wissenschaftsgeschichte in Forschung und Lehre
21:30 Gemeinsames Abendessen im „Nudelhaus“ Göttingen

Freitag, 8. April 2016

9:00-12:00 Netzwerke
Chair: Klaus Hentschel (Stuttgart)
(9:00) Dagmar Mrozik (Wuppertal): The Jesuit Science Network. Ein wissenschaftshistorisches Datenbankprojekt
(9:40) Matteo Valleriani / Dirk Wintergrün (Berlin): Das Netzwerk der Traktate De sphaera von Sacrobosco in der Frühen Neuzeit und das Subnetzwerk der Traktaten Sphaera Ioannis de Sacrobosco von Christophorus Clavius
10:20-10:40 Kurze Kaffeepause
(10:40) Andreas Haka (Stuttgart): Historische Netzwerkanalyse am Beispiel von Forschungsvorhaben aus dem Bereich der technischen Thermodynamik im 20. Jahrhundert
(11:20) Andreas Jüttemann (Berlin): Die preußischen Lungenheilstätten 1863-1964
12:00-13:00 Mittagspause (Rathauskantine Göttingen)

13:00-15:40 Prosopographische Datenbanken / Editionen
Chair: Heiko Weber (Göttingen)
(13:00) Bärbel Kröger / Christian Popp (Göttingen): Forschung und Lehre im Wandel – Die Germania Sacra in der digitalen Welt
(13:40) Torsten Himmel / Klaus Hentschel (Stuttgart): Database of Scientific Illustrators 1450–1950 (DSI)
(14:20) Michael W. Leonow (Moskau): Erfahrungen bei der Digitalisierung des Archivs der ältesten wissenschaftlichen Gesellschaft Russlands
(15:00) Vera Faßhauer (Frankfurt/Main): Digitale Edition der Tagebücher Johann Christian Senckenbergs
15:40-16.10 Kaffeepause

16:10-19:00 Wissenschaftsgeschichte und Digital Humanities
Chair: Klaus Hentschel (Stuttgart)
(16:10) Toni Bernhart (Stuttgart): 200 Jahre Digital Humanities? Vorläufer, Ausläufer und Irrläufer aus vergangenen Jahrhunderten
(16:50) Marco Büchler (Göttingen): Semantische Erschließung in Big Humanities Data
(17:30-19:00) Round-table (Podiumsdiskussion) zu Perspektiven der Wissenschaftsgeschichte und der Digital Humanities
Heiko Weber (Göttingen) – Moderation
Caroline Sporleder (Göttingen)
Andreas Haka (Stuttgart)
Rudolf Seising (Jena)
Dirk Wintergrün (Berlin)
Gerhard Lauer (Göttingen)
19.30 Gemeinsames Abendessen im „Kartoffelhaus“ Göttingen

Samstag, 9. April 2016

9:00-11:00 Briefeditionen
Chair: Caroline Sporleder (Göttingen)
(9:00) Stefan Dumont (Berlin): correspSearch ? Briefeditionen vernetzen
(9:40) Fritz Nagel (Basel): Die Basler Edition der Bernoulli-Briefwechsel. Vom Nutzen und Nachteil einer Online-Edition
(10:20) Roman Göbel (Jena): Editionsalltag im digitalen Zeitalter – ein Zwischenbericht aus der Edition der Briefe Ernst Haeckels
11:00-11:30 Kaffeepause

11:30-12:00 Digitale Informations- und Wissenssysteme
Chair: Caroline Sporleder (Göttingen)
(12:00) Tobias Winnerling (Düsseldorf): Chambers‘ „Cyclopedia“ als Informationsnetzwerk – und Fallbeispiel für die Lehre
(12.40) Henning Wolf (Göttingen): Die Onlineversion des Frühneuhochdeutschen Wörterbuchs – Grundlagen, Konzeption und Umsetzung
(13:20) Nathalie Mederake / Wiebke Blank / Hans-Joachim Patricke (Göttingen): Das Deutsche Wörterbuch und seine digitalen Hilfsmittel: Hintergründe, Umsetzung und Perspektiven der Nutzbarmachung für die Öffentlichkeit
14:00:-14:15: Schlussworte der Organisatoren
14:15 ENDE DES WORKSHOPS