Rückschau: DH2014 Lausanne, Switzerland – 7.7.-11.7.2014

Print Friendly, PDF & Email

IMG_0767
DH2014 ist vorbei und Deutschland Fussball-Weltmeister. Da gibt es zwar keinen direkten Zusammenhang, aber auf der Tagung war auch nicht bei allen Vorträgen der Zusammenhang zu Digital Humanities offensichtlich, daher sei diese Bemerkung hier einmal erlaubt. Mit den Workshops am Montag und Dienstag dauerte die Tagung eine ganze Woche, die prall gefüllt war mit Vorträgen, Postern, einem Fun Run und sehr sehr viel Regen. Das Wetter hat sicher auch so manchen davon abgehalten, die reizvolle Landschaft des Genfer Sees näher zu erkunden. Statt dessen drängte es sich am Veranstaltungsort. Mit über 700 Teilnehmerinnen und Teilnehmern war DH2014 bislang die größte Veranstaltung ihrer Art. Das hat sich natürlich auch auf den Charakter der Konferenz ausgewirkt.
Am ersten Tag der Tagung war es schwierig, eine der acht Parallelsektionen zu besuchen, so voll waren die darfür vorgesehenen Räume. Das ist aber vielleicht auch schon der einzige Kriktikpunkt, den man der ansonsten vorbildlich von Claire Clivaz (UNIL) und Frederik Kaplan (EPFL) organisierten Tagung anheften kann. Besonders hervorzuheben ist die Vorbereitung der Tagung durch Melissa Terras (UCL), die das peer review der Beiträge organisierte und sich auch sonst als gute Seele der Konferenz herausstellte (sozusagen der Schweinsteiger der DH). Für die verhinderte Bethany Nowviskie (University of Virginia Library) sprach sie deren Redemanuskript – digital humanities in the anthropocene – eine teilweise düstere und zugleich poetische und feinfühlige Reflektion über DH im Kontext von Umwelt, Natur und Technologie der modernen Welt. Die Frage nach der Relevanz des von ihr konstatierten Artensterbens für die Arbeit in den DH blieb über die postulierte Analogie von Vergänglichkeit in Natur und Kultur hinaus für mich zwar weitgehend unbeantwortet, aber ein Ohrenschmaus war die Rede allemal für diejenigen, die der englischen Sprache auf dieser Schöpfungshöhe mächtig sind (bei einer internationalen Tagung wie dieser übrigens nicht unbedingt ein Zustand, von dem man ausgehen sollte). Sie brachte auch etwas politisches in die DH Community, das ich bislang so nicht wahrgenommen hatte.
A propos Community. Ray Siemens beschwor diese Community in gewohnt souverainer Art in seiner Keynote: Das wir zählt! Alle, die sich noch irgendwie nicht zur großen Gemeinschaft der Digital Humanities zugehörig fühlten – spätestens nach seiner Rede waren sie in den weiten rhetorischen Armen von Siemens angekommen. Das führte aber sogleich zu Lästerei auf Twitter, diesem vermutlich von der NSA ins Leben gerufenen Kurznachrichtendienst, bei dem man der gesamten Welt in Echtzeit mitteilen kann, was man gerade denkt, fühlt und macht. Die Kritik prallte aber an Siemens ab wie der Zölibat am Papst (siehe aber, inzwischen dementiert: Katholische Priester: Papst Franziskus deutet Lösungen in Zölibatsfrage an). Und das ist auch richtig so, denn wir haben ja schließlich gestern erst gesehen, dass Teamgeist und „Community“ alles erreichen kann, wenn er bzw. sie nur wollen – sogar den Weltmeistertitel.
Sehr gelungen waren auch das Logo und die Corporate Identity der Tagung. Die von einem „italienschen“! Designer entworfenen Netzwerkvisualisierungen der aktiven Tagungsteilnehmerinnen und -teilnehmer, die zunächst als begehbare Bodenkunst vor dem (imposanten und gerade neu eröffneten) Swiss Tech Convention Centre sowie auch multimedial (mit Photos)! gezeigt wurden, kamen sehr gut an und waren ein guter Icebreaker für die Kontaktaufnahme. Diese kleinen Kunstwerke waren damit vielleicht dem Kern von „Digital Humanities“ näher als einige der Vorträge an den folgenden Tagen.

IMG_0775

IMG_0773

Fast hätte ich nun bei meiner kurzen Umschau die Eröffnungsvorlesung von Bruno Latour, dem großen französischen Wissenschaftshistoriker, vergessen. Er sprach zum Thema: „Rematerializing Humanities Thanks to Digital Traces“. Seiner Beobachtung des Wiederstarken des „Empirismus“ durch die moderne Digitalisierung ist inhaltlich und faktisch zuzustimmen. Es bleibt für mich allerdings offen, ob das „Digitale“ wirklich am treffendsten durch seine Materialität beschrieben ist – als ob Denkprozesse im Gehirn weniger materiell wären? Aber das sind vielleicht philosophische Fragen, mit denen sich die Geisteswissenschaftler beschäftigen sollten. Ich als Digitaler Humanist bin jedenfalls auch gerne materiell…

IMG_0782

Zum Schluß noch einige Links zu interessanten Projekten oder Folien, die mir im Laufe der Tage unter gekommen sind. Die nächste DH Konferenz der ADHO findet übrigens vom 29. Juni bis 3. Juli 2015 in Sidney statt! Und 2016 folgt dann Krakau.

Tagungswebseite

Abstracts Proceedings of DH 2015 als PDF mit ca. 85MB

Alexander O’Connor, David Lewis, Felix Sasaki: Towards Linking Linguistic Resources in the Humanities

Report: ICCL Dresden Summer School: Ontologies and their use

Print Friendly, PDF & Email

Eine gute Woche nach dem Ende der ICCL Summer School in Dresden ist es Zeit für ein persönliches Fazit. Die erste Woche war Themen wie Description Logic und theoretischer Informatik gewidmet. Harter Tobak für einen Historiker… Aber zumindest weiss ich jetzt, wozu die DL-Algebra nützlich ist und dass ich sie nicht unbedingt brauche, wenn ich meine Ontologie in OWL schreibe. 🙂 Die zweite Woche sollte praktischer ausgerichtet sein – leider hat sich diese Hoffnung nicht erfüllt. Sehr interessant und hilfreich waren für mich die Vorlesungen von Lehmann und Hitzler, aber auch Eiter und Janovicz haben mir gut gefallen. Meine ursprüngliche Erwartung eines workshop Charakters der Summer School mit Gruppenarbeit, Übungen und dergleichen hat sich leider nicht erfüllt. Angenehm aufgefallen ist mir hingegen der ausgewogene Stundenplan (1h Vorlesung, 1/2 Stunde Pause). Das war sehr angemessen. Als wirklich schön und sehr kommunikativ haben sich die Exkursionen erwiesen – aber dafür war ich nicht nach Dresden gekommen. Alles in allem bleibt ein gemischtes Fazit zurück: ja, es war lehrreich und teilweise auch brauchbar für meine Arbeit, aber insgesamt blieb die Veranstaltungen weit hinter meinen (uninformierten) Erwartungen zurück. Ich hätte mich vorher etwas genauer informieren sollen, worfür die Abkürzung des Instituts steht und daraus die richtigen Schlüsse ziehen sollen. Ich bin halt doch eher Praktiker, was die Informatik angeht. Dresden allerdings ist immer eine Reise wert und die Rückfahrt von der Exkursion zum Elbsandsteingebirge an der Elbe entlang war schon traumhaft. Das sollte ich nochmal in Ruhe machen, wenn alle Ontologien geschrieben und Internetportale gelauncht sind…

New building of the Faculty of Computer Scienc...

New building of the Faculty of Computer Science of the Technische Universität Dresden (Dresden University of Technology), Germany. (Photo credit: Wikipedia)

Im folgenden poste ich einige Links und Notizen, die mir während des Kurses besonders aufgefallen sind. Das Kursprogramm findet sich unter:

http://www.computational-logic.org/content/events/iccl-ss-2013/program.php?id=24

Dort auch zumeist Links auf die Folien der Vorlesungen.

20130823-154902.jpg

ICCL Summer School 2013 – Course Program

  • Ontology-based Model Checking Applications

Uwe Aßmann (Technische Universität Dresden, Germany)

Franz Baader (Technische Universität Dresden, Germany)

  • Datalog-Based Data Access over Ontology Knowledge Bases

Thomas Eiter (Technische Universität Wien, Austria)

Peter Haase (fluid Operations AG, Germany)

  • Ontologies and Rules

Pascal Hitzler (Wright State University, Dayton, Ohio, U. S. A.)

  • Geosemantics, Linked Spatiotemporal Data, and Geo-Ontologies

Krzysztof Janowicz (University of California, Santa Barbara, U. S. A.)

Matthias Knorr (Universidade Nova de Lisboa, Portugal)

Markus Krötzsch (University of Oxford, U. K.)

  • The Linked Data Lifecycle

Jens Lehmann (University of Leipzig, Germany)

  • RDF and SPARQL

Sebastian Rudolph (Technische Universität Dresden, Germany)

Workshop Presentations

The workshop consists of short presentations about the research work of selected participants.

  • Sandeep Kumar (Indian Institute of Technology, India): Semantic Web Service Selection Models
    Silvia Giannini (Politecnico di Barri, Italy): Towards a unified framework for distributed data management across the semantic web
    Anton Dergunov (Lobachevsky State University of Nizhny Novgorod, Russia): Knowledge Representation for Performance Analysis
    Marzieh Bakhshandeh (Instituto Superior Técnico, Portugal): On the Use of Ontologies to Specify and Integrate Enterprise Architecture Models

—————————————————————————
Notes and Links (ICCL_Summer_School_notes)

Introduction: Pascal Hitzler

– Importance of Ontologies… Making sense of the Data (Big Data)

————————————————————————–

Rudolph: Einführung RDF : http://semantic-web-grundlagen.de/wiki/SWebT1_WS12/13
Baader: Einführung DL http://arxiv.org/pdf/1201.4089v3

————————————————————————–

Jockers, Matthew. Macroanalysis: Digital Methods and Literary History. University of Illinois Press, 2013

Alan Rector,Nick Drummond, Matthew Horridge, Jeremy Rogers., Holger Knublauch, Robert Stevens, Hai Wang, Chris Wroe (2004) OWL Pizzas: Practical Experience of Teaching OWL-DL: Common Errors & Common Patterns (2004) in E Motta and N Shadbolt, et al. (eds) Proceedings of the European Conference on Knowledge Acquistion, Northampton, England, 2004, Lecture Notes on Computer Science LNAI3257, Springer-Verlag.pp 63-81

—————————————————————————

http://www.semantic-web-journal.net/

—————————————————————————

http://korrekt.org/page/OWL_2_Profiles

http://sparql.org/query-validator.html
————————————————————————-

http://protegewiki.stanford.edu/wiki/Protege4UserDocs

protegewiki.stanford.edu/wiki/Protege4GettingStarted

———————————————————–

http://code.google.com/p/elk-reasoner/

http://euclid-project.eu/

———————————————————–

Linked Open Vocabularies: http://lov.okfn.org/dataset/lov/

—————————————————-

LIMES Interlinking Framework: http://aksw.org/Projects/LIMES.html

SILK Framework: http://wifo5-03.informatik.uni-mannheim.de/bizer/silk/

NLP2RDF: Uni Leipzig: http://persistence.uni-leipzig.org/nlp2rdf/

————————————————

Ontology repair: http://ore-tool.net/Projects/ORE

————————————————

Faceted browsing: https://github.com/GeoKnow/Facete

————————————————

http://aksw.org/Projects/AutoSPARQL.html

BOA = BOotstrapping linked datA:

http://aksw.org/Projects/BOA.html

BOA is an iterative bootstrapping strategy for extracting RDF from unstructured data.

IMG_4053

Guter Vortrag zu RDF / Semantic Web pros & cons

Kurzmitteilung

Print Friendly, PDF & Email

Hier ein Hinweis von Juan Garces, den ich gerne in den Blog aufnehme: Robert Sanderson: „Resource Description Failures and Linked Data Letdowns“, ein talk recht frisch vom April diesen Jahres:
http://www.cni.org/pbs/rdf-resource-description-failures-and-linked-data-letdowns/
Sanderson spricht sich in dem Vortrag sehr für die Verwendung von JSON-LD zur Serialisierung von RDF-Daten aus. Was meint der Rest der Welt dazu?

Workshop: Semantic Web Applications in the Humanities (#swahgoe) am 11.12.12 in Göttingen

Print Friendly, PDF & Email

Nun eine Nachricht sozusagen in eigener Sache. Ich veranstalte im Rahmen des Digital Humanities Forschungsverbundes am 11.12.12 mit meinen Kollegen einen Workshop zum Thema „Semantic Web Anwendungen in den Geisteswissenschaften“, zu dem alle Interessierten herzlich eingeladen sind. Anmeldung ggf. unten im Doodle bis 9. Dezember.

Workshop: „Semantic Web Applications in the Humanities“

Dienstag, 11.12.2012
Staats und Universitätsbibliothek Göttingen
Historisches Gebäude, Papendiek 14,
Vortragsraum (1. Stock)

In dem technologisch orientierten Workshop soll es darum gehen, sich gegenseitig den Stand der eigenen Projekte vorzustellen und gemeinsam Probleme und Strategien bei der Umsetzung der jeweiligen Projektziele zu erörtern. Wir denken an einen Workshop mit „hands on“ Charakter, in dem wir uns gegenseitig die verwendeten Tools und Datenmodelle vorstellen und bislang gesammelte Erfahrungen austauschen.

Vorläufiges Programm (Stand 01.12.12)

Begrüßung: ab 10:30

11:00 Uhr – Jörg Wettlaufer / S. Ganesh Thottempudi / Fabian Cremer (DHFV/ ADWG, GCDH & SUB-FE)

11:30 Uhr – Georg Hohmann / Mark Fichtner (WissKI/GNM)

13:00 Uhr – Mittagspause

14:00 Uhr – Sascha Grabsch / Marco Jürgens (Wissensspeicher/BBAW-telota)

15:30 Uhr Kaffeepause

16:00 Uhr – Martin Gruner (CeDiS/FU-Berlin)

17:30 Uhr – Ralf Stockmann / Stefan Schmunk (TBA/SUB-FE)

19:00 Uhr – Ende des Workshops

19:30 Uhr – Gemeinsames Abendessen (Gaststätte Kartoffelhaus)

Tagungssprachen sind Deutsch und Englisch. Da wir auch rein englischsprachige Teilnehmer haben werden, möchten wir anregen, ggf. Folien in Englisch zu verfassen, wenn die Präsentation auf Deutsch erfolgt bzw. umgekehrt. Für die anwendungsorientierten Teile des Workshops wäre es von Vorteil, wenn die Teilnehmerinnen und Teilnehmer einen eigenen Laptop mitbringen, damit ggf. eigene Installationen vorgenommen werden können. Internet wird über eduroam oder Goenet/Wlan zur Verfügung gestellt. Anmeldungen für eine Teilnahme müssen unter der folgenden Adresse eingetragen werden http://doodle.com/65azcfhevc3wxgdx

Hier das Programm zum Download als PDF

Tagungsbericht SWIB 2012 / #swib12

Print Friendly, PDF & Email

SWIB Logo

Die diesjährige SWIB (Semantic Web in Bibliotheken), veranstaltet vom HBZ NRW zusammen mit der ZBW in Hamburg und Kiel, fand in Köln vom vom 26. Bis 28. November 2012 statt. Diese seit 2009 bestehende Inititative der beiden Ausrichter hat sich seit der Gründung zu einer inzwischen internationalen Tagung mit ca. 170 Teilnehmerinnen und Teilnehmern aus 23 Ländern entwickelt. Die Tagungssprach war erstmals durchgehend Englisch. Den Auftakt machten am 26.11. drei halbtägige workshops, die zu den Themen Einführung in LOD, Metadata Provenance und Doktoranden mit LOD Projekten veranstaltet wurden. Gerade im Doktorandenworkshop erhofft sich die Tagungsorganisation einen intensiveren Austausch mit der aktuellen Forschung rund um Semantic Web und Linked Open Data. Der diesjährige Fokus der Tagung lag auf konkreten Anwendung von Semantic Web Technologien in Bibliotheken und den Wissenschaften. Die eingeladenen Keynote-Speaker, Jon Voss von LODLAM und Emmanuelle Bermès vom Centre Pompidu in Paris, stellten aus ihrer jeweiligen Perspektive die hauptsächlichen Anwendungsszenarien und Herausforderungen für LOD in Bibliotheken dar und betonten die Notwendigkeit einer Globalisierung der Bibliotheksdienstleistungen im Zuge einer offenen Lizenzierung der Bibliotheksdaten. Dem entsprechend war der zweite Tag der Konferenz auch insgesamt dieser Thematik gewidmet: „Towards an international LOD library ecology“. Mit Beiträgen aus den Niederlanden, Spanien, Deutschland, den USA (via Skype) sowie Frankreich und Norwegen schon am ersten Tag war in der Tat ein Blick auf die internationale Entwicklung und den Stand der Bemühungen der einzelnen Nationabibliotheken möglich. Besonders bemerkenswert für mich waren die Beiträge von Daniel Kinzler zu Wikidata, dem Projekt der Wikipedia Foundation zur Einrichtung einer gemeinsamen Wissensbasis für das in den Infoboxen der Wikipedia-Artikel gesammelte Faktenwissen sowie die von Romain Wenz präsentierte Linked Open Library in der Praxis: das Portal data.bnf.fr, in dem aus den reichen Metadaten der BNF in Paris Informationen zu 20.000 Autoren und ihren Werken zusammengeführt und eine Integration von Daten unterschiedlichster Herkunft ermöglicht wird. Eher ernüchternd klangen dagegen die Erfahrungen aus der HBZ selber, die von Pascal Christoph vom hbz zum Thema „Building a High Performance Environment for RDF Publishing“ am Ende des ersten Konferenztages präsentiert wurden. Bei großen Datenmengen ist im LOD Bereich weiterhin mit Performanceproblemen zu rechnen. Eine vernünftige Volltextsuche wir beim hbz momentan nicht über SPARQL sondern nur externe Indexdienste (in diesem Fall elasticsearch) realsiert.
Sehr positiv aufgefallen ist mir auch dieses Jahr wieder die perfekte Organisation der Tagung. Zum ersten Mal kam dieses Jahr das conftool zum Einsatz, mit dem die Anmeldung sehr angenehm funktionierte. Während der Tagung wurde ein Live-Stream der Beiträge zur Verfügung gestellt. Diese sind nun unter der Adresse: http://www.scivee.tv/browse?brfl=swib12 jederzeit abrufbar. Die Folien zum Einführungsworkshop findet man unter dieser Adresse und auf der Tagungsseite http://swib.org/swib12/ befindet sich das Programm sowie weitere Informationen. Nächstes Jahr geht es wieder nach Hamburg und es ich bin schon gespannt, wie sich diese Veranstaltung in den kommenden Jahren weiterentwickeln wird.

http://triplify.org

Kurzmitteilung

Print Friendly, PDF & Email

Triplify provided a building block for the “semantification” of Web applications. Triplify was a small plugin for Web applications, which reveals the semantic structures encoded in relational databases by making database content available as RDF, JSON or Linked Data. Actually not available any more…

Pundit – Semantic Web annotation tool – Augment web pages with semantically structured annotations

Link

Print Friendly, PDF & Email

Pundit is a novel semantic annotation and augmentation tool. It enables users to create structured data while annotating web pages.

Annotations span from simple comments to semantic links to web of data entities (as Freebase.com and Dbpedia.org), to fine granular cross-references and citations. Pundit can be configured to include custom controlled vocabularies. In other words, annotations can refer to precise entities and concepts as well as express precise relations among entities and contents.

Wissenschaftliche Kommunikations Infrastruktur (Wiss-ki) / Scientific Communication Infrastructure

Kurzmitteilung

Print Friendly, PDF & Email

Nachdem ich mehrfach auf dieses Projekt und die daraus entstandene Software hingewiesen worden bin (Dank an Fabian Cremer und St. Rühle), hier ein kurzer Artikel und ein Link zu diesem interessanten Projekt, das die Universität Erlangen-Nürnberg, das Germanische Nationalmuseum sowie das Zoologische Forschungsmuseum in Bonn zusammen erarbeitet haben. Das Projekt ist 2011 ausgelaufen, aber die Software steht gut dokumentiert online zur Verfügung. Eine gute Einführung gibt Georg Hohmann vom Germanischen Nationalmuseum im folgenden Video. Das System basiert auf Drupal und erweitert es um einen Triple-Store und ein „semantisches Backend“. Es für die Arbeit mit musealen Objekten und der Metadatenerfassung nach Cidoc-CRM als übergeordnete Ontologie konzipiert und zudem sehr flexibel erweiterbar.

Half day tutorial: Free your metadata : a practical approach towards metadata cleaning and vocabulary reconciliation am Dienstag, 17.7.12 / dh2012 in Hamburg

Kurzmitteilung

Print Friendly, PDF & Email

Half day tutorial: Free your metadata : a practical approach towards metadata cleaning and vocabulary reconciliation

Seth van Hooland, Max De Wilde (Université Libre de Bruxelles, Belgium), Ruben Verborgh (Multimedia Lab, Ghent University, Belgium)
The early-to-mid 2000s economic downturn in the US and Europe forced Digital Humanities projects to adopt a more pragmatic stance towards metadata creation and to deliver short-term results towards grant providers. It is precisely in this context that the concept of Linked and Open Data (LOD) has gained momentum. In this tutorial, we want to focus on reconciliation, the process in which we map domain specific vocabulary to another (often more commonly used) vocabulary that is part of the Semantic Web in order to annex the metadata to the Linked Data Cloud. We believe that the integration of heterogeneous collections can be managed by using subject vocabulary for cross linking between collections, since major classifications and thesauri (e.g. LCSH, DDC, RAMEAU, etc.) have been made available following Linked Data Principles.
Re-using these established terms for indexing cultural heritage resources represents a big potential of Linked Data for Digital Humanities projects, but there is a common belief that the application of LOD publishing still requires expert knowledge of Semantic Web technologies. This tutorial will therefore demonstrate how Semantic Web novices can start experimenting on their own with non-expert software such as Google Refine.
Participants of the tutorial will be asked to bring an export (or a subset) of metadata from their own projects or organizations and to pre-install Google Refine on their laptop. All necessary operations to reconcile metadata with controlled vocabularies which are already a part of the Linked Data cloud will be presented in detail, after which participants will be given time to perform these actions on their own metadata, under assistance of the tutorial organizers. Previous tutorials have mainly relied on the use of the Library of Congres Subject Headings (LCSH), but for the DH2012 conference we will test out beforehand SPARQL endpoints of controlled vocabularies in German (available for example on http://wiss-ki.eu/authorities/gnd/) in order to make sure that local participants will be able to experiment with metadata in German.
This tutorial proposal is a part of the Free your Metadata research project (www.freeyourmetadata.org). The website offers a variety of video’s, screencasts and documentation on how to use Google Refine to clean and reconcile metadata with controlled vocabularies already connected to the Linked Data cloud. The website also offers an overview of previous presentations and workshops.