Workshop: Semantic Web Applications in the Humanities (#swahgoe) am 11.12.12 in Göttingen

Print Friendly, PDF & Email

Nun eine Nachricht sozusagen in eigener Sache. Ich veranstalte im Rahmen des Digital Humanities Forschungsverbundes am 11.12.12 mit meinen Kollegen einen Workshop zum Thema „Semantic Web Anwendungen in den Geisteswissenschaften“, zu dem alle Interessierten herzlich eingeladen sind. Anmeldung ggf. unten im Doodle bis 9. Dezember.

Workshop: „Semantic Web Applications in the Humanities“

W3C SW Logo

Dienstag, 11.12.2012
Staats und Universitätsbibliothek Göttingen
Historisches Gebäude, Papendiek 14,
Vortragsraum (1. Stock)

In dem technologisch orientierten Workshop soll es darum gehen, sich gegenseitig den Stand der eigenen Projekte vorzustellen und gemeinsam Probleme und Strategien bei der Umsetzung der jeweiligen Projektziele zu erörtern. Wir denken an einen Workshop mit „hands on“ Charakter, in dem wir uns gegenseitig die verwendeten Tools und Datenmodelle vorstellen und bislang gesammelte Erfahrungen austauschen.

Vorläufiges Programm (Stand 01.12.12)

Begrüßung: ab 10:30

11:00 Uhr – Jörg Wettlaufer / S. Ganesh Thottempudi / Fabian Cremer (DHFV/ ADWG, GCDH & SUB-FE)

11:30 Uhr – Georg Hohmann / Mark Fichtner (WissKI/GNM)

13:00 Uhr – Mittagspause

14:00 Uhr – Sascha Grabsch / Marco Jürgens (Wissensspeicher/BBAW-telota)

15:30 Uhr Kaffeepause

16:00 Uhr – Martin Gruner (CeDiS/FU-Berlin)

17:30 Uhr – Ralf Stockmann / Stefan Schmunk (TBA/SUB-FE)

19:00 Uhr – Ende des Workshops

19:30 Uhr – Gemeinsames Abendessen (Gaststätte Kartoffelhaus)

Tagungssprachen sind Deutsch und Englisch. Da wir auch rein englischsprachige Teilnehmer haben werden, möchten wir anregen, ggf. Folien in Englisch zu verfassen, wenn die Präsentation auf Deutsch erfolgt bzw. umgekehrt. Für die anwendungsorientierten Teile des Workshops wäre es von Vorteil, wenn die Teilnehmerinnen und Teilnehmer einen eigenen Laptop mitbringen, damit ggf. eigene Installationen vorgenommen werden können. Internet wird über eduroam oder Goenet/Wlan zur Verfügung gestellt. Anmeldungen für eine Teilnahme müssen unter der folgenden Adresse eingetragen werden http://doodle.com/65azcfhevc3wxgdx

Hier das Programm zum Download als PDF

Tagungsbericht SWIB 2012 / #swib12

Print Friendly, PDF & Email

SWIB Logo

Die diesjährige SWIB (Semantic Web in Bibliotheken), veranstaltet vom HBZ NRW zusammen mit der ZBW in Hamburg und Kiel, fand in Köln vom vom 26. Bis 28. November 2012 statt. Diese seit 2009 bestehende Inititative der beiden Ausrichter hat sich seit der Gründung zu einer inzwischen internationalen Tagung mit ca. 170 Teilnehmerinnen und Teilnehmern aus 23 Ländern entwickelt. Die Tagungssprach war erstmals durchgehend Englisch. Den Auftakt machten am 26.11. drei halbtägige workshops, die zu den Themen Einführung in LOD, Metadata Provenance und Doktoranden mit LOD Projekten veranstaltet wurden. Gerade im Doktorandenworkshop erhofft sich die Tagungsorganisation einen intensiveren Austausch mit der aktuellen Forschung rund um Semantic Web und Linked Open Data. Der diesjährige Fokus der Tagung lag auf konkreten Anwendung von Semantic Web Technologien in Bibliotheken und den Wissenschaften. Die eingeladenen Keynote-Speaker, Jon Voss von LODLAM und Emmanuelle Bermès vom Centre Pompidu in Paris, stellten aus ihrer jeweiligen Perspektive die hauptsächlichen Anwendungsszenarien und Herausforderungen für LOD in Bibliotheken dar und betonten die Notwendigkeit einer Globalisierung der Bibliotheksdienstleistungen im Zuge einer offenen Lizenzierung der Bibliotheksdaten. Dem entsprechend war der zweite Tag der Konferenz auch insgesamt dieser Thematik gewidmet: „Towards an international LOD library ecology“. Mit Beiträgen aus den Niederlanden, Spanien, Deutschland, den USA (via Skype) sowie Frankreich und Norwegen schon am ersten Tag war in der Tat ein Blick auf die internationale Entwicklung und den Stand der Bemühungen der einzelnen Nationabibliotheken möglich. Besonders bemerkenswert für mich waren die Beiträge von Daniel Kinzler zu Wikidata, dem Projekt der Wikipedia Foundation zur Einrichtung einer gemeinsamen Wissensbasis für das in den Infoboxen der Wikipedia-Artikel gesammelte Faktenwissen sowie die von Romain Wenz präsentierte Linked Open Library in der Praxis: das Portal data.bnf.fr, in dem aus den reichen Metadaten der BNF in Paris Informationen zu 20.000 Autoren und ihren Werken zusammengeführt und eine Integration von Daten unterschiedlichster Herkunft ermöglicht wird. Eher ernüchternd klangen dagegen die Erfahrungen aus der HBZ selber, die von Pascal Christoph vom hbz zum Thema „Building a High Performance Environment for RDF Publishing“ am Ende des ersten Konferenztages präsentiert wurden. Bei großen Datenmengen ist im LOD Bereich weiterhin mit Performanceproblemen zu rechnen. Eine vernünftige Volltextsuche wir beim hbz momentan nicht über SPARQL sondern nur externe Indexdienste (in diesem Fall elasticsearch) realsiert.
Sehr positiv aufgefallen ist mir auch dieses Jahr wieder die perfekte Organisation der Tagung. Zum ersten Mal kam dieses Jahr das conftool zum Einsatz, mit dem die Anmeldung sehr angenehm funktionierte. Während der Tagung wurde ein Live-Stream der Beiträge zur Verfügung gestellt. Diese sind nun unter der Adresse: http://www.scivee.tv/browse?brfl=swib12 jederzeit abrufbar. Die Folien zum Einführungsworkshop findet man unter dieser Adresse und auf der Tagungsseite http://swib.org/swib12/ befindet sich das Programm sowie weitere Informationen. Nächstes Jahr geht es wieder nach Hamburg und es ich bin schon gespannt, wie sich diese Veranstaltung in den kommenden Jahren weiterentwickeln wird.

Pundit – Semantic Web annotation tool – Augment web pages with semantically structured annotations

Link

Print Friendly, PDF & Email

Pundit is a novel semantic annotation and augmentation tool. It enables users to create structured data while annotating web pages.

Annotations span from simple comments to semantic links to web of data entities (as Freebase.com and Dbpedia.org), to fine granular cross-references and citations. Pundit can be configured to include custom controlled vocabularies. In other words, annotations can refer to precise entities and concepts as well as express precise relations among entities and contents.

Wissenschaftliche Kommunikations Infrastruktur (Wiss-ki) / Scientific Communication Infrastructure

Kurzmitteilung

Print Friendly, PDF & Email

Nachdem ich mehrfach auf dieses Projekt und die daraus entstandene Software hingewiesen worden bin (Dank an Fabian Cremer und St. Rühle), hier ein kurzer Artikel und ein Link zu diesem interessanten Projekt, das die Universität Erlangen-Nürnberg, das Germanische Nationalmuseum sowie das Zoologische Forschungsmuseum in Bonn zusammen erarbeitet haben. Das Projekt ist 2011 ausgelaufen, aber die Software steht gut dokumentiert online zur Verfügung. Eine gute Einführung gibt Georg Hohmann vom Germanischen Nationalmuseum im folgenden Video. Das System basiert auf Drupal und erweitert es um einen Triple-Store und ein „semantisches Backend“. Es für die Arbeit mit musealen Objekten und der Metadatenerfassung nach Cidoc-CRM als übergeordnete Ontologie konzipiert und zudem sehr flexibel erweiterbar.

Half day tutorial: Free your metadata : a practical approach towards metadata cleaning and vocabulary reconciliation am Dienstag, 17.7.12 / dh2012 in Hamburg

Kurzmitteilung

Print Friendly, PDF & Email

Half day tutorial: Free your metadata : a practical approach towards metadata cleaning and vocabulary reconciliation

Seth van Hooland, Max De Wilde (Université Libre de Bruxelles, Belgium), Ruben Verborgh (Multimedia Lab, Ghent University, Belgium)
The early-to-mid 2000s economic downturn in the US and Europe forced Digital Humanities projects to adopt a more pragmatic stance towards metadata creation and to deliver short-term results towards grant providers. It is precisely in this context that the concept of Linked and Open Data (LOD) has gained momentum. In this tutorial, we want to focus on reconciliation, the process in which we map domain specific vocabulary to another (often more commonly used) vocabulary that is part of the Semantic Web in order to annex the metadata to the Linked Data Cloud. We believe that the integration of heterogeneous collections can be managed by using subject vocabulary for cross linking between collections, since major classifications and thesauri (e.g. LCSH, DDC, RAMEAU, etc.) have been made available following Linked Data Principles.
Re-using these established terms for indexing cultural heritage resources represents a big potential of Linked Data for Digital Humanities projects, but there is a common belief that the application of LOD publishing still requires expert knowledge of Semantic Web technologies. This tutorial will therefore demonstrate how Semantic Web novices can start experimenting on their own with non-expert software such as Google Refine.
Participants of the tutorial will be asked to bring an export (or a subset) of metadata from their own projects or organizations and to pre-install Google Refine on their laptop. All necessary operations to reconcile metadata with controlled vocabularies which are already a part of the Linked Data cloud will be presented in detail, after which participants will be given time to perform these actions on their own metadata, under assistance of the tutorial organizers. Previous tutorials have mainly relied on the use of the Library of Congres Subject Headings (LCSH), but for the DH2012 conference we will test out beforehand SPARQL endpoints of controlled vocabularies in German (available for example on http://wiss-ki.eu/authorities/gnd/) in order to make sure that local participants will be able to experiment with metadata in German.
This tutorial proposal is a part of the Free your Metadata research project (www.freeyourmetadata.org). The website offers a variety of video’s, screencasts and documentation on how to use Google Refine to clean and reconcile metadata with controlled vocabularies already connected to the Linked Data cloud. The website also offers an overview of previous presentations and workshops.