Die diesjährige „Semantic Web in Bibliotheken“ findet in Hamburg statt und hat bei den Teilnehmerzahlen weiter zugelegt. Auch die Internationalisierung schreitet weiter voran. Die Präsentation der Beiträge können in den kommenden Wochen auf der Seite http://swib.org/swib13/ heruntergeladen werden. Ausserdem wird eine Videoaufzeichnung der Tagung online gestellt. Schon jetzt kann man sich die Lifemitschnitte unter http://www.make.tv/elbdeich ansehen.
Ist der Hype um Semantic Web und Linked Data also ungebrochen. Es kann so scheinen. Allerdings muß man die Untertöne beachten. Die Keynote zur Eröffnung hielt Dorothea Salo von der University of Wisconsin-Madison mit dem schönen Titel: „Soylent SemWeb Is People! Bringing People to Linked Data“. In Anspielung auf den SF-Schinken Soylent Green von 1973, in dem die Menschen sich in einem nachhaltigen Kreislauf von ihren verstorbenen Vorfahren ernähren, wies sie auf die ernorme Bedeutung der Usability von Semantic Web und Linked Data für eine umfassende Akzeptanz dieser Technologie hin. Während die ursprüngliche Idee von Tim Berners Lee ja die Maschinenlesbarkeit der Daten in den Vordergrund gestellt hat, gehe es heute darum die Menschen, die Nutzer der Technologie (also in diesem Fall die Bibliothekare) stärker einzubeziehen und die Vorteile von Linked Data Lösungen für Bibliotheken transparent, veständlich und überzeugend zu kommunizieren. Ihre Überlegungen fasst sie in vier Herausforderungen zusammen, die in dem Ausruf „disrupt MARC“ gipfelten. Nicht zum letzten Mal auf dieser Tagung wurde dieser allgegenwärtige Bibliotheksstandard entweder totgesagt oder seine Zombiequalitäten beschworen. Dabei geht es Salo darum, die Linked Data for Libraries Bewegung aus dem Experimentalstadium heraus in die konkrete Anwendungen zu führen, damit aus Visionen reale Nutzungsszenarien werden.
Die Tagung unterteilt sich in fünf Sektionen: Mappings and Mashups, Libraries and Beyond, Ontology Engineering, Contributing to Europeana, Base Technology: the Web sowie Repositories Enhanced. Herausheben möchte ich den Beitrag von Nadine Steinmetz vom Hasso Plattner Institut in Potsdam in der Sektion Mappings and Mashups, die ein Projekt zum „Cross-Lingual Semantic Mapping of Authoritiy files“ vorstellte, in dem es konkret um ein Mapping der GND Sachkategorien auf dbpedia geht. Es ist zu hoffen, dass die Ergebnisse dieses Mappings bald zur freien Verfügung stehen werden. Interessant erscheint mir auch die Weiterführung des Projekts der BNF in Paris mit dem Titel „OpenCat“, bei dem es um die Bereitstellung LOD aus dem Projekt data.bnf.fr für andere französische Bibliotheken geht. Das Projekt setzt auf ein phyton-basiertes Semantic Web Framwork mit dem Namen http://www.cubicweb.org/. Die Sektion zur Europeana stellt das EDM Datenmodell sowie die Spezifikation von EDM für die Beschreibung und den Ingest digitalisierter Manuskripte in Europeana vor. Das Projekt dm2e.eu erweitert EDM um eine Reihe von Attributen und Klassen, die eine möglichst angemessene Repräsentation der Manuskripte im Portal der Europeana erlauben soll.
Der Tagung vorgeschaltet war wie immer ein Tag mit halbtägigen Workshops und Meetings (Dini und VivoCamp), diesmal mit den folgenden Themen: Introduction to Linked Open Data, Metadata Provenance Tutorial, Linked Data Publication with Drupal, CouchDB: A Database for the web, Catmandu – Library Oriented Extract, Transform, Load tools to publish Linked Open Data sowie Analysis of Library Metadata with Metafacture und ein PhD-Workshop. Aus Göttingen waren Sven Porst (Workshop zu Couch-DB und Lightning Talk) sowie Jacob Voß (mit einem Vortrag und einem Lightning Talk) aktiv an der SWIB beteiligt. Ich selber habe am Workshop zu Linked Data Publication with Drupal teilgenommen, der von Joachim Neubert, einem der Veranstalter der SWIB, hervorragend vorbereitet war und gute Einblicke in die Möglichkeiten der Publikation von RDFA mit Drupal bot.
Bleibt nur noch mit Dorothea Salo zu hoffen, dass Linked Data Anwendung in Bibliotheken tatsächlich langsam zu der Reife gelangen, die sie zum unverzichtbaren Standard bei der Bibliotheksarbeit und in der Recherche werden lassen. Bis auf weiteres sind Semantic Web und Linked Data, so scheint es zumindest, vom Mainstream noch einige Meilen entfernt.
Archiv für den Monat: November 2013
Neue Webseite zur Geschichte der Anwendung der EDV in den Geisteswissenschaften an der Universität Tübingen www.tustep.uni-tuebingen.de/kolloq.html
Hier ein crosspost aus der DHD Mailingliste, der mir beachtenswert erscheint, da die Geschichte der Digital Humanities bislang noch kaum geschrieben ist und noch einer (wissenschaftshistorischen) Würdigung harrt. Das ist auch wichtig für die zukünftige Entwicklung dieses Ansatzes!
www.tustep.uni-tuebingen.de/kolloq.html
Wilhelm Ott schreibt:
„Ein für die Geschichte der Digital Humanities im deutschsprachigen
Raum nicht unwichtiges Datum jährte sich am Wochenede zum 40. Mal:
Am 17. November 1973 fand das erste „Kolloquium zur Anwendung
der EDV in den Geisteswissenschaften an der Universität Tübingen“
statt. Beim letzten dieser insgesamt 90 Kolloquien sprach am
5. Februar 2005 John Unsworth zum Thema „The importance of
digitization and cyberinfrastructure in the humanities“.
Bei vielen dieser Veranstaltungen stand TUSTEP im Vordergrund, das
Tübinger System von Textverarbeitungsprogrammen, das wir mit dem Ziel
der optimalen Unterstützung des wissenschaftlichen Umgangs mit
Textdaten am Zentrum für Datenverarbeitung und in Zusammenarbeit mit
vielen hier vorgestellten Projekten entwickelt haben. Dennoch – oder
besser: gerade deshalb – haben wir es für notwendig gehalten, immer
wieder über den eigenen Horizont, d.h. insbesondere TUSTEP und seine
Anwendung, hinauszuschauen.
Einer der Höhepunkte war das 50. Kolloquium, bei dem Roberto Busa
über „Half a Century of Literary Computing: Towards a ‚New‘ Philology“
sprach (24. November 1990, genau 30 Jahre nachdem er in Tübingen
zusammen mit IBM das „Kolloquium über maschinelle Methoden der
literarischen Analyse und der Lexikographie“ vom 24.-26. 11. 1960
veranstaltet hatte).
Die Protokolle der ersten 83 Kolloquien wurden im ALLC Bulletin und
dessen Nachfolger Literary and Linguistic Computing (Oxford University
Press) publiziert, eine Auswahl auch in Historical Social Research HSR.
Die Protokolle aller 90 Kolloquien sind (ohne die im ALLC Bulletin
bzw. in LLC vorangestellten englischen abstracts) im Netz unter
www.tustep.uni-tuebingen.de/kolloq.html zugänglich. Sie stellen eine
der Quellen zur Entwicklung vom „literary and linguistic computing“
hin zu den „e-humanities“ in Deutschland und darüber hinaus dar – sie
decken eine Zeitraum von mehr als 30 Jahren ab, von der Zeit der
Datenerfassung und Programmierung über Lochkarten und der Ausgabe auf
Zeilendrucker bzw. Lichtsatz über Kathodenstrahl-Belichter bis hin zu
Internet, mobile media und e-publishing, von projekt-spezifischer
Programmierung in einer „höheren Programmiersprache“ wie FORTRAN hin
zur Nutzung von leistungsfähigen tools für die digital humanities,
von proprietären Datenformaten und Kodierungen zur Anwendung
etablierter Standards wie XML und TEI.
…“
Bartoc – Basel Register of Thesauri, Ontologies & Classifications www.bartoc.org
Das scheint mir ein äussert sinniges Unternehmen zu sein! Es gibt natürlich schon andere Ontologieregister, aber nicht in 20 Sprachen und wohl auch nicht mit diesem breiten Ansatz, Thesauri mit einzubeziehen, die ebenfalls äußerst wichtige Hilfsmittel für die Anreicherung von Daten sind. So ist dort z.B. der Index Locorum der Forschungsstelle für Personalschriften verzeichnet und mit Metadaten versehen. Allerderdings fehlt mir noch ein Link, über den man dann diesen Thesaurus dann tatsächlich erreichen kann. Hier die Selbstbeschreibung von der Webseite http://www.bartoc.org/
„The Basel Register of Thesauri, Ontologies and Classifications (BARTOC)
collects metadata of controlled and structured vocabularies and provides
a search interface in 20 languages. Metadata are enriched with
DDC-numbers down to the third level and subject headings from Eurovoc,
the EU’s multilingual thesaurus (© European Union, 2013, http://eurovoc.europa.eu/).
BARTOC currently contains about 600 items (Thesauri, Ontologies,
Classifications, Controlled Vocabularies, Taxonomies) in 65 languages
and is still growing. If you are missing a vocabulary, please make a
suggestion here. This web site is a service of the University Library of Basel.“
Der Hinweis stammt übrigens aus der Inetbib-mailingliste…