Bericht von der Tagung „Digital Scholarly Editions as Interfaces“ in Graz, 23.-24.9.16

Print Friendly, PDF & Email

Graz ist immer eine Reise wert. Seit es das Zentrum für Informationsmodellierung an der dortigen Universität gibt, ist fast umungänglich geworden mindestens einmal im Jahr dort vorbei zu schauen. Eine gute Gelegenheit dazu war die Tagung „Digital Scholarly Editions as Interfaces„, die vom 23. bis 24. September 2016 in Graz direkt vor der TEI Tagung in Wien stattfand. Mit über 100 Anmeldungen war die Tagung gut besucht und vor allem auf der Seite der Redner sehr international besetzt. Tagungssprache war Englisch. Gesponsert und auch organisiert wurde die Veranstaltung von dixit, dem „Digital Scholarly Editions Initial Training Network“. Ich erlaube mir im folgenden nur meine „persönlichen“ Highlights herauszupicken und näher zu besprechen. Das Niveau der Vorträge war insgesamt hoch und die Teilnahme auf jeden Fall ein Gewinn. Ich bin schon gespannt, welche Veranstaltung mich als nächstes nach Graz lockt.

Die Tagung begann mit einer Keynote von Dot Porter (University of Pennsylvania), die sich ganz grundsätzlich mit der Frage: „What is an Edition anyway? A critical examination of Digital Editions since 2002“ beschäftigte. Im Mittelpunkt ihres Vortrags standen mehrere Umfragen, die sie seit Anfang der 2000er Jahre in der DH community durchführt und die sich mit der Verwendung von digitalen Editionen durch Wissenschaftlerinnen und Wissenschaftler beschäftigen. Zentral ist dabei die Unterscheidung zwischen digitalisierten und digitalen Editionen, also den „nur“ in digitalem Format angebotenen gedruckten Editionen und den ohne Druckvorlage, rein digital erstellen Editionen. Die neueste Umfrage unter Mediaevisten im September 2016 erbrachte die folgende, interessante Nutzerstatistik:

Repräsentativ oder nicht, die Statistik weist zumindest auf einen hohen Anteil der Nutzung von digitalisierten und gedruckten Editionen bei solchen Personen hin, die häufig oder dauernd diese Textsorte verwenden. Damit bleibt die rein digitale Edition weiterhin ein Experimentierfeld, in dem sich erst noch Standards herausbilden und etablieren müssen. Dazu trägt sicher die Zeitschrift ride (Review Journal for digital Editions and Ressources) bei, das seit einigen Jahren versucht Standards in diesem Bereich zu schaffen.

Schon in diesem ersten Beitrag wurde am Ende eine Dichotomie zwischen Interface und Text postuliert, die im Anschluss in einer Reihe von Beiträgen wieder aufgenommen wurde. Interface over Text oder Text over Interface – diese Frage nahmen einige Vorträge gerne wieder auf und gaben ihre subjektive Antwort.

In den nun folgenden Sessions des ersten Tages fielen eine Reihe von Vorträgen wg. kurzfristiger Absagen aus, so dass eine intensive Diskussion der übrigen Beiträge möglich wurde. Eugene W. Lyman (Independent Scholar) wies die Teilnehmer auf die Relevanz von Verläßlichkeit bei Editionen, seien sie digital oder analog, hin. Dies würde, bei einer Konzentration auf Interfaces, leider schnell übersehen (Digital Scholarly Editions and the Affordances of Reliability). Christopher M. Ohge (University of California, Berkeley) stellte dann die erste konkrete Edition, die Notizbücher von Mark Twain, vor (http://www.marktwainproject.org/). Sein Vortrag war mit „Navigating Readability and Reliability in Digital Documentary Editions“ überschrieben und so nahm somit die oben gestellte Frage nach Interface und Verläßlichkeit des Texts auf. Die folgenden Vorträge wandten sich Themen der Visualierung, Typhographie und des Designs von Digitalen Editionen zu und dieser Komplex wurde abgerundet durch eine Keynote von Stan Ruecker (ITT Institute of Design, Chicago), die den ersten Tag beschloss. Es ist ein Verdienst der Tagung, dass konkret Designer eingeladen wurden (auch wenn am Ende nur wenige anwesend waren) und ihre Perspektive auf Digitale Editionen mitteilen konnten. Nur allzu oft bleibt dieser Aspekt aus Kostengründen oder Ignoranz bei wissenschaftlichen Editionen unberücksichtigt – mit den uns allen bekannten Folgen und Effekten. In diesem Zusammenhang wurden auch agile Methoden bei Design und Software-Entwicklung vorgestellt – inzwischen Standards im freiberuflichen Feld, aber bei weitem noch nicht Standard in den Geisteswissenschaften und den Digital Humanities.

Der zweite Tag begann mit einer „Nerd-Session“, in der mehr technische Fragen der Programmierung und Entwicklung von Interfaces für Digitale Editionen thematisiert wurden. Hugh Cayless (Duke University Libraries) startete mit einem Vortrag über
„Critical Editions and the Data Model as Interface“, in dem er eine Edition von lateinischen Texten vorstellte, die nicht auf TEI und XSLT Transformationen beruht, sondern über Javascript verschiedene Sichten auf Text ermöglicht. Seine Slides und eine Demo sind unter https://goo.gl/q7kbY0 abrufbar. Chiara Di Pietro (University of Pisa) und Roberto Rosselli Del Turco (University of Turin) sprachen anschliessend über „Between innovation and conservation: the narrow path of UI design for the Digital Scholarly Edition“ und stellten dabei die Version 2.0. des bekannten EVT-Editionstools vor.

Der dritte talk der Session ist mein persönlicher Spitzenreiter der Tagung.
Jeffrey C. Witt (Loyola University Maryland) sprach nicht nur kompetent sondern auch sehr anschaulich über „Digital Scholarly Editions as API Consuming Applications“ und stellte verschiedene LOD-Lösungen vor, die unter Einbeziehung des IIIF Standards ganz neue Möglichkeiten der Integration und Präsentation von Daten ermöglichen. Sein Vortrag und viele Beispiele finden sich auf http://lombardpress.org/. Ich sehe hier in der Tat eine wichtige Perspektive für die Zukunft der digitalen Editionen, die ja auch im MEDEA Projekt (modelling semantically enriched editions of accounts) anklingt, das leider auf der Tagung nicht vorgestellt wurde, aber dessen Protagonisten anwesend waren.

Die weitere Talks des zweiten Tages widmeten sich theortischen Implikationen und nahmen die Frage der Dichotomie von Interface und Edition wieder auf. Peter Robinson (University of Saskatchewan) schlug sich dabei ganz auf die Seite der Editionen (Why Interfaces Do Not and Should Not Matter for Scholarly Digital Editions), während Tara Andrews (Univ. Wien) und Joris van Zundert (Huygens Institute for the History of The Netherlands) die Seite der Intefaces mit einem Beitrag über das „Interface als Integrales Elements des Arguments einer Edition“ stark machten. Der Nachmittag war den anwenderorientierten Lösungen gewidment und es wurden Themen wie user-centred design und co-creation Ansätze diskutiert. Die Liste der Beiträge und ein Abstraktheft ist auf den Seiten des Grazer Instituts für Informationsmodellierung abrufbar. Im Fazit war dies eine Tagung, die die weite Anreise gelohnt hat und, wie schon oben erwähnt, Lust auf die nächste Reise nach Graz macht, zum Beispiel zur Digital Libraries Tagung 2017, die vom 2.-3. März 2017 ebendort stattfinden wird und deren CFP just gestern abgelaufen ist.

Jörg Wettlaufer, Göttingen

CFP: The first Semantic Web for Cultural Heritage workshop (SW4CH’15). Poitiers, France / September 8-11, 2015

Print Friendly, PDF & Email

For more information see: http://SW4CH2015.ensma.fr/
——————————————————————————————-
IMPORTANT DATES
* Paper submission: April 24, 2015
* Paper notification: June 1, 2015
* Camera-ready paper: June 13, 2015
* Workshop: September 8, 2015

OVERVIEW
Nowadays, Cultural Heritage is gaining a lot of attention from academic and industry perspectives. Scientific researchers, organizations, associations, schools are looking for relevant technologies for accessing, integrating, sharing, annotating, visualizing, analyzing the mine of cultural collections by considering profiles and preferences of end users.
Most cultural information systems today process data based on the syntactic level without leveraging the rich semantic structures underlying the content. Moreover, they use multiple thesauri, or databases, without a formal connection between them. This situation has been identified in the 90’s when the need to build a unique interface to access huge collection of data has appeared. During the last decades, Semantic Web solutions have been proposed to explicit the semantic of data sources and make their content machine understandable and interoperable. By analyzing the most important conferences and workshops related to the Semantic Web, four main categories of topics have been identified: (i) the development of Ontologies and vocabularies dedicated to the studied domain, (ii) explicitation of collection semantics, (iii) usage of Semantic Web Cultural Heritage and (iv) applications related to Cultural Heritage.
The aim of our SW4CH Workshop is to bring together Computer Scientists, and more precisely Data Scientists, involved in Semantic Web solutions for Cultural Heritage. The goal is to exchange experiences, build a state of the art of realizations and challenges and reuse and adapt solutions that have been proposed in other domains.

RESEARCH TRACKS
We seek original and high quality submissions related to one or more of the following topics:
Development of Ontologies and Vocabularies
• User Requirements life cycle for Cultural Heritage
• Vocabularies, metadata schemas, and ontologies
• Semantic Web content creation, annotation, and extraction
• Ontology creation, extraction, and evolution
• Ontology mapping, merging, and alignment
• Use and development of standards, such as SKOS, VRA, etc.
• Developments and applications of the CIDOC Conceptual Reference Model (CRM)
• Virtual Cultural Heritage collections
• Integration of virtual and physical collections
• Use of common vocabularies for Cultural Heritage
• Ontology design patterns for Cultural Heritage

Explicitation of Semantics of Cultural Heritage
• Search, query, and visualization of the Cultural Heritage on the Semantic Web
• Search of virtual and integrated Cultural Heritage collections
• Personalized access of Cultural Heritage collections
• Contex-aware information presentation
• Navigation and browsing
• Facet browsers
• Interactive user interfaces
• Social aspects in Cultural Heritage access and presentation
• Trust and provenance issues in mixed collection and mixed vocabulary applications

Usage of Semantic Web
• Creative industries
• Municipality public services
• Tourist services
• Museums
• Digital Libraries
• Integration of virtual and physical collections
• Ambient Cultural Heritage
• Mobile museum guides
• Web-based museum guides

Applications of Semantic Web technologies in Cultural Heritage
• Domain ontologies
• User and context ontologies
• Reasoning strategies (e.g. context, temporal, spatial)
• Robust and scalable knowledge management and reasoning on the Web
• Machine learning and NLP techniques
• Applications with clear lessons learned
• Semantic Web technologies for multimedia content
• Cultural Heritage services
• Semantic Web architectures for Cultural Heritage
• Peer-to-peer Cultural Heritage architectures
• Data and Information Systems Integration and Interoperability

SUBMISSION INFORMATION
Authors are invited to submit unpublished original work. Submitted papers must use the LNCS style http://www.springer.com/series/11156 (see the link „Instructions for Authors“ in the right hand side) and may not exceed 10 pages. Papers will be submitted electronically in PDF, using this link: http://www.easychair.org/conferences/?conf=sw4ch2015.

ORGANIZATION
Program Co-Chairs: Béatrice Bouchou Markhoff, LI, Université François Rabelais de Tours, France, and Stéphane Jean, LIAS/ENSMA, France
Other members of the organization, including the Program Committee, can be found at: http://SW4CH2015.ensma.fr/

*** Proceedings to be published by Springer in the Advances in Intelligent Systems and Computing series (http://www.springer.com/series/11156) ***   *** Best papers to be published in a special issue of Information System Frontiers, Springer (Factor Impact = 0.761) ***


Béatrice Bouchou Markhoff
Maître de conférences HDR
LI & UFR Sciences et Techniques
Université François Rabelais Tours, France
Tél. +33 (0) 2 54 55 21 36
http://www.info.univ-tours.fr/~bouchou/

Tagungsbericht „Semantic Web in den Geisteswissenschaften“ / Paris INHA 2014: Outils, méthodes, corpus: la modélisation des données en SHS.

Print Friendly, PDF & Email

Am 17.11.14 fand in Paris ein Studientag zum Thema „Werkzeuge, Methoden, Korpora: die Modellierung von Daten in den Geistes –und Sozialwissenschaften“ statt. Organisiert und ausgerichtet von Emmanuelle Perrin im INHA, einem Zentrum für die Kunstgeschichte im Zentrum von Paris – sehr schön gelegen in der Nähe der alten BNF (Richelieu) – präsentierten sich 6 Projekte rund um das Thema Semantic Web Technologien (SWT) und Geisteswissenschaften. Dabei ging es nicht nur um kunsthistorische Projekte im engeren Sinne, sondern vielmehr um einen Überblick zu den zentralen Konzepten der digitalen Semantisierung von Daten, also Normdaten, kontrollierte Vokabularien, Ontologien und Linked Open Data (LOD). Eine zentrale Rolle bei der Umsetzung von Projekten mit SWT spielt in Frankreich die BNF und das CNRS. Beide Institutionen waren vertreten zum einen durch Antoine Isaac, dem Leiter der Abteilung Forschung und Entwicklung des Europeana-Projekts und zum anderen durch Didier Torny, dem stellvertretenden Direktor für Wissenschaftliche Information am InSHS, einer Abteilung des CNRS zur Unterstützung von Sozial- und Geisteswissenschaftlern in informationstechnologischen Dingen. Didier Torny stellte seinem sehr allgemein gehaltenen einführenden Beitrag (Données, corpus, publications : les enjeux de l’information scientifique et technique au CNRS à l’ère numérique) die drei wichtigen Organisationen bzw. Projekte bei der Unterstützung der Forscherinnen und Forscher vor: CLEO (Centre de l’edition electronique ouverte), Persée (ein Online-Zeitschriftenarchiv) und HumaNum, das Pariser Zentrum für Digital Humanities. Emmanuelle Perrin von der InVisu Gruppe des INHA, betonte die zentrale Rolle des Semantic Web für die langfristige und vor allem auch interoperable Bereitstellung von Daten und Forschungsergebnissen in den Geisteswissenschaften und stellte das eigene Projekt (STORM), eine Topographie der Stadt Kairo anhand europäischer Quellen, vor. Der Beitrag von Anila Angjeli (BNF) war hauptsächlich dem Thema Normdaten und hier speziell dem ISO Standard ISNI gewidmet, einem Versuch der BNF und der British Library, die verschiedenen nationalen Normdaten zu harmonisieren und zu integrieren. Obwohl der Ansatz sicher sehr zu begrüßen ist und offensichtlich gute Algorithmen für die Elimination von Dubletten und die Zuordnung der versch. Datensätze eingesetzt werden, bleibt doch das alte Problem vieler derartiger Projekte bestehen, dass (projekt-)relevante Personen im Datenbestand (immerhin inzwischen 8 Mio!) fehlen und nicht ohne weiteres beigefügt werden können. Der günstigste Weg ist hier eine Mitgliedschaft im ISNI Verband, der mit 800,- Euro/Jahr zu Buche schlägt.

ISNI

Nach der Pause sprach René-Vincent Du Grandlaunay, der Direktor der Bibliothek des Dominikanerinstituts für Orientstudien in Kairo (IDEO) über das Modell FRBR (Functional Requirements for Bibliographic Records) zur Katalogisierung und seiner Anwendung auf die im Institut kuratierten Publikationen aus dem arabisch-islamischen Kulturkreis. Die detailverliebte Darlegung zeigte, wie hilfreich ein FRBR-Ansatz in einem Kontext sein kann, in dem Einzelausgaben aus vielen Jahrhunderten einem Werk zugeordnet werden müssen. Der letzte Beitrag des Vormittags von Matthieu Bonicel und Stefanie Gehrke war dem Europeana Projekt „Biblissima“ gewidmet, das sich mit der Modellierung der Überlieferungsgeschichte von Texten und Sammlungen im Mittelalter und der Renaissance beschäftigt. Die Modellierung erfolgt dort in CIDOC-CRM und FRBRoo und in der Präsentation konnten schon eine Reihe von interessanten Lösungen für die Modellierung von Sammlungen, aber auch von Inventaren und Katalogen vorgestellt werden.

Biblissima

Der Nachmittag war den Themen Linked Open Data (LOD), Ontologien für Historiker und einem Wörterbuchprojekt zum Wandel der Begrifflichkeit in der Kunstgeschichte zwischen 1600 und 1750 an der Universität von Montpellier gewidmet. Anne-Violaine Szabados (CNRS, ArScAn, UMR 7041, ESPRI-LIMC, Paris Ouest Nanterre La Défense) sprach über die Erfahrungen mit den Projekten LIMC und CLAROS, die beide dem Bereich der Archäologie zugeordnet werden können und auf die Vernetzung und Verlinkung mit LOD setzen. Francesco Beretta (CNRS, LARHRA, UMR 5190, Université de Lyon) stellte anhand des Historischen Projekts SyMoGIH (Système Modulaire de Gestion de l’Information Historique) die Probleme von Historikern bei der Suche nach einer passenden Ontologie für historische Ereignisse dar.

SyMoGIH

Das EU-geförderte Projekt LexArt, das von Flore César (CRISES, EA 4424, université Paul-Valéry, Montpellier 3) präsentiert wurde, steht noch anz am Anfang. Es versucht die Entwicklung von Kunstbegriffen in der Frühen Neuzeit anhand einer detaillierten Analyse von 300 Kunsttraktaten und Abhandlungen nachzuzeichnen, die anhand eines digitalen Werkzeugs gesammelt, analysiert und präsentiert werden sollen. Dies wird in Zusammenarbeit mit dem Trierer Zentrum für Digital Humanities realisiert werden, das entsprechend Expertise im Kontext digitalisierter Wörterbücher besitzt. Zum Abschluss fasste Mercedes Volait (InVisu, USR 3103 CNRS/INHA) die Ergebnisse des Tages noch einmal zusammen und erwähnte dabei auch einige der Themen, die nicht angesprochen werden konnten, wie z.B. die juristischen Fragen rund um LOD.

Insgesamt stellt sich für mich das Interesse an Semantic Web Technologien für geisteswissenschaftliche Projekte in Frankreich positiv da. Darauf weisen zumindest die besprochene Veranstaltung aber auch andere Aktivitäten in diese Richtung hin, die derzeit vor allem in Paris stattfinden. Am 12 Dezember wird dort z.B. eine Schulung „Einführung in das Semantic Web“ durch den früheren Leiter der Informatikabteilung der BNF, Romain Wenz, angeboten. Insbesondere die Ausrichtung von Europeana, die sich mit EDM auf ein graphenbasiertes Datenformat festgelegt hat, befördert die Akzeptanz und auch die Beschäftigung mit Semantik Web Technologien, gerade in den Geistes- und Sozialwissenschaften. Angebote wie data.bnf.fr erhöhen dabei die Sichtbarkeit und machen den konkreten Nutzen von Semantic Web Technologien evident.

Die Folien der Beiträge sind jetzt online unter: http://invisu.inha.fr/lundi-17-novembre-2014-Outils

Jörg Wettlaufer, Göttingen

Outils, méthodes, corpus : la modélisation des données en SHS.

Emmanuelle Perrin (InVisu, USR 3103 CNRS/INHA) : Présentation de la journée.

Didier Torny (directeur adjoint scientifique en charge de l’information scientifique et technique à l’InSHS) : Données, corpus, publications : les enjeux de l’information scientifique et technique au CNRS à l’ère numérique.

Première parti : Présidence de séance : Antoine Isaac (R & D manager, Europeana)

Anila Angjeli (BnF, département de l’information bibliographique et numérique) : ISNI – Les enjeux d’un identifiant international pour les personnes et les organismes.

René-Vincent Du Grandlaunay (directeur de la bibliothèque de l’Institut dominicain d’études orientales, Le Caire) : Le modèle FRBR appliqué au patrimoine arabo-musulman.

Matthieu Bonicel (BnF, coordinateur de Biblissima) et Stefanie Gehrke (coordinatrice métadonnées, Biblissima) : Biblissima et la modélisation de l’histoire de la transmission des textes et de la constitution des collections.

Seconde partie (Présidence de séance : Anila Angjeli)

Anne-Violaine Szabados (CNRS, ArScAn, UMR 7041, ESPRI-LIMC, Paris Ouest Nanterre La Défense) : L’expérience LIMC & CLAROS : pour l’élévation des données du patrimoine et de la culture dans le Linked Open Data.

Francesco Beretta (CNRS, LARHRA, UMR 5190, Université de Lyon) : Le projet SyMoGIH et le web de données.

Flore César (CRISES, EA 4424, université Paul-Valéry, Montpellier 3) : Modéliser le transfert des savoirs en Europe septentrionale aux xviie et xviiie siècles : l’exemple du projet LexArt.

Mercedes Volait (InVisu, USR 3103 CNRS/INHA) :Synthèse de la journée et discussion.

Rückschau: DH2014 Lausanne, Switzerland – 7.7.-11.7.2014

Print Friendly, PDF & Email

IMG_0767
DH2014 ist vorbei und Deutschland Fussball-Weltmeister. Da gibt es zwar keinen direkten Zusammenhang, aber auf der Tagung war auch nicht bei allen Vorträgen der Zusammenhang zu Digital Humanities offensichtlich, daher sei diese Bemerkung hier einmal erlaubt. Mit den Workshops am Montag und Dienstag dauerte die Tagung eine ganze Woche, die prall gefüllt war mit Vorträgen, Postern, einem Fun Run und sehr sehr viel Regen. Das Wetter hat sicher auch so manchen davon abgehalten, die reizvolle Landschaft des Genfer Sees näher zu erkunden. Statt dessen drängte es sich am Veranstaltungsort. Mit über 700 Teilnehmerinnen und Teilnehmern war DH2014 bislang die größte Veranstaltung ihrer Art. Das hat sich natürlich auch auf den Charakter der Konferenz ausgewirkt.
Am ersten Tag der Tagung war es schwierig, eine der acht Parallelsektionen zu besuchen, so voll waren die darfür vorgesehenen Räume. Das ist aber vielleicht auch schon der einzige Kriktikpunkt, den man der ansonsten vorbildlich von Claire Clivaz (UNIL) und Frederik Kaplan (EPFL) organisierten Tagung anheften kann. Besonders hervorzuheben ist die Vorbereitung der Tagung durch Melissa Terras (UCL), die das peer review der Beiträge organisierte und sich auch sonst als gute Seele der Konferenz herausstellte (sozusagen der Schweinsteiger der DH). Für die verhinderte Bethany Nowviskie (University of Virginia Library) sprach sie deren Redemanuskript – digital humanities in the anthropocene – eine teilweise düstere und zugleich poetische und feinfühlige Reflektion über DH im Kontext von Umwelt, Natur und Technologie der modernen Welt. Die Frage nach der Relevanz des von ihr konstatierten Artensterbens für die Arbeit in den DH blieb über die postulierte Analogie von Vergänglichkeit in Natur und Kultur hinaus für mich zwar weitgehend unbeantwortet, aber ein Ohrenschmaus war die Rede allemal für diejenigen, die der englischen Sprache auf dieser Schöpfungshöhe mächtig sind (bei einer internationalen Tagung wie dieser übrigens nicht unbedingt ein Zustand, von dem man ausgehen sollte). Sie brachte auch etwas politisches in die DH Community, das ich bislang so nicht wahrgenommen hatte.
A propos Community. Ray Siemens beschwor diese Community in gewohnt souverainer Art in seiner Keynote: Das wir zählt! Alle, die sich noch irgendwie nicht zur großen Gemeinschaft der Digital Humanities zugehörig fühlten – spätestens nach seiner Rede waren sie in den weiten rhetorischen Armen von Siemens angekommen. Das führte aber sogleich zu Lästerei auf Twitter, diesem vermutlich von der NSA ins Leben gerufenen Kurznachrichtendienst, bei dem man der gesamten Welt in Echtzeit mitteilen kann, was man gerade denkt, fühlt und macht. Die Kritik prallte aber an Siemens ab wie der Zölibat am Papst (siehe aber, inzwischen dementiert: Katholische Priester: Papst Franziskus deutet Lösungen in Zölibatsfrage an). Und das ist auch richtig so, denn wir haben ja schließlich gestern erst gesehen, dass Teamgeist und „Community“ alles erreichen kann, wenn er bzw. sie nur wollen – sogar den Weltmeistertitel.
Sehr gelungen waren auch das Logo und die Corporate Identity der Tagung. Die von einem „italienschen“! Designer entworfenen Netzwerkvisualisierungen der aktiven Tagungsteilnehmerinnen und -teilnehmer, die zunächst als begehbare Bodenkunst vor dem (imposanten und gerade neu eröffneten) Swiss Tech Convention Centre sowie auch multimedial (mit Photos)! gezeigt wurden, kamen sehr gut an und waren ein guter Icebreaker für die Kontaktaufnahme. Diese kleinen Kunstwerke waren damit vielleicht dem Kern von „Digital Humanities“ näher als einige der Vorträge an den folgenden Tagen.

IMG_0775

IMG_0773

Fast hätte ich nun bei meiner kurzen Umschau die Eröffnungsvorlesung von Bruno Latour, dem großen französischen Wissenschaftshistoriker, vergessen. Er sprach zum Thema: „Rematerializing Humanities Thanks to Digital Traces“. Seiner Beobachtung des Wiederstarken des „Empirismus“ durch die moderne Digitalisierung ist inhaltlich und faktisch zuzustimmen. Es bleibt für mich allerdings offen, ob das „Digitale“ wirklich am treffendsten durch seine Materialität beschrieben ist – als ob Denkprozesse im Gehirn weniger materiell wären? Aber das sind vielleicht philosophische Fragen, mit denen sich die Geisteswissenschaftler beschäftigen sollten. Ich als Digitaler Humanist bin jedenfalls auch gerne materiell…

IMG_0782

Zum Schluß noch einige Links zu interessanten Projekten oder Folien, die mir im Laufe der Tage unter gekommen sind. Die nächste DH Konferenz der ADHO findet übrigens vom 29. Juni bis 3. Juli 2015 in Sidney statt! Und 2016 folgt dann Krakau.

Tagungswebseite

Abstracts Proceedings of DH 2015 als PDF mit ca. 85MB

Alexander O’Connor, David Lewis, Felix Sasaki: Towards Linking Linguistic Resources in the Humanities

Semantic Technologies for Historical Research: A Survey (Semantic Web Journal)

Print Friendly, PDF & Email

Es tut sich etwas in der Semantic Web Szene in Bezug auf die Anwendung dieser Technologie auf Historische Forschung. Ich möchte auf einen Artikel hinweisen, der beim Semantic Web Journal akzeptiert wurde und den oben genannten Titel trägt. Verfasst wurde er von einem niederländischen Autorenkollektiv: Albert Meroño-Peñuela, Ashkan Ashkpour, Marieke van Erp, Kees Mandemakers, Leen Breure, Andrea Scharnhorst, Stefan Schlobach, Frank van Harmelen. Ein PDF des Artikels findet sich auf der oben verlinkten Webseite. Leider dort kein Hinweis auf die Wissenschaftliche Kommunikationsinfrastruktur WissKI/Drupal. Und da wir gerade dort sind, noch der Hinweis auf einen anderen interessanten Überblicksartikel, der sich noch in der Reviewphase befindet: A survey of RDB to RDF translation approaches and tools.

Report: ICCL Dresden Summer School: Ontologies and their use

Print Friendly, PDF & Email

Eine gute Woche nach dem Ende der ICCL Summer School in Dresden ist es Zeit für ein persönliches Fazit. Die erste Woche war Themen wie Description Logic und theoretischer Informatik gewidmet. Harter Tobak für einen Historiker… Aber zumindest weiss ich jetzt, wozu die DL-Algebra nützlich ist und dass ich sie nicht unbedingt brauche, wenn ich meine Ontologie in OWL schreibe. 🙂 Die zweite Woche sollte praktischer ausgerichtet sein – leider hat sich diese Hoffnung nicht erfüllt. Sehr interessant und hilfreich waren für mich die Vorlesungen von Lehmann und Hitzler, aber auch Eiter und Janovicz haben mir gut gefallen. Meine ursprüngliche Erwartung eines workshop Charakters der Summer School mit Gruppenarbeit, Übungen und dergleichen hat sich leider nicht erfüllt. Angenehm aufgefallen ist mir hingegen der ausgewogene Stundenplan (1h Vorlesung, 1/2 Stunde Pause). Das war sehr angemessen. Als wirklich schön und sehr kommunikativ haben sich die Exkursionen erwiesen – aber dafür war ich nicht nach Dresden gekommen. Alles in allem bleibt ein gemischtes Fazit zurück: ja, es war lehrreich und teilweise auch brauchbar für meine Arbeit, aber insgesamt blieb die Veranstaltungen weit hinter meinen (uninformierten) Erwartungen zurück. Ich hätte mich vorher etwas genauer informieren sollen, worfür die Abkürzung des Instituts steht und daraus die richtigen Schlüsse ziehen sollen. Ich bin halt doch eher Praktiker, was die Informatik angeht. Dresden allerdings ist immer eine Reise wert und die Rückfahrt von der Exkursion zum Elbsandsteingebirge an der Elbe entlang war schon traumhaft. Das sollte ich nochmal in Ruhe machen, wenn alle Ontologien geschrieben und Internetportale gelauncht sind…

New building of the Faculty of Computer Scienc...

New building of the Faculty of Computer Science of the Technische Universität Dresden (Dresden University of Technology), Germany. (Photo credit: Wikipedia)

Im folgenden poste ich einige Links und Notizen, die mir während des Kurses besonders aufgefallen sind. Das Kursprogramm findet sich unter:

http://www.computational-logic.org/content/events/iccl-ss-2013/program.php?id=24

Dort auch zumeist Links auf die Folien der Vorlesungen.

20130823-154902.jpg

ICCL Summer School 2013 – Course Program

  • Ontology-based Model Checking Applications

Uwe Aßmann (Technische Universität Dresden, Germany)

Franz Baader (Technische Universität Dresden, Germany)

  • Datalog-Based Data Access over Ontology Knowledge Bases

Thomas Eiter (Technische Universität Wien, Austria)

Peter Haase (fluid Operations AG, Germany)

  • Ontologies and Rules

Pascal Hitzler (Wright State University, Dayton, Ohio, U. S. A.)

  • Geosemantics, Linked Spatiotemporal Data, and Geo-Ontologies

Krzysztof Janowicz (University of California, Santa Barbara, U. S. A.)

Matthias Knorr (Universidade Nova de Lisboa, Portugal)

Markus Krötzsch (University of Oxford, U. K.)

  • The Linked Data Lifecycle

Jens Lehmann (University of Leipzig, Germany)

  • RDF and SPARQL

Sebastian Rudolph (Technische Universität Dresden, Germany)

Workshop Presentations

The workshop consists of short presentations about the research work of selected participants.

  • Sandeep Kumar (Indian Institute of Technology, India): Semantic Web Service Selection Models
    Silvia Giannini (Politecnico di Barri, Italy): Towards a unified framework for distributed data management across the semantic web
    Anton Dergunov (Lobachevsky State University of Nizhny Novgorod, Russia): Knowledge Representation for Performance Analysis
    Marzieh Bakhshandeh (Instituto Superior Técnico, Portugal): On the Use of Ontologies to Specify and Integrate Enterprise Architecture Models

—————————————————————————
Notes and Links (ICCL_Summer_School_notes)

Introduction: Pascal Hitzler

– Importance of Ontologies… Making sense of the Data (Big Data)

————————————————————————–

Rudolph: Einführung RDF : http://semantic-web-grundlagen.de/wiki/SWebT1_WS12/13
Baader: Einführung DL http://arxiv.org/pdf/1201.4089v3

————————————————————————–

Jockers, Matthew. Macroanalysis: Digital Methods and Literary History. University of Illinois Press, 2013

Alan Rector,Nick Drummond, Matthew Horridge, Jeremy Rogers., Holger Knublauch, Robert Stevens, Hai Wang, Chris Wroe (2004) OWL Pizzas: Practical Experience of Teaching OWL-DL: Common Errors & Common Patterns (2004) in E Motta and N Shadbolt, et al. (eds) Proceedings of the European Conference on Knowledge Acquistion, Northampton, England, 2004, Lecture Notes on Computer Science LNAI3257, Springer-Verlag.pp 63-81

—————————————————————————

http://www.semantic-web-journal.net/

—————————————————————————

http://korrekt.org/page/OWL_2_Profiles

http://sparql.org/query-validator.html
————————————————————————-

http://protegewiki.stanford.edu/wiki/Protege4UserDocs

protegewiki.stanford.edu/wiki/Protege4GettingStarted

———————————————————–

http://code.google.com/p/elk-reasoner/

http://euclid-project.eu/

———————————————————–

Linked Open Vocabularies: http://lov.okfn.org/dataset/lov/

—————————————————-

LIMES Interlinking Framework: http://aksw.org/Projects/LIMES.html

SILK Framework: http://wifo5-03.informatik.uni-mannheim.de/bizer/silk/

NLP2RDF: Uni Leipzig: http://persistence.uni-leipzig.org/nlp2rdf/

————————————————

Ontology repair: http://ore-tool.net/Projects/ORE

————————————————

Faceted browsing: https://github.com/GeoKnow/Facete

————————————————

http://aksw.org/Projects/AutoSPARQL.html

BOA = BOotstrapping linked datA:

http://aksw.org/Projects/BOA.html

BOA is an iterative bootstrapping strategy for extracting RDF from unstructured data.

IMG_4053