Online Petition zur Digitalen Fernleihe! Jetzt aktiv werden für die digitale Auslieferung von Kopien in der Fernleihe wissenschaftlicher Bibliotheken!

Print Friendly, PDF & Email

Es gibt neue Informationen zur Digitalen Fernleihe: Die SUB Göttingen informiert unter https://www.sub.uni-goettingen.de/sub-aktuell/einzelansicht/einstellung-des-scan-deliver-dienstes-und-der-elektronischen-kopienlieferung-der-fernleihe/ , dass die elektronische Kopienlieferung, die Aufgrund der COVID19 Krise gestartet wurde, nun wieder eingestellt  wird. Der Scan & Deliver-Dienst und die elektronische Kopienlieferung der Fernleihe wurden in der Anfangsphase des Corona-Lockdowns ermöglicht durch ein Abkommen zwischen der Kultusministerkonferenz der Länder und den Verwertungsgesellschaften VG Wort und VG Bild-Kunst. Die Vereinbarung sei bis zum 31.5.2020 begrenzt und wurde nun leider nicht verlängert. Vor diesem Hintergrund müsse die SUB Göttingen den Scan & Deliver-Dienst und die elektronische Kopienlieferung der Fernleihe an Endnutzerinnen und Endnutzer zum 31.5.2020 einstellen. Die Bibliotheken seien an die rechtlichen Rahmenbedingungen gebunden und kann daher diesen Service nicht fortführen.

Meine persönliche Meinung dazu: SEHR SCHADE! VG Wort und Bild-Kunst vergeben eine wichtige Chance zur Digitalisierung in der Wissenschaft!!! Die Bibliotheken würden gerne weitermachen, aber die Interessenvertretungen der AutorInnen blockieren eine Fortsetzung. Vielleicht wäre es nun Zeit für eine Online-Petition für die Digitale Fernleihe? Alle reden von mehr Digitalisierung, aber die Realität sieht leider oft ganz anders aus…

Und das soll jetzt schon wieder vorbei sein? Wer Interesse hat, bitte gerne bei mir melden und dann setzen wir gemeinsam eine Petition auf und sammeln Unterschriften. Es mag zwar nur wie eine kleine Änderung im Verfahrensablauf der Fernleihe klingen, aber für die Arbeitsmöglichkeiten von WissenschaftlerInnen hat die direkte Auslieferung digitaler Versionen der von Ihnen benötigten Literatur große Auswirkungen. Textmining und Information Retrieval sowie mobile digitale Nutzung der Literatur ist nur im digitalen Format möglich. Mit der digitalen Kopienlieferung würden wir uns sehr viel Zeit für die erneute Digitalisierung der Texte  sparen, die wir besser in Forschung und Lehre investieren könnten. Und die Vermeidung von Papierausdrucken bei denen, die eine digitale Kopie bevorzugen, würde zudem die Umwelt schonen! Es spräche also nichts dagegen, denn wir alle sind nicht nur die Nutzer der Fernleihen sondern in der Regel auch die Autoren der Artikel und Texte, die wir über die Fernleihe bestellen. Die Vereinfachung wäre im Interesse aller Betroffenen. Wenn die VG-Wort einmal alle AutorInnen zu diesem Thema befragen würde, dann gäbe es bestimmt ein positives Ergebnis für die Möglichkeit, die Texte auch digital zu erhalten. Wer sollte auch etwas dagegeben haben? Die rechtlichen Rahmenbedingungen sind ja, ob nun digital oder auf Papier, immer die selben. Die Zeit und Energie, die wir in die Retrodigitalisierung von ursprünglich schon digital verschickten Fernleihkopien stecken, steht in keinem Verhältnis zu einer möglichen Verringerung der Ausschüttungen von VG-Wort and die AutorInnen. Das ist zumindest meine Meinung zu dem Thema.

1. Call for papers zur 20. MVE-Tagung 2020 an der TU Braunschweig

Print Friendly, PDF & Email
[30.5.2020]

Leider muss auch diese Tagung aufgrund von COVID19 auf das nächste Jahr verschoben werden. Die MVE-Liste wird den Call mit einer neuen Deadline versenden, wenn abzusehen ist, wann die Tagung stattfinden kann. Sehr schade, aber momentan sind Präsenztagungen einfach noch nicht wieder organisierbar.

——————————————————————————————————————-

Dieser CfP mag einigen hier etwas off-topic erscheinen, aber das Thema dieses Call ist gar nicht sooooo weit von den Digital Humanities entfernt, wie es auf dem ersten Blick erscheinen möchte. Da sind zum Beispiel die „personellen Überschneidungen“, wenn ich es mal so ausdrücken darf. Drei Beispiele:

Gerhard Lauer, Professor für Digital Humanities in Basel, interessiert sich schon lange für die Evolution und hat erst vor kurzem in der NZZ veröffentlicht: „Wenn Geisteswissenschaften die Methoden der Evolutionstheorie übernehmen

Und auch Patrick Sahle, Professor für Digital Humanities in Wuppertal sowie Hubertus Kohle, Professor für mittlere und neuere Kunstgeschichte in München, scheinen zumindest interessiert, wie diese beiden Tweets nahe legen:

John Carter Wood, Wissenschaftlicher Koordinator des Projekts NFDI4Memory am IEG in Mainz interessiert sich schon seit vielen Jahren für Evolutionäre Psychologie.

Jörg Wettlaufer (=ich), Koordinator für Digitalisierung an der Philosophischen Fakultät der Georg-August Universität und der Akademie der Wissenschaften zu Göttingen, habe bekannterweise auch großes Interesse an der Evolutionstheorie und bin der MVE-Liste seit Anbeginn verbunden.

Wenn ich etwas tiefer suchen würde, dann würden sich bestimmt noch andere KandidatInnen finden, die Interesse an beiden Forschungsfeldern haben. Korrelation ist noch keine Kausalität, aber interessant ist die Beobachtung doch, finde ich.Vielleicht mal ein Thema für ein Panel auf einer der nächsten DH-Tagungen…? Zwei Treffer auf der ersten Seite einer einfachen google-Suche nach Evolutionary Anthropology & Digital Humanities lassen mich jedenfalls hoffen.

Wer jedenfalls mehr über Evolution und die Auswirkung von Anpassungsprozessen auf das menschliche Verhalten erfahren will und gerne interdisziplinär denkt, ist herzlich eingeladen, teilzunehmen.

1. Call for papers zur 20. MVE-Tagung 2020 an der TU Braunschweig (Organisation Nicole Holzhauser, Christian Ebner, Farina Wille und Frank Eggert)

MVE-Treffen 2020
an der TU Braunschweig
vom 1. bis 3. Oktober 2020

EVOLUTION UND ANPASSUNG. Menschliches Verhalten und die evolutionäre Perspektive

Evolutionäre Theorien, sofern sie sich auf Darwin beziehen, sind traditionell in der Biologie verortet. Inzwischen werden evolutionstheoretische Überlegungen aber auch in den Kultur-, Sozial- und Verhaltenswissenschaften (wieder) diskutiert und angewendet. So werden beispielsweise in der Evolutionspsychologie und in der Evolutionären Soziologie evolutionstheoretisch fundierte Modelle herangezogen, um menschliches Verhalten in unterschiedlichen Domänen zu beschreiben und zu erklären. Aufmerksamkeit haben dabei bisher besonders vermeintlich biologienahe Verhaltensbereiche, wie etwa Partnerwahl und Reproduktion, oder dichotomisierende Debatten zur Anlage-Umwelt-Kontroverse erfahren. Aber auch andere zentrale Problemfelder der Evolutionstheorie wie etwa die Frage nach stabilen Systemen von Kooperation oder der Funktion von sozialen Strukturen oder sozialen Signalen werden sowohl theoretisch als auch empirisch behandelt.

Seit 20 Jahren fördert die MVE-Liste inzwischen den interdisziplinären Austausch von Wissenschaftler*innen verschiedenster Fachhintergründe zum Thema „Menschliches Verhalten aus evolutionärer Perspektive“ und bietet mit den MVE-Treffen eine Kommunikationsplattform für evolutionstheoretisch informierte Forschung. Mit dem Ziel, die (theorie-)kritische Diskussion von evolutionstheoretischen Ansätzen in den Verhaltens- und Sozialwissenschaften weiter anzuregen, wollen wir die Tagung in diesem Jahr in psychologisch-soziologischer Kooperation unter das Motto „Evolution und Anpassung“ stellen und dabei sowohl eine Reihe von grundlegenden theoretischen Problemen erörtern als auch die Nützlichkeit evolutionstheoretischer Theoriebildung in der Erklärung menschlichen Verhaltens und sozialer bzw. gesellschaftlicher Phänomene am Beispiel verschiedener Domänen und empirischer Anwendungsfelder diskutieren.

Weiterlesen

Stellenangebote am Institut für Digital Humanities in Göttingen

Print Friendly, PDF & Email

Ich möchte auf zwei Stellenangebote am Institut für Digital Humanties in Göttingen hinweisen, für die man sich ab sofort und bis spätestens 17.09.2019 bewerben kann:

1. 

wissenschaftliche_r Mitarbeiter_in (w/m/d)

mit 100 % der regelmäßigen wöchentlichen Arbeitszeit (zzt. 39,5 Stunden/Woche) befristet für die Dauer von zunächst drei Jahren zu besetzen. Die Entgeltzahlung erfolgt nach Entgeltgruppe 13 TV-L.

Ihre Aufgaben
– Mitwirkung am Forschungsprojekt „EGRAPHSEN“ (s. https://www.uni-goettingen.de/de/598165.html)
– Mitwirkung an den Lehrveranstaltungen gem. § 31 NHG und bei der Studienberatung
– Mitarbeit bei der Verwaltung der Studiengänge sowie von Bibliothek und e-Learning-Angeboten
– Eigene Forschung

Ihr Profil
– abgeschlossenes wissenschaftliches Hochschulstudium in Klassischer Archäologie, bevorzugt mit Promotion
– Bereitschaft, eine Qualifikationsarbeit mit einem Thema aus dem Bereich der Digitalen Vasenforschung anzufertigen
– einschlägige Sprachkenntnisse in Englisch

Vollständige Ausschreibung unter: https://www.uni-goettingen.de/de/305402.html?cid=14556

2.

wissenschaftliche_r Mitarbeiter_in (w/m/d)

mit 65 % der regelmäßigen wöchentlichen Arbeitszeit (zzt. 25,87 Stunden/Woche) befristet für die Dauer von zunächst drei Jahren zu besetzen. Die Entgeltzahlung erfolgt nach Entgeltgruppe 13 TV-L.

Ihre Aufgaben
– Mitwirkung an den Lehrveranstaltungen gem. § 31 NHG und bei der Studienberatung
– Mitarbeit bei der Verwaltung der Studiengänge sowie von Bibliothek und e-Learning-Angeboten
– Unterstützung bei den anfallenden IT-Aufgaben
– Mitarbeit an Forschungsprojekten der Abteilung „Bild und Objekt“
– Eigene Forschung zur Anfertigung einer Dissertation

Ihr Profil
– abgeschlossenes wissenschaftliches Hochschulstudium in Informatik oder in einer Bildwissenschaft (Klassische Archäologie, Kunstgeschichte, etc.)
– Erfahrungen im Bereich der Digital Humanities
– Bereitschaft, eine Qualifikationsarbeit in einem Thema aus dem Bereich der Digitalen Bild- und Objektwissenschaft anzufertigen
– einschlägige Sprachkenntnisse in Englisch

Vollständige Ausschreibung unter: https://www.uni-goettingen.de/de/305402.html?cid=14555

Workshop: Text Mining mit Open Semantic (Desktop) Search – eine digitale Such- und Annotationsumgebung für informationsgetriebene Fragestellungen in den Geisteswissenschaften. DHd 2019, Mainz, 25.3.19.

Print Friendly, PDF & Email

Am 25.3.19  findet ein Workshop zu Open Semantic (Desktop) Search (OSDS) auf der DHd in Mainz statt. We are so exited :-). Er basiert auf dem Hands On, der auf dem Historikertag 2018 in Münster durchgeführt wurde. Dieser Blogbeitrag leitet durch die Installation von OSDS und stellt Nutzungsbeispiele vor.

Die zugehörigen Slides für den Workshop finden Sie hier.

Zunächst einmal – worum handelt es sich? OSDS ist eine freie Software, die nur aus Open Source Bestandteilen zusammengestellt wurde und auf dieser Grundlage als Donationware weiter entwickelt wird. Das Projekt stammt aus dem Journalismus und spezieller aus dem Bereich des investigativen Journalismus, der sich heutzutage mit teilweise riesigen Datenmengen (Stichwort: Panama Papers) auseinander setzen muß/möchte.

Der Entwickler hinter OSDS ist Markus Mandalka, der den Workshop mit ausrichtet und in den letzten Tagen auch ein neues Release von OSDS vorbereitet hatte. Open Semantic Search kann man auf der oben verlinkten Seite von Markus Mandalka in drei Varianten, die er über die Webseite www.opensemanticssearch.org und ein dazugehöriges github-repository anbietet, herunterladen:

1. Open Semantic Desktop Search

2. Open Semantic Search Appliance

3. Open Semantic Search Server (Package)

Paket 1 ist eine VM Appliance, die man mit Oracle Virtual Box laden und lokal auf einem Rechner betreiben kann. Für den Workshop wurde die VM auf den aktuellen Stand von Virtual Box (6.0.4.) angepaßt. Die Appliance wird in zwei Varianten zum Download angeboten: einmal mit englischen und einmal mit deutschen Keyboard Settings. Die deutsche Version wurde vor kurzem aktualisiert (08.04.19). Die anderen Versionen sind teilweise noch auf dem Stand von Dezember 2018. Für den workshop nutzen wir die aktuelle deutsche Version.

Die zweite Variante ist ebenfalls eine Appliance, die ebenfalls unter Oracle Virtual Box läuft, aber nur einen Server als localhost bereit stellt. Dort fehlt der „Desktop“ im Debian Linux, auf dem beide Distributionen aufsetzen. Wie das so bei virutuellen Maschinen für Virtual Box üblich sind, bringen die Appliances ein gewisses Gewicht auf die Waage. Die OSDS Version schlägt mit etwa 3GB zu Buche, die Servervariante OSS mit (nur) 1.8 GB. Das dritte Paket (OSSS) ist mit etwa 300 MB am Leichtgewichtigsten, aber erwartet natürlich auch eine Installation und vor allem Konfiguration auf einem Debian oder Ubuntu basierten System. Letzteres haben wir inzwischen ausprobiert und es hat auch gut funktioniert: https://teaching.gcdh.de/search/ .

Bevor wir zur mit der Installation von OSDS beginnen, vorab noch einige Informationen zum Leistungsumfang des Pakets und warum es sich überhaupt lohnt, sich damit zu beschäftigen. Kernstück der Enterprise Suchmaschine ist ein Lucene SOLR Indexer (Elastic Search ist ebenfalls verwendbar), mit dem recht beliebige Dokumente indexiert werden können. Die enthaltenen Informationen werden damit als Keyword im Kontext findbar und referenzierbar. Aber OSDS ist noch wesentlich mehr. In dem Paket ist auch ein sogenanntes Open Semantic ETL (Extract-Transform-Load) Framework integriert, in dem die Texte für die Extraktion, Integration, die Analyse und die Anreicherung vorbereitet werden. Es handelt sich um eine Pipeline, die einem sehr viel von Arbeit hinsichtlich der Bereitstellung der Texte für den Indexer abnimmt. Wer mit Lucene/Solr arbeitet weiß, wie viel Zeit die Aufbereitung der Daten in der Regel beansprucht. OSDS nimmt einem viel davon ab und kümmert sich nach dem Prinzip eines überwachten Ordners um sämtliche Schritte, die von der Extraktion über die linguistische Analyse bis zur Anreicherung mit weiteren Metadaten notwendig sind. Schliesslich stellt das Paket auch einen Webservice (Rest-API) für die maschinelle Kommunikation sowie ein durchdachtes User Interface zur Verfügung, mit dem die Suchmaschine bedient, konfiguriert und natürlich auch durchsucht werden kann. Die facettierte Suche spielt dabei eine besondere Rolle, da die Facetten mehr oder weniger automatisch aus der linguistischen Analyse der Texte und auf der Grundlage von  (konfigurierbaren) Namen Entities (Personen, Orte, Organisationen etc.) gebildet werden. Entsprechend sind auch die Hauptfunktionen des Softwarepakets angelegt: Sucheninterface, ein Thesaurus für Named Entities, Extraktion von Entitäten in neu zugefügten Texten, eine listenbasierte Suche sowie eine Indexfunktion, die den Aufbau des Suchindex neu anstößt. Und das alles in einem einfach zu bedienden Userinterface, das mit der Maus bedient werden kann.

Wer nun neugierig oder enthusiastisch geworden ist, dem sei gesagt, dass es wie meist im Leben einen Wermutstropfen gibt: insbesondere OSDS aber auch OSS brauchen gewisse Ressourcen, um ihre Arbeit effizient verrichten zu können. Als Mindestausstattung für einen Betrieb unter Orcale Virtual Box gebe ich 8 GB RAM und (der Größe des Projekts entsprechend) ausreichend Speicherplatz auf einer SSD an. Eventuell kann man sich, bei schwacher Hardware, eines Tricks bedienen und den Index auf einer schnellen Maschine (aktueller Mehrkernprozessor mit möglichst üppigem RAM) erstellen lassen und dann beides (Appliance und Solr-Index) auf das betreffende Gerät zurückspielen. Meist reicht dann die Performance, um zumindest die Suchfunktionalität auch auf schwächerer Hardware zu ermöglichen. Ein weiterer Ressourcenfresser beim Anlegen des Index ist OCR. OSDS hat Tesseract als eigene OCR Egine inkl. (hört hört) Frakturerkennung! integriert. Wenn man seine PDF Dokumente aber vor der Indexierung erst noch mit der OCR behandelt, kann man den Rechner bei entsprechender Materialfülle gerne mal ein oder zwei Tage beschäftigen, bevor sich (hoffentlich) ein brauchbares Ergebnis zeigt. Daher rate ich (ebenso wie der Entwickler es tut) dazu, OCR erst mal abzustellen, wenn man es nicht unbedingt braucht (geht im Konfigurationsmenue) und den Index zunächst mal nur mit schon vorhandenen Textlayern oder am besten mit Dokumenten zu füttern, die eh nur aus Text bestehen. Dabei ist die Suchmaschine recht offen für Formate und bringt eine Menge Filter mit, die den Text extrahieren können (hier mal die Liste von der Webseite kopiert: text files, Word and other Microsoft Office documents or OpenOffice documents, Excel or LibreOffice Calc tables, PDF, E-Mail, CSV, doc, images, photos, pictures, JPG, TIFF, videos and many other file formats). Im Hintergrund werkelt hier natürlich Apache Tika.

Weiterlesen

CfP: Digital History: Konzepte, Methoden und Kritiken digitaler Geschichtswissenschaften, Göttingen, 16.-18. März 2020

Print Friendly, PDF & Email

Veranstaltet von der AG Digitale Geschichtswissenschaft im VHD
Organisiert von: Karoline Döring, (München); Stefan Haas (Göttingen); Mareike König (Paris), Jörg Wettlaufer (Göttingen)
Wissenschaftlicher Beirat: Andreas Fickers, Gudrun Gersmann, Simone Lässig,  Malte Rehbein, Patrick Sahle, Charlotte Schubert, Georg Vogeler

Deadline: für die Einreichung von Vorschlägen (eine PDF-Datei) 15.4.2019
Mailadresse: digihist@digihum.de
Termin der Tagung: 16.-18. März 2020
Ort: Göttingen, SUB Historisches Gebäude, Papendiek 14, Alfred-Hessel Saal.

Die historische Forschung und Lehre haben sich in den letzten Jahren durch die Digitalisierung von Quellen, Methoden und Forschungsumgebungen, innerhalb derer Geschichtswissenschaft durchgeführt, produziert, diskutiert und verbreitet wird, tiefgreifend verändert. Massendigitalisierungsprojekte ermöglichen einen zeit- und ortsunabhängigen Zugang zu Quellen und Literatur. Kommerzielle und OpenSource-Programme stehen bereit, um mittels qualitativer und/oder quantitativer Datenanalyse verschiedene methodische Verfahren zur Analyse und Interpretation dieser Quellen anzuwenden. Die Fachinformation hat sich überwiegend ins Netz verlagert und schließt partizipative Medien ein. Die Bandbreite an digitalen Lehrmethoden hat stark zugenommen, während die Online-Präsentation von Forschungsergebnissen und Citizen-Science-Projekten den Dialog und das aktive Einbinden der breiten Öffentlichkeit in den Forschungsprozess ermöglichen. Lehrstühle zur Digital History werden eingerichtet, die Historikertage haben selbstverständlich digitale Sektionen und fast jedes neue Forschungsprojekt hat einen (wenn auch manchmal kleinen) digitalen Anteil.

By Martin Grandjean – Grandjean, Martin (2014). „La connaissance est un réseau“. Les Cahiers du Numérique 10 (3): 37-54. DOI:10.3166/LCN.10.3.37-54., CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=293646

Doch auch wenn sich die Digital History einen zunehmend respektablen Platz im Fach erworben hat, bleibt sie in den Augen vieler ein “ewiges Versprechen” (Cameron Blevins 2016). Hier möchte die Tagung “Digital History: Konzepte, Methoden und Kritiken digitaler Geschichtswissenschaften” ansetzen und eine Bilanz ziehen, indem sie  Veränderungen in der Art und Weise, wie die Geschichtsforschung durchgeführt und kommuniziert wird, auf der einen Seite und neue Objekte, Methoden und Werkzeuge der Analyse und ihre Auswirkungen auf der anderen Seite thematisiert. Die Tagung ist themen- und epochenübergreifend. Drei große Themenbereiche werden dabei diskutiert:

  • Zum ersten soll anhand von Forschungsprojekten das Potential digitaler Methoden ausgelotet und kritisch beleuchtet werden. Der Fokus liegt dabei auf dem Beitrag, den digitale Methoden für die Entwicklung von historischen Argumenten und Interpretationen leisten können.
  • Zum zweiten wird danach gefragt, wie sich geschichtswissenschaftliche Forschung, ihre Themen, Praktiken sowie Kommunikations- und Publikationskulturen im digitalen Zeitalter verändern und wie das Verhältnis von digitalen und klassisch hermeneutischen Methoden neu zu bestimmen ist.
  • Und zum dritten werden Auswirkungen des digitalen Wandels für den wissenschaftlichen Nachwuchs, für die Lehre und für die Forschungsförderung in den Geschichtswissenschaften thematisiert.

Damit sollen Konzepte zum Umgang mit Digitalität und der digitalen Transformation aufgezeigt, der Ort digitaler Methoden innerhalb der Geschichtswissenschaften neu bestimmt und aktuelle wie zukünftige Arbeitsfelder digitaler Geschichte erkundet werden. Wir streben einen kritischen Dialog von digital arbeitenden und nicht-digital arbeitenden Wissenschaftlerinnen und Wissenschaftlern an, die zum selben Thema forschen. Um Potentiale und Grenzen der digitalen Methoden zu entdecken, sehen wir insbesondere zu den methodischen Vorträgen Respondenten vor, die die Vorträge kritisch kommentieren.

Die Tagung ist auf zweieinhalb Tage angelegt und beginnt am Montag, den 16.3.2020 Nachmittags. Der Tagung vorgeschaltet ist ein halbtägiger Hands-On-Workshop, der sich der Anwendung einer digitalen Methode und Basis-Programmierkenntnisse für die geschichtswissenschaftliche Forschung widmet. Ein halber Tag wird als BarCamp veranstaltet, bei dem Teilnehmerinnen und Teilnehmer vor Ort selbst über zu diskutierende Themen entscheiden.

Weiterlesen

Bericht DHd 2018 Köln „Kritik der digitalen Vernunft“, 26.2.-2.3. #dhd2018

Print Friendly, PDF & Email

Köln ist eine schöne Stadt! Und wenn die Jahrestagung des Vereins Digital Humanities im deutschsprachigen Raum dort stattfindet, ist sie noch schöner! Eine Woche lange stand die Kölner Universität im Zeichen des Themas „Kritik der Digitalen Vernunft„. Über 600 Teilnehmerinnen und Teilnehmer aus der Schweiz, Österreich und Deutschland waren zusammengekommen. Viele ließen sich auch von der grassierenden Grippewelle nicht abhalten… und wurden mit einer insgesamt perfekt organisierten Tagung belohnt, die nicht nur bei der Teilnehmerzahl sondern auch im Abendprogramm neue Maßstäbe setzte. Aber dazu später.

http://dhd2018.uni-koeln.de/wp-content/uploads/dhd2018_logo.png

Der DHd Verein ist noch verhältnismäßig jung. Um so bemerkenswerter ist der stete Zuspruch, den die Digital Humanities bislang erhalten. Die Mitgliederzahl des Vereins ist inzwischen auf über 300 Personen gestiegen und es gibt eine Vielzahl von Arbeitsgruppen, die tatsächlich auch etwas arbeiten. In wiss. Vereinen ist das nicht immer selbstverständlich. Die Tagung begann am Montag Mittag mit Workshops. Am Dienstag abend begann mit einem Vortrag von Sybille Krämer (Berlin) das Hauptprogramm. Sie sprach über den „Stachel des Digitalenein Anreiz zur Selbstreflektion in den Geisteswissenschaften?“. Generalthema und Keynotes der Tagung waren nicht zufällig philosophisch angehaucht: Lokaler Organisator war Andreas Speer, seit 2004 Professor der Philosophie an der Universität zu Köln und Direktor des dortigen Thomas-Instituts. Tatkräftig unterstützt wurde er von Patrick Sahle und dem gesamten Team des CCeH. Auch die Abschlußkeynote am Freitagnachmittag von Michael Sperberg-McQueen, einem Urgestein der digitalen Geisteswissenschaften, stieß mit „Kritik der digitalen Vernunft“ in das selbe kantianische Horn. Dazwischen lagen drei ereignisreiche Tage, deren über 60 Vorträge sich in vier parallelen Sessions über die Zuhörer ergossen.

Man kann nur berichten, was man gehört und gesehen hat, also beschränke ich mich schon aus praktischen Gründen darauf. Verschweigen will ich aber auch nicht, was ich gefühlt habe (tagsüber, in den Hörsälen): nämlich Kälte! Nun wird es am Niederrhein bekanntlich nie wirklich kalt (ausser in dieser Woche eben), aber falls es zutreffen sollte, dass das Hörsaalgebäude tatsächlich nicht über eine Heizungsanlage verfügt, dann kann daran nur der Kölner Klüngel Schuld sein, denn ansonsten machten mir die Kölner insgesamt einen recht vernünftigen, ja lebensfrohen Eindruck. Unerklärlich hingegen bleibt die wohl absichtliche Verweigerung von Strom und Steckdosen bei den vorgeschalteten Workshops. Ich selber musste einen sehr spannenden (und leider etwas zu klein geplanten, da sehr nachgefragten) Workshop zu wikidata im Übungsteil abbrechen, da meinem inzwischen betagten Notebook der Saft ausging. Und es ging mir nicht alleine so! Am bemerkenswertesten war aber die Begründung, die uns im ersten Workshop am Montag „Suche und Visualisierung von Annotationen historischer Korpora mit ANNIS“ mit Carolin Odebrecht und KollegInnen mitgeteilt wurde: die Universität zu Köln wolle keine Stromanschlüsse zur Verfügung stellen, da dies den Stromverbrauch ungebührlich erhöhen würde…. Wenn die Univerwaltung tatsächlich so argumentierte, dann würde sich hier doch in einzigartiger Weise ein für die Region Niederrhein untypischer Geiz mit Unvernunft paaren (denn ökologische Argumente können wir wohl ausschließen). Der Tagungsleitung und dem Organisationsteam ist dieser Schildbürgerstreich nicht anzulasten – vielmehr liegt hier das Problem wie so häufig bei der Verwaltung der Universitäten, und zwar vermutlich (hoffentlich) in den unteren Etagen…

Nun zum Inhalt. Der dritte Workshop, den ich besuchte, war dem Thema „Research Software Engineering und Digital Humanities“ gewidmet. Mit über hundert TeilnehmerInnen war das schon eine größere Veranstaltung und es war sicher klug, sich für die Diskussionen in Untergruppen aufzuteilen. Erst kürzlich hat sich eine Gruppe fächerübergreifend zu diesem Thema gegründet: de-RSE.org, die von Stefan Janosch (MPI-CBG) vorgestellt wurde. Insgesamt ist eine Diskussion über die Professionalisierung  der Softwareentwicklung in den DH sehr zu begrüßen, eben weil dies nicht zur originären Ausbildung von GeisteswissenschaftlerInnen gehört. Bei den Vorträgen und Panels gab es wie immer Licht und Schatten, obwohl mir das Niveau insgesamt diesmal erfreulich hoch erschien. Ich wende mich mal dem überwiegenden Licht zu. Da sind zunächst die Tracks, die sich durch das Programm zogen und strukturierten: Sitzungen zu Visualisierung, Theorie der digitalen Geisteswissenschaften, Textmining, Sammlungsdigitalisierung, Digitale Literaturwissenschaft, Computer Vision, Digitale Rekonstruktion, Sentimentanalyse, Softwareentwicklung, Annotation, Semantische Analyse sowie Panels zu Historischen Grundwissenschaften, Sprachanalyse, Wissenschaftsorganisation und Forschungsdaten. Zusammen boten sie ein breites Bild der aktuellen Forschungslandschaft und ermöglichten, sich spezifischen Interessengebieten zuzuwenden. Besonders am Herzen lagen mir die Panels zu Forschungsdaten. Das eine von DARIAH/CLARIN , das andere von der AG Datenzentren ausgerichtet. Beide fanden nacheinander am Donnerstagnachmittag statt und waren gute besucht. DARIAH/CLARIN hatte sich als Thema „Gute Forschungsdaten, bessere Forschung: wie Forschung durch
Forschungsdatenmanagement  unterstützt wird“ gewählt und das Datenzentrumspanel, organisiert von Katrin Moeller (Halle-Wittenberg) stand ganz im Zeichen der Frage nach den Standards und ihrer Einbettung in die Fachwissenschaften „Die Summe geisteswissenschaftlicher Methoden? Fachspezifisches Datenmanagement als Voraussetzung zukunftsorientierten Forschens“. Im Zuge des NFDI Prozesses zur Schaffung einer Nationalen Forschungsdateninfrastruktur legen sich alle Beteiligten zurzeit mächtig ins Zeug, um Teil einer föderierten Struktur zu werden. Die Forschungsinfrastrukturen und Datenzentren zeigen sich dazu gut gerüstet.

Besonders spannend fand ich persönlich den Vortrag „Das neue ‚Gesetz zur Angleichung des Urheberrechts an die aktuellen Erfordernisse der Wissensgesellschaft‘ und seine Auswirkungen für Digital Humanities“ am Donnerstag Vormittag. Just am 1.3. trat das neue Gesetz in Kraft und so war dieser Beitrag zum einen hochaktuell und zugleich sehr informativ.

Vielleicht hätte es gelohnt, etwas ausführlicher zu diskutieren, wie sich die Politik eine digitale Nutzung von Werken (keine Veröffentlichung!) für die eigene! wissenschaftliche Forschung im Umfang von bis zu 75% vorstellt. Sollen wir in Zukunft die letzten 25% eines Werkes einfach nicht mehr rezipieren? Oder vielleicht am Ende eines Textes nur noch Lore ipsum Seiten drucken, um diese unsinnige Bestimmung auszuhebeln? Insgesamt sind das Gesetz und die Wissenschaftsschranke sicher ein Schritt in die richtige Richtung, aber gut gemeint ist bekanntlich nicht immer ausreichend. So wird es jedenfalls nichts mit der exzellenten Forschung im internationalen Vergleich in Deutschland. Da schaffen wir maximal 75% Exzellenz!

„Data Models for Digital Editions: Complex XML versus Graph Structures“, so lautete ein Vortrag von Daniel Bruder und Simone Teufel, der ein wichtiges Problem in den DH adressierte, dem meiner Meinung nach zu wenig Aufmerksamkeit geschenkt wird. XML aus Auszeichnungssprache mit ihrem streng hierarchischen Baum wird in manchen Fällen der Komplexität geisteswissenschaftlicher Beschreibungstiefe nicht gerecht. Andere, z.B. Graph- bzw. RDF basierte Formen könnten langfristig besser geeignet sein, tiefe Annotation – vielleicht ja sogar über eine gemeinsame ontologische Basis(?) – zu repräsentieren. Posterslam und Postersession sind inzwischen etablierte Präsentationsformen auch in den Geisteswissenschaften. Ihnen war der Donnerstagnachmittag gewidmet, der mit einem Empfang schloss, bei dem man die Poster anschauen und diskutieren konnte. Kulturelles Highlight war aber sicher der für Mittwochabend angesetzte Fightclub, in dem vier prominente „KontrahentInnen“ (Henning Lobin, Heike Zinsmeister, Hubertus Kohle, Mareike König) mit Gedichten und coolen Sprüchen gegeneinander antraten und für eine gelungene Mischung aus Unterhaltung und Reflektion über das eigene Tun sorgten. Anschliessend wurde bis tief in die Nacht getanzt… Mehr dazu auf Twitter, immer unter dem Hashtag #dhd2018.

Bleibt der Blick in die Zukunft. Die nächste DHd  findet 2019 in Mainz und Frankfurt statt, also gar nicht so weit vom diesjährigen Austragungsort. Die Latte hängt hoch, aber die  nächsten Gastgeber sind gut gerüstet für diese Aufgabe und haben schon ein Boot organisiert, um die TeilnehmerInnen sicher und stilvoll von einem Ort an den anderen zu bringen….

Bericht von der Tagung #dhnord2017 in Lille, 27.-29.11.2017 über #digitalhistory

Print Friendly, PDF & Email

Im Rahmen einer „Tournée“ von drei Tagungen/workshops in Frankreich habe ich am 27. November am ersten Tag der #dhnord Tagung in Lille teilgenommen. Diese Tagung wurde vom MESHS organisiert und beschäftigte sich mit dem Thema „Digitale Geschichte“: (De)constructing Digital History. (Programm als PDF)

In Kooperation mit dem Luxembourg Centre for Contemporary and Digital History (C2DH) und durchaus international ausgerichtet bot sich an diesem ersten Tag die Möglichkeit, etwas genauer über den aktuellen Ort der Digitalen Geschichtswissenschaft zwischen Digital Humanities und der Fachdisziplin Geschichtswissenschaft nachzudenken. Andreas Fickers vom C2DH führte in das Thema der Tagung mit einem Vortrag zu „Digital History: On the heuristic potential of thinkering“ ein. Zunächst stellte er fest, dass Geschichtswissenschaft heute schon digital sei, wir also nur noch über Grad und hermeneutische Konsequenzen dieser Digitalisierung sprechen müssen. Er forderte explizit die Einführung von „digital hermeneutics“ in die Geschichtswissenschaft als Teil der Ausbildung. Unter digital hermeneutics versteht er dabei „the critical and self reflexive use of digital tools and technologies for the development of new research questions“. Er forderte zur Dekonstruktion des Wahrheitsbegriffs in der Geschichtswissenschaft auf und wies auf die Fiktion von Neutralität beim Schreiben von Geschichte hin. Weitere relevante Begriffspaar in diesem Zusammenhang waren für ihn „statistical evidence and historical relevance“ sowie die Spannung zwischen Verstehen und Erklären. Von digital arbeitenden HistorikerInnen forderte er Interdisziplinarität und „multimodal literacy“ sowie die Fähigkeit zur Kritik von Algorithmen, Werkzeugen, Schnittstellen und digitalen Quellen. Methodisch sprach er sich für einen spielerischen Ansatz im Umgang mit den Werkzeugen und Methoden der DH aus: Thinkering (Erkki Huhtamo) sei die passende Herangehensweise, die auch in Luxemburg unter Einsatz von lab diaries, reflexive reports sowie Audio- und Video Essays erprobt werde. Am Ende seines Beitrags fragte er nach „De-constructing oder Re-coding“ und stellte eine Reihe von kritischen Fragen hinsichtlich der heutigen Praxis in der digitalen Geschichtswissenschaft und in den DH:

Zudem benannte er zwei Hauptprobleme bei der Verwendung von digitalen Werkzeugen oder Methoden in der historischen Forschung:

1. Die Gefahr des Fehlens von Originalität bei der Forschungsfrage (danger of lack of originality in questioning the past)

2. Die Gefahr der Unterkomplexität bei der Problematisierung von vergangenen Realitäten (danger of lack of complexity in problematizing past realities)

Schliesslich wies er auf das vor kurzem veröffentlichte White Paper „Digital History and Argument“ hin, dass aus einer Tagung am Roy Rosenzweig Centre for History and New Media (kollaborativ) entstanden ist und einen Dialog zwischen digitaler und konventioneller Geschichtswissenschaft bzw. Methodik versucht. Der dort formulierte Eindruck „…there is a widespread sense that digital history has over-promised and under-delivered in terms of its interpretative contribution back to the discipline.“ (S. 2) ist sicher auch in Europa zutreffend und sollte in Zukunft stärker thematisiert werden.

Im Programm der Tagung wurde anschliessend die Keynote von Manfred Thaller „Distrustful Brothers 2.0 – On the relationship of quantitative history and ‚digital‘ history“ vorgezogen, in der es um die Beziehung zwischen der quantitativen Methode, wie sie in den 70er Jahren z.B. von der Bielefelder Schule praktiziert wurde, und digitaler Geistes- bzw. Geschichtswissenschaft ging. Wer Thallers Sicht der auf diese Beziehung und die Entwicklung dieses gesamten Felds in den letzten 40 Jahren nachlesen will, kann dies inzwischen in seiner Autobiographie tun, die vor kurzem in einem Sonderheft von Historical Social Research (HSR) erschien. Das ironische, zuweilen auch sarkastische Moment dieses Rückblicks war auch im Vortrag zu spüren, als er zusammenfassend seine Sicht auf diese Zeitspanne mit einem Vergleich zu dem bekannten Film „Und täglich grüßt das Murmeltier“ umschrieb. Immerhin sagte er mir im persönlichen Gespräch, dass es sich womöglich doch um eine Spirale und keinen Kreis handele, in dem sich die Entwicklung der „Digital Humanities“ seit ihrer institutionellen Begründung in den 60er Jahren bewege. In diesem Zusammenhang räumte er in seinem Vortrag auch gründlich mit dem Gründungsmythos auf, die Digital Humanities seien erst Anfang der 2000er Jahre entstanden und versuchte eine längere Traditionslinie bis hin zu dem vielzitierten Pater Busa zu etablieren, die auch die Entwicklungen ab den 60er Jahren stärker berücksichtigt.

Sein Fazit zur heutigen Situation der Digital Humanities fiel dagegen weniger kontrovers und fast zuversichtlich aus, obwohl er sich inzwischen selber nicht mehr den digitalen Geisteswissenschaften in ihrer heutigen Ausprägung zurechnen würde. Er betonte vielmehr die finaziellen Interessen und Ressourcen, die bei der Entwicklung des gesamten Bereichs und auch der Digitalen Geschichtswissenschaft heute eine Rolle spielen. Also eigentlich keine schlechten Voraussetzungen für die weitere Entwicklung…

Über die vier folgenden Beiträge in zwei Sitzungen (geleitet von Mareike König und Andreas Fickers) zu „Digital History in Context“ und „Time and Space of Digital History“, die teilweise die schon angedeutete Situation in den USA expemplifizierten (Mokhiber) oder ein interessantes Projekt der digitalen Kunstgeschichte (van den Heuvel) vorstellten, gehe ich in der Hoffnung, dass die entsprechenden Slides bald online gestellt werden, etwas weniger ausführlich hinweg. Erwähnen zum Schluss möchte ich nur kurz die zweite Keynote des Tages von Bertrand Jouve zu einem Thema der angewandten Netzwerkanalyse in der Mediävistik: „Modelisation of hierarchical organization of rural medieval society“.

Jouve war als Mathematiker sichtlich bemüht, dem Publikum das Projekt von seiner netzwerktheoretischen Seite Nahe zu bringen. Allein es waren mehr HistorikerInnen als MathematikerInnen im Raum, so dass sich mir der Eindruck aufdrängte, dass wir es hier mit einem Problem von „technical solutionism“ zu tun hatten, wie er kurz zuvor von Andreas Fickers beschrieben worden war. Das Thema und die Methodik liegen unbestreitbar im Zentrum der Digitalen Geschichtswissenschaft. Aber es stellt sich wie so oft bei gleichberechtigt interdisziplinären Kooperationen oder Themen die Frage, welches Zielpublikum am Ende angesprochen werden soll bzw. kann. Vielleicht hätte das Thema nicht nur gemeinsam erforscht, sondern auch gemeinsam präsentiert werden sollen? So war zumindest mein Eindruck zu diesem Projekt, dass ich sehr spannend finde und von dem ich auch aus historischer Perspektive gerne noch mehr erfahren würde.

Leider musste ich diesen Vortrag kurz vor Ende aus Termingründen verlassen, so dass ich über die folgende Diskussion und die Präsentation der Doktorandenausbildung am Luxemburger C2DH nicht berichten kann. Das mögen andere, die der gesamten Tagung und evtl. auch dem Nodegoat workshop am Mittwoch folgen konnten, vielleicht an anderer Stelle nachholen.

 

 

PANDORA LOD Ecosystem auf der semweb.pro Tagung in Paris am 22.11.2017

Print Friendly, PDF & Email

Das PANDORA LOD Framework von Christopher Johnson @cjohnson39, wird von Christopher und mir @joewett das nächste mal auf der SemWeb.Pro Tagung (#semwebpro) in Paris am 22. November 2017 vorgestellt. PANDORA selber sowie Infos zu dem Projekt gibt es unter https://github.com/pan-dora . Die Tagung findet im FIAP Jean Monnet, 30 rue Cabanis, 75014 Paris statt. Der Vortrag beginnt um 16:15 h und wird sportliche 15 Minuten dauern.