The DH 2012 as well as the concurrently organized founding UnConference of the German DH chapter organization, provisionally named “Digital Humanities Deutschland” (DHD) received wide coverage in the German media, both national and local. Here is a selection of articles and broadcasts:
Die Welt, 12 Juli 2012 (Hamburg-Teil): “Digitale Revolution der Wissenschaft. Weltweit größter Fachkongress befasst sich in Hamburg mit der Nutzung computergestützter Verfahren.” Von Edgar S. Hasse (access online )
Behörde für Wissenschaft und Forschung der Freien und Hansestadt Hamburg, 19.07.2012: “Digital Humanities 2012 – Senatsempfang aus Anlass der weltgrößten Fachkonferenz für digitale Geisteswissenschaften. Wissenschaftssenatorin Dr. Dorothee Stapelfeldt heißt rund 400 Gäste im Festsaal des Hamburger Rathauses willkommen.” (link to the press release ; download the Senator’s Welcome Address)
NDR-Info, 20.07.2012, 21:05: Digital Humanities – Das neue Arbeitsfeld der Geisteswissenschaftler. Interview mit Prof. Dr. Jan Christoph Meister, Organisator der Digital Humanities 2012 in Hamburg.” Von Regina Methler (link to the audio stream)
Hamburger Abendblatt, 21/22 Juli 2012 (Ressort Wissen): “Geisteswissenschaft 2.0. Wie Wissenschaftler Texte, Bilder und Musik digital aufbereiten und so unser kulturelles Erbe auf neue Weise nutzbar machen.” Von Marc Hasse (access online )
Frankfurter Allgemeine (Feuilleton), 24.07.2012: “Digital Humanities. Eine empirische Wende für die Geisteswissenschaften? Digitale Werkzeuge und Methoden werden immer wichtiger in den Geisteswissenschaften, sagt eine Empfehlung des Wissenschaftsrats. Läuten die Digital Humanities das Ende hermeneutischer Einzelforschung ein?” Von Thomas Thiel (access online )
Frankfurter Allgemeine (Feuilleton), 23.07.2012: “Wege und Abwege digitaler Forschung. Digitale Werkzeuge und Methoden werden immer wichtiger in den Geisteswissenschaften, sagt eine Empfehlung des Wissenschaftsrats. Läuten die Digital Humanities das Ende hermeneutischer Einzelforschung ein?” Von Wolfgang Krischke (access Wege_und_Abwege – with kind permission by the author).
LIBREAS, 30.07.2012: “Digitale Geisteswissenschaft und Bibliotheken. - Die Hamburger Tagung, die vermutlich als ein Schlüsselereignis der Digitalen Geisteswissenschaften in Deutschland gelten kann, brachte es immerhin zu zwei Artikeln in derselben Ausgabe der Frankfurter Allgemeinen Zeitung. Und beide Texte versuchen etwas, was die Protagonisten dieses neuen methodologischen Spektrums bisweilen etwas vernachlässigen: die Metasicht auf Sinn und Unsinn, auf die Wechselbeziehung von Machbarem und Wünschbarem.” Von Ben Kaden (access online)
von Astrid Herbold
Die deutschen Geisteswissenschaften hinken bei der Erforschung digitalisierter Texte hinterher. Jetzt entdecken auch sie die neuen Chancen – und deren Grenzen.
Es könnte auch einfach Kunst sein. Ein großes Rechteck, gefüllt mit hellgelben und dunkelgelben Kästchen, dazwischen leuchten ein paar schwarze Pünktchen. Auf den ersten Blick ist die Forschungsarbeit des britischen Linguisten Marc Alexander wenig eingängig. Auf den zweiten umso mehr: Zu sehen ist nichts weniger als das gesamte Vokabular der englischen Sprache, jedes Wort ein Pixel sozusagen. Angeordnet wurden die Begriffe nach Themenfeldern wie „Essen“, „Arbeiten“, „Energie“, dann eingefärbt nach Alter. Jüngere Worte sind hell, ältere dunkel, uralte schwarz. Was man also sieht: Wie und wo die englische Sprache in den letzten zwei Jahrhunderten sprunghaft gewachsen ist.
„Uncharmant ausgedrückt könnte man sagen: Meine Software macht die Dehnungsstreifen von Sprache sichtbar“, sagt Marc Alexander.
Dass Sprachwissenschaftler mit Datenbanken arbeiten, ist schon lange üblich. Dass sie selbst Visualisierungssoftware konzipieren und programmieren können, ist immer noch die Ausnahme. Auch deshalb konnte Alexander Ende Juli in Hamburg den Paul-Fortier-Preis entgegennehmen, den die Association for Literary and Linguistic Computing (ALLC) seit 2010 jährlich für innovative Forschungsansätze im Bereich Digitale Geisteswissenschaften verleiht. Getroffen hatten sich in Hamburg über 500 Wissenschaftler aus aller Welt zum methodischen Austausch, auch ein deutscher Ableger des ALLC wurde bei der Gelegenheit endlich gegründet: der Verband Digital Humanities Deutschland (DHD).
Von einem Paradigmenwechsel oder gar Digital Turn der Geisteswissenschaften will Jan Christoph Meister, erster Vorsitzender des DHD und Professor für Neuere Deutsche Literaturwissenschaft an der Universität Hamburg, trotzdem nicht sprechen. „Weder wollen wir den Geisteswissenschaften die Interpretation austreiben noch sie sie zu Naturwissenschaften machen.“
Es gehe vielmehr um Sichtbarkeit und bessere Vernetzung. Denn deutsche Universitäten hinken im Bereich Digitalisierung immer noch deutlich hinter den USA, Großbritannien und Kanada hinterher. Vor allem an den geisteswissenschaftlichen Fakultäten sind Skepsis und Ignoranz weitverbreitet. Dabei sind die Einsatzmöglichkeiten vielfältig, sie reichen von der einfachen Bild- oder Textdigitalisierung bis hin zu komplexer Analyse- oder Editionssoftware. „Der DHD will zeigen, dass die Digital Humanities mehr sind als eine Hilfswissenschaft und dass sie durchaus neue Forschungsimpulse geben können.“
Nur wie sollen diese Impulse aussehen? Drückt der Kunsthistoriker der Zukunft nur noch ein paar Knöpfchen – und fertig ist die Bildanalyse? „Über solche Vorstellungen kann man als Geisteswissenschaftler eigentlich nur lachen“, sagt Meister. Ihm und seinen Kollegen, die an den mittlerweile vierzehn deutschen Lehrstühlen für Digitale Geisteswissenschaften lehren, geht es um einen anderen Ansatz: weg von der punktuellen Einzeluntersuchung, die dann stellvertretend für ganze Epochen oder Genres herhalten muss. Stattdessen setzen die digitalen Geisteswissenschaftler auf die statistischen Auffälligkeiten, die sich aus der Auswertung großer Datenmengen ergeben. So wie die Flecken auf den bunten Sprachkarten: Solche Akkumulationen könnten andere Wissenschaftler wiederum zum genaueren Hinsehen – und damit auch zu neuen Forschungsfragen – inspirieren.
Doch der Weg dahin ist weit. Wer nicht wie der Linguist Alexander auf eine seit Jahrzehnten aufgebaute Datenbank wie die des „Historical Thesaurus of the Oxford English Dictionary“ zurückgreifen kann, muss seinen Textkorpus mühsam eigenhändig auswählen, kategorisieren und digitalisieren. Erst dann kann er mithilfe von Visualisierungsprogrammen nach überraschenden Korrelationen fahnden. Lena Schüch versucht das gerade mit Popsongs. Anhand 150 aktueller Charts-Hits will die Hamburger Literaturwissenschaftlerin untersuchen, wie deren narrative Strukturen funktionieren. „Dafür markiere ich manuell hunderte Stellen im Text und in der Musik.“ Das sei natürlich auch schon eine Art Interpretation, meint die junge Forscherin, scheut sich dann aber doch nicht, die Worte „Empirisierung“ und „Objektivierung“ in den Mund zu nehmen. „Weil man mithilfe der digitalen Datenauswertung seine Hypothesen noch mal auf ganz andere Art überprüfen kann.“
Genau das, sagt auch Meister, sei das eigentliche Potenzial der Digital Humanities. Dass der Einsatz von Software die Wissenschaftler dazu bringen könnte, „ihre Lesarten so zu präzisieren, dass sie sich in einzelne Textbeobachtungsschritte zergliedern lassen“. Diese Art der Formalisierung setzt jedoch eine strenge methodische Nabelschau voraus. Ironie bei Thomas Mann, Geschlechtermaskerade bei William Shakespeare, der Einfluss von Jane Austen auf die Literatur des 19. Jahrhunderts: Woran genau mache ich das fest? Was passiert an der Oberfläche der Texte, wo fließt welches Kontextwissen ein? Und vor allem – wie könnte das Ganze am Ende in Codes aussehen? „Diese Transferleistung ist natürlich schwer“, sagt der Philologe.
Zumal die wenigsten Geisteswissenschaftler mit den gängigen Programmiersprachen vertraut sind. Für die Operationalisierung ihrer Untersuchungen bräuchten sie die Unterstützung von den Kollegen aus der Informatik. Doch der institutionelle Dialog an den Universitäten ist spärlich, „wir haben noch nicht wirklich zueinandergefunden“, meint Meister. Dabei ist die fächerübergreifende Zusammenarbeit mittlerweile auch seitens des Bundesforschungsministeriums ausdrücklich erwünscht. Insgesamt 19,5 Millionen Euro hat es im Rahmen seiner eHumanities-Förderlinie bereitgestellt, 24 interdisziplinäre Projekte zwischen Geisteswissenschaftlern und Informatikern werden mittlerweile gefördert. Darunter der Aufbau einer mit Geodaten angereicherten Online-Bibliothek für deutsche und polnische Holocaustliteratur, eine interaktive 3-D- Plattform für Archäologen sowie ein Tool, das helfen soll, Bürgerproteste im Netz systematisch auszuwerten.
„Das Förderprogramm ist ein wichtiges Signal“, sagt Meister. Nicht nur allgemein für den Wissenschaftsstandort Deutschland, sondern auch ganz konkret als Anreiz für den Nachwuchs. Denn die Berufsaussichten für digital versierte Geisteswissenschaftler sind mittlerweile ziemlich gut. Google jedenfalls, das den Kongress in Hamburg mitgesponsert hatte, hat bereits ausdrücklich Interesse an den „Digital Humanities“-Forschungen bekundet. Das kommt nicht ganz überraschend: Für die Weiterentwicklung des semantischen Webs, bei der die Suchmaschinen ihre Nutzer noch besser „verstehen“ lernen sollen, werden zukünftig nicht nur Informatiker gebraucht. Sondern auch all die, deren tägliches Geschäft das Interpretieren ist.