Zum Inhalt springen

Mitgliedervorstellung: Martin Siefkes

1. Du entwickelst gerade ein multimodales Analyseframework für Forschungspraktiken der Digital Humanities. Kannst du etwas über das Projekt erzählen?

Ich habe mich in meiner Habil mit verschiedenen Arten von Digital Humanities-Projekten beschäftigt, zunächst mit Fokus auf die Projektergebnisse. In DH-Projekten werden ja häufig bestimmte Präsentationsformen im Internet entwickelt, beispielsweise digitale Editionen und digitale Ausstellungen, Publikationsplattformen oder Software-Tools. Andere Projekte führen Netzwerkanalysen durch oder visualisieren komplexe Datensätze in anschaulicher Form. Und es gibt spannende Webtools, bei denen man mit Code herumspielen und die Veränderungen direkt überprüfen kann.

Mich hat natürlich das eminent Multimodale an dieser Digital Humanities-Landschaft fasziniert, die ja gerade erst im Entstehen ist. Wie sollen Leute dazu verlockt werden, an Citizen-Science-Projekten mitzumachen und zum Beispiel das Wissen über ihre Heimatstadt in eine interaktive Karte einzutragen? Wie werden Museumskollektionen in die digitale Welt verlegt, wobei plötzlich die 90 % der Bestände sichtbar werden, die vorher nur im Archiv schlummerten? Noch niemand hatte all diese Digital-Humanities-Webseiten und Forschungspraktiken vergleichend aus der Perspektive der Multimodalitätsforschung beleuchtet

In meiner Habilitation gehe ich zunächst auf diesen Bereich der „Multimodal Digital Humanities“ ein. Dabei geht es einerseits um den Gegenstandsbereich, also etwa die zunehmende Rolle von Bildkorpora, interaktiven Visualisierungen und multimodalen Annotationsformate, wie sie etwa die Edition „Der Welsche Gast“ in einer Art Bildmotiv-Korpus vergleichend integriert. Andererseits gibt es auch schon einige Forschende innerhalb der Digital Humanities, die sich explizit auf die Multimodalitätsforschung berufen.

Das Framework bietet ein umfassendes Repertoire von Begrifflichkeiten für die Analyse von Projekten an. Es kann in Korpusanalysen angewandt werden, um diese neuen digitalen Formen des Umgangs mit Kultur besser zu verstehen. Das Framework bietet aber auch die Möglichkeiten, Projekte in der Konzeptions- und Entwicklungsphase genau zu spezifizieren, im Sinne einer Anforderungsanalyse, sei es projektintern oder um Angebote einzuholen. Dabei stellt es Spezifikationen für viele technische Aspekte im Back- und Frontend, zur Einbeziehung relevanter Standards und Normen, aber auch für Designaspekte, Navigation, Storytelling und ästhetische Gestaltung bereit. Für jede der 15 Beschreibungskategorien (siehe Abbildung) steht ein differenziertes Annotationsschema zur Verfügung.

 

Literatur:

Siefkes, Martin (im Druck), Multimodal Digital Humanities. Grounding digital research methods in multimodal linguistics and semiotics. Basingstoke UK: Palgrave Macmillan.

Siefkes, Martin (im Druck), Mutual Attraction and Common Interests: The digital humanities and multimodality research have found each other (but will it last?). Osnabrücker Beiträge zur Sprachtheorie 99: Linguistics and Multimodality, hg. von Arne Krause und Ulrich Schmitz.

 

2. Was sollte man sonst noch über dich wissen?

Ich bin Wissenschaftlicher Mitarbeiter an der TU Chemnitz, an der Professur Germanistische Sprachwissenschaft, Semiotik und Multimodale Kommunikation (Ellen Fricke). Frühere Stationen meiner Karriere waren in Bremen bei John Bateman und als Humboldt Fellow an der Kunst- und Designhochschule IUAV in Venedig. Promoviert habe ich an der TU Berlin bei Roland Posner, daher stammt der starke Bezug zur Semiotik in meinen Arbeiten.

Forschungsschwerpunkte der letzten Jahre waren neben den Digital Humanities und der multimodalen Linguistik auch spezifisch die korpusbasierte Untersuchung von digitalen Editionen und digitalen Ausstellungen. Daher habe ich auch einen Bezug zur Museumsforschung. Aktuell interessiere ich mich für Verfahren der automatischen Text- und Bildanalyse, die aus Data-Science-Kontexten zunehmend in die Digital Humanities übernommen werden. In meinem nächsten Forschungsprojekt will ich mich der Frage widmen, wie sich Deep-Learning-Verfahren der Text- und Bildanalyse im Hinblick auf multimodale Texte effektiv miteinander verknüpfen lassen.