Nachlese 25. Berliner DH-Rundgang am Institut für Soziologie, TU Berlin - if

Interdisziplinärer Forschungsverbund
Digital Humanities in Berlin

Nachlese zum 25. Berliner DH-Rundgang am Institut für Soziologie, TU Berlin (Videolabor, Archivierung qualitativer AV-Daten)

Für einen weiteren DH-Rundgang unter Organisation des if|DH|b öffneten sich vergangene Woche am Institut für Soziologie der Technischen Universität Berlin die Türen für Interessierte. Dr. René Tuma und  Rene Wilke sowie Prof. Dr. Hubert Knoblauch stellten dem Publikum nicht nur die Grundzüge der Videographie und der Video-Interaktionsanalyse im Videolabor des Institutes, sondern auch das DFG-geförderte Projekt aviDa zur Archivierung qualitativer AV-Daten vor.

In einer kurzen  Einführung erläuterte Herr Tuma die wesentlichen Begriffe der Videographie, i.e. einer Kombination aus Ethnographie und Videoaufzeichnung (zur Datengenerierung) sowie der Video-Interaktionsanalyse (zur Datenauswertung). Dabei wurde sowohl auf die Gemeinsamkeiten und Unterschiede zu anderen, nicht video-gestützten Formen der Ethnographie eingegangen sowie alternative Verfahren der Videoanalyse (wie die dokumentarische Methode oder “video elicitation”) kurz umrissen. Die Video-Interaktionsanalyse, die an einzelnen Beispielen aus aktuellen Forschungsprojekten illustriert wurde,  basiert auf Konversations- und Interaktionsanalysen sowie der Video-Hermeneutik. Im Fokus stehen dabei “natürlich” vorkommende Alltagssituationen (wie eine Orchesterprobe, ein Fussballspiel, Speed-Dating oder eine Vorlesung in der Mathematik), in denen über die Analyse von Interaktion und Kommunikation im weitesten Sinn (Sprache, Blickkontakte, Positionierung und Bewegung im Raum, Interaktion mit Gegenständen u.ä.) untersucht wird, wie die Handelnden ihr Kommunikationsproblem lösen. Im Gegensatz zur klassischen Beobachtung unterstützt die Videotechnologie die Fixierung der Interaktion, womit Situationen und einzelne Sequenzen nicht nur wiederholt und gemeinsam ausgewertet werden können, sondern Analyseergebnisse/Deutungen auch anders (mit einem sekundengenauen Verweis auf das Material) validiert werden können.    

Das Videomaterial wird transkribiert, um erste Sequenzen und Strukturen zu kodieren. Transkripte und Videos werden dann in gemeinsamen, iterativen “Datensitzungen” im Videolabor analysiert. Für eine erste grobe Kodierung kann auf gängige Software zur qualitativen Analyse wie Atlas.ti oder maxqda zurückgegriffen werden, hingegen braucht es für die Feinkodierung spezifische Software wie transana, ELAN oder Feldpartitur, wobei sich manche besser für die Auszeichnung von Bild bzw. Bewegung, andere eher für die Kodierung von Sprache eignen. Sowohl die Festlegung des Samples als auch der relevanten Modalität (Video/Bild oder Ton/Sprache) sind dabei wesentliche analytische Setzungen, die von der Fragestellung und der theoretischen Rahmung abhängen. Im Zuge der Analyse und für die Publikation wird ausgewähltes Videomaterial auch unterschiedlich bearbeitet oder es werden zusätzliche Nachzeichnungen erstellt.

Wie in jeder Ethnographie ist das Wissen derer, die vor Ort die Daten erheben,  unerlässlich für die Analyse und potentielle Sekundäranalysen. Entsprechend ist eine Herausforderung, das Kontextwissen der “Filmer” zur vorgefundenen Situation, Möglichkeiten der Kameraführung etc., möglichst umfassend über Metadaten zu erfassen.

Durch die enge Verbindung zwischen Fragestellung und der Entscheidung, wie und was gefilmt wird, sind Laien-Aufnahmen, bspw. von Fußballspielen, nur eingeschränkt nutzbar, da das Material häufig auf selektive Höhepunkte (Elfmeter, Tor)  oder “filmisch hübsch” zugeschnitten ist.

Zuletzt gab Herr Tuma einen Einblick in laufende Projekte am Institut, wo die Videoanalyse durchgeführt wird, z.B. zur Untersuchung des kommunikativen Handelns in Kontrollräumen (Projekt “Zentren der Koordination”, SFB Re-Figuration von Räumen) oder zur Frage der Herstellung von Kollektivität durch Publikumsemotionen bei Großveranstaltungen (Projekt “Audience Emotions – Collective Affectivity in Sports and Religious Events”, SFB Affective Societies). Weitere Projekte laufen  im Bereich der Bildkommunikation in der Wissenschaft (Beispiel der Computational Neuroscience) sowie der Nutzung von mobilen (360-Grad-) Kameras und Eyetracking. Die deutschsprachige Community der “Interpretativen Videoanalyse” ist über einen Arbeitskreis gut vernetzt, organisiert Tagungen/Veranstaltungen zur Videographie und führt gemeinsame Datensitzungen durch. (Mehr dazu, inkl. Link zur Mailing-Liste, unter videoanalyse.net/ oder  http://videosoziologie.net/)

Im zweiten Vortrag stellte Herr Wilke das DFG-geförderte Projekt “aviDa” vor, in dem eine Forschungsdateninfrastruktur für die digitale Sicherung und Nachnutzung audio-visueller Forschungsdaten der qualitativen Sozialforschung entwickelt wird. Zu den Projektpartnern zählen die Bibliothek sowie der IT Service der TU Berlin, die sich um die technische Entwicklung kümmern, sowie der Lehrstuhl für Kultur-und Religionssoziologie der Uni Bayreuth. Unterstützt wird das Projekt vom IDS Mannheim, dem DIPF, dem Lehrstuhl für Germanistische Linguistik der Uni Bayreuth sowie dem Qualiservice der Uni Bremen.  

Neben der forschungspolitischen Erwünschtheit der Archivierung und Nachnutzung qualitativer Daten betonte Herr Wilke den fachlichen Bedarf an digitaler Archivierung und Auffindbarkeit des audio-visuellen Materials für unterschiedliche Szenarien der Nachnutzung, sowohl in konkreten Forschungsprojekten als auch in der Lehre (als “Übungsmaterial” für Videographen, aber auch als Lehrmaterial für die Kuratierung und Archivierung). Neben der Zitierbarkeit von Datensätzen (DOI) und der Möglichkeit, den empirischen Erhebungsprozess sichtbar und somit empirisches Material auch suchbar zu machen, liegt der Nutzen für die Community vor allem in der Förderung der methodologischen Weiterentwicklung, wofür die Qualität der Forschungsdaten entscheidend ist, in der besseren Nachvollziehbarkeit des Forschungsprozesses sowie in der Nachnutzbarkeit (Lehre, Re-Analyse, Vergleiche) und die Akkumulation eines umfangreichen und elaboriert erschlossenen Datenkorpus.

Zu den methodologischen Herausforderungen zählen hier die Aufarbeitung bestehender großer Korpora, die Entwicklung eines fachlich geeigneten Metadaten-Schemas, ein geeignetes Rechtemanagement (Datenschutz) sowie die Sicherstellung einer langfristigen Nutzung und Akzeptanz, nicht zuletzt von Sekundär- bzw. Re-Analysen an sich. Technisch wird das Archiv auf einer Erweiterung des bestehenden Repositoriums der TU Berlin (DepositOnce)  beruhen, es wird auch für Nicht-TU-Mitglieder nutzbar sein. Neben der Entwicklung eines Transkodierungstools zur Umwandlung von Audio/Videoformaten werden Mediaplayer integriert, u.a. zum Online-Streaming und zur Darstellung unterschiedlicher Dateiformate.

Ulla Tschida / Christiane Scherch