Aktuelles - if

Interdisziplinärer Forschungsverbund
Digital Humanities in Berlin

Aktuelles

Nachlese: 22. Berliner DH-Rundgang bei Wikimedia Deutschland: Digital Humanities und Freies Wissen im Wikiversum

Am Montag, den 9. Oktober 2017, fand der 22. Berliner DH-Rundgang des Interdisziplinären Forschungsverbundes für Digital Humanities in Berlin/Brandenburg (if|DH|b) in den Räumlichkeiten von Wikimedia Deutschland am Tempelhofer Ufer in Berlin statt. Das Symposion zum Thema “Digital Humanities und Freies Wissen im Wikiversum” lud DH- und Wikimedia-Interessierte zu Austausch und Diskussion ein. Die Moderation übernahmen Barbara Fischer (Kuratorin für Kulturpartnerschaften bei Wikimedia Deutschland) und Christian Thomas (Koordinator des if|DH|b und wissenschaftlicher Mitarbeiter im Projekt CLARIN-D an der BBAW). Die folgende Nachlese soll einen kleinen Einblick in die auf dem Symposion vorgestellten und diskutierten Inhalte geben.

Bereits im Begrüßungswort wurde die Unterstützung von Seiten der Wissenschaft für Institutionen wie Wikimedia und andere öffentliche Einrichtungen thematisiert, es gehe hier vor allem darum, zwischen kollaborativen Wikimedia-Projekten und Forschern und Wissenschaftlern Brücken zu schlagen. Der DH-Rundgang bei der Wikimedia, der im Sinne eines Symposions organisiert war, bot dahingehend einen besonders guten Rahmen für den Austausch untereinander.

Wikidata

Ein erster Blick in die richtige Richtung zeigt dabei, wer schon an den Schnittstellen zwischen Wikimedia-Projekten und den Digital Humanities sitzt. Georg Schelbert machte hier im Symposion den Anfang und stellte Wikidata als eine mögliche universelle Metadatenbank für das (digitale bzw. digitalisierte) Kulturerbe vor. Schelbert zeigte die Nutzung von Wikidata-Informationen am Beispiel der Erschließung einer historischen Sammlung von Glasdias im Projekt Durchblick! Digitale Erschließung der historischen Glasdiasammlung des Instituts für Kunst- und Bildgeschichte der Humboldt-Universität zu Berlin. Digitalisierung an sich ist im größeren Kontext nicht der springende Punkt bzw. liegen die Herausforderungen vor allem in anderen Bereichen, etwa der Katalogisierung von Daten, bei der sich verschiedene Probleme zeigen können: Beispielsweise, ob Normdaten sich eher auf Personen oder auf die den Personen zugeordneten Kunstwerke beziehen. Wikidata bringt aber vor allem auch Vorteile. Es liefert freie Daten mit freien Lizenzen und ist durch die Nutzer beliebig erweiterbar. Dazu kommt die enorme Vernetzung von Wissen durch Verweise innerhalb von Wikidata auf weitere Normdaten und Ressourcen.

Gleichzeitig gibt es allerdings eine Art “Mix-and-Match”-Challenge zu bewältigen. Auch die Performance und Kapazität von Wikidata muss erst einmal als System verstanden werden. So liefert Wikidata die Schnittpunkte für das Wikiversum. Jeder deutschsprachige und jeder englischsprachige Wikipedia-Eintrag hat eine Wikidata-ID, ist also ein Wikidata-Item. Bevor es Wikidata gab, musste jede Faktenangabe, wie beispielsweise “Wieviele Einwohner zählt London?” händisch in jeder der 290 Sprachausgaben der Wikipedia aktualisiert werden. Wikidata hat hier also schon vieles vereinfacht und optimiert. So ist beispielsweise die Infobox in den Wikipedia-Artikeln mit Wikidata verknüpft, der Fließtext jedoch nicht. Wichtig für die Änderung von Wikidata-Statements ist vor allem die Angabe zuverlässiger Quellen; ein publizierter Beleg ist das notwendige Fundament jedes Wikimedia-Eintrags.

Eine Frage, die die Wissenschaft umtreibt, ist hier natürlich: Welche Daten werden denn nun in Wikidata und Wikipedia aufgenommen? Erfüllt die Datensammlung als Ganzes die Relevanzkriterien, um in das  Wikiversum aufgenommen zu werden? Da das Wikiversum communitybasiert ist, gibt es hier keine einfachen Richtlinien. Die Community entscheidet am Ende über die Relevanz der Daten -- für viele Wissenschaftler eine unbefriedigende bzw. verunsichernde Antwort.

Wikisource

Einen weiteren Einblick gab Christian Thomas in Wikisource. Er stellte dazu ein Kurationsprojekt des Deutschen Textarchivs (DTA) und des Infrastrukturprojekts CLARIN-D vor. Innerhalb dieser Bemühungen wurden aus verschiedenen externen Projekten hochwertige Volltexte für die Anreicherung der Korpora des Deutschen Textarchivs zusammengetragen. Die freie Quellensammlung Wikisource erwies sich hier als hervorragende Quelle, da die dort doppelt manuell kontrollierten Volltext-Transkriptionen weitestgehend historisch akkurat und ohne Normalisierungen die digitalisierten Vorlagen wiedergeben. Insgesamt wurden bereits 154 Texte (im Umfang von mehr als 20000 Seiten) aus Wikisource in das DTA übernommen und können nun im Kontext dieses computerlinguistisch fokussierten Projekts in vielen wissenschaftlichen Disziplinen nachgenutzt werden. Dabei war von Beginn an die Zusammenarbeit mit der Wikisource-Community wichtig; so wurden beispielsweise verbliebene Fehler in den Volltexten, die im Zuge der Integration in das DTA auffielen, an Wikisource zurückgemeldet bzw. direkt auf den Seiten der Wikisource behoben. . Weiterhin seien im DTA interessante Ressourcen für eine intensivere Zusammenarbeit mit der Wikisource-Community verfügbar, beispielsweise die (lediglich automatisch korrigierten) Volltexte der Zeitschrift “Die Grenzboten”. Deren Volumen mit mehr als 300 Einzelbänden und 180000 digitalisierten Seiten dürfte jedoch insgesamt die freien Kapazitäten der Freiwilligen übersteigen. Weitere, für Wiki-Projekte interessante Daten stammen beispielsweise aus dem für das 19. Jahrhundert einschlägigen Schriftstellerlexikon Franz Brümmers (8 Bde., ersch. 1913), zu denen viele Personen noch keinen eigenen Eintrag in der Wikipedia haben. Die biographischen und bibliographischen Angaben aus Brümmers Lexikon könnten hier eine gute Ausgangsbasis bilden. Allerdings bedeutet dies, dass die Daten zwar da sind, aber die Artikel erst angelegt werden müssen. Die Textdaten stehen unter der Lizenz CC-BY (Brümmer) bzw. sind gemeinfrei (Grenzboten) und stehen somit zur Nachnutzung innerhalb des Wikiversums und darüber hinaus zur Verfügung.  

Eine Frage der Wissenschaft an die Wikimedia-Gemeinschaft ist angesichts großer Forschungsdatenmengen, wie man mit den Daten aus fertigen Projekten weiter umgehen kann, ohne die Wikimedia-Community  damit zu überfordern.

Fellow-Programm

Im Anschluss berichtete Sebastian Horndasch über das Fellow-Programm des Stifterverbandes, der Volkswagenstiftung und Wikimedia Deutschland e. V. Hier steht vor allem die Idee im Vordergrund, freies Wissen stärker und attraktiver zu machen. Wünschenswert sei, so Horndasch, eine leistungsfähige und effektive Wissenschaft im Sinne von Open Science, die mit der Förderung des Fellow-Programms für junge Doktoranden, Post-Docs und Junior-ProfessorInnen aus verschiedenen Bereichen zugänglich und unterstützenswert gemacht werden soll. Dabei werden 8 Monate in einem Forschungsprojekt umgesetzt, in dem es um die weitere Qualifizierung, Mentoring und auch finanzielle Unterstützung geht. Sichtbarkeit und Vernetzung werden außerdem gefördert.

Wissenschaftliche Partner, die sich mit Qualifizierungsangeboten an dem Programm beteiligen, sind unter anderem die Technische Informationsbibliothek (TIB), das Museum für Naturkunde Berlin, das Center für Digitale Systeme (CeDiS) der Freien Universität Berlin und die Niedersächsische Staats- und Universitätsbibliothek Göttingen. Mit dem Programm sollen wissenschaftlichen Prozesses wie beispielsweise Methoden, Forschungsdaten und Publikationen offen zugänglich und nachnutzbar gemacht werden. Anderen Forschenden und der Öffentlichkeit können so Daten und Informationen zur Verfügung gestellt und die Forschung im Sinne einer Offenen Wissenschaft gestärkt werden. Voraussetzung dafür sind vor allem Transparenz, Reproduzierbarkeit und Vergleichbarkeit wissenschaftlichen Arbeitens. Die Vernetzung zwischen Experten und Expertinnen aus unterschiedlichen Disziplinen und der Einblick in die freie Forschungspraxis sind dabei fester Bestandteil des Programms. Das Ziel ist also, die schrittweise Öffnung von Wissenschaft und Forschung weiter voranzutreiben.

Abschließend vor der offenen Diskussion gab Barbara Fischer noch einmal einen Einblick in den Kultur-Hackathon Coding da Vinci, der ein gelungenes Beispiel für die Verknüpfung zwischen einer Programmer-Community und wissenschaftlichen Datensätzen von Forschern zeigt. Der Kick-Off für diese Veranstaltung ist am 21./22. Oktober 2017 in Berlin Schöneweide. Einen Bericht zum ersten Infotreffen finden Sie hier.

Diskussion

Es ist noch ein weiter Weg der Annäherung zu bewältigen. Denn während man in der institutionell gebundenen Forschungswelt darauf setzt, im Vorfeld der Arbeit Strukturen zu definieren und Systeme zu konstruieren, wachsen letzte im Wikiversum kontinuierlich im Diskurs. Und Strukturen bleiben beweglich und müssen im Konsens aller Beteiligten immer wieder stabilisiert werden. Das ist einerseits ungewohnt und mühsam, birgt andererseits aber auch das Potenzial der Agilität auf Innovationen entsprechend reagieren und diese integrieren zu können. Hier gilt es Brücken zwischen den Arbeitskulturen zu schlagen und gemeinsam Orte für die Begegnung und Zusammenarbeit zu schaffen. Auch wenn Wikimedia Deutschland dies unterstützt, so müssen Wissenschaftler bereit sein, sich selbst und ihre Daten in das Wikiversum aktiv einzubringen.

Eines steht am Ende des Symposions fest: Um Abläufe zu beeinflussen, sieht man sich am besten selbst als Teil der Community. Nur so können strukturelle Veränderungen in Wikimedia Projekten im Grunde verändert werden, die Schnittmenge sich vergrößern und am Ende Brücken gebaut werden, über die auch die Wissenschaft geht.