„Daten sind störrisch und schwierig.“

Katharina Kinder-Kurlanda untersucht die Auswirkungen der Digitalisierung auf unseren Alltag. Wir haben mit ihr darüber gesprochen, wie wir mit den neuen Möglichkeiten umgehen, und was wir bei der Reflektion des Neuen auch über das Alte lernen.

Sie leiten das Digital Age Research Center (D!ARC) und arbeiten dort im Bereich „Humanwissenschaft des Digitalen“. Gibt es eigentlich Menschen, die noch völlig „undigitalisiert“ leben?
Kaum. Auch die Daten von Personen, die vordergründig nicht im Internet präsent sind, sind digital erfasst und verfügbar. Dabei handelt es sich um ein globales Phänomen, das so gut wie all unsere Lebensbereiche erfasst hat. Mich interessiert dabei besonders, wie Menschen in spezifischen Alltagssituationen darauf reagieren.

Um reagieren zu können, muss einem aber auch bewusst sein, dass Daten gesammelt werden.
Ich denke, dass sich immer mehr Menschen sehr wohl darüber im Klaren sind, dass sie Datenspuren erzeugen. Wir haben schon vor fast zehn Jahren Forscher*innen aus ganz verschiedenen Disziplinen befragt, die mit digitalen Daten arbeiteten. Aber auch jenseits der Wissenschaft versuchen viele Menschen, bewusst darauf zu achten, welche Daten sie hinterlassen. Was soll also sichtbar und was unsichtbar sein und wie versuchen wir, die Algorithmen für unsere Zwecke zu nutzen?

Den Nutzer*innen ist dabei sehr wohl bewusst, dass sie damit Datenspuren hinterlassen. Gleichzeitig weiß man aber nicht im Detail, wer was an welcher Stelle sammelt und wofür nutzt.

Können Sie ein Beispiel dafür nennen?
Nehmen wir Netflix oder Amazon: Auf Basis der Filme und Serien, die Sie gerne und oft schauen, oder der Bücher, die Sie kaufen, wird Ihnen ein Algorithmus weitere Vorschläge unterbreiten. Viele versuchen dann zum Beispiel individuell solche Algorithmen zu „optimieren“, um an bessere Empfehlungen zu kommen – indem sie zum Beispiel ihre Präferenzen sichtbarer oder unsichtbarer machen. Oft wird auch direkt eine Möglichkeit hierfür bereitgestellt: Auf Amazon kann ich für einzelne gekaufte Produkte auswählen, dass sie nicht als Basis für Kaufempfehlungen verwendet werden sollen. Wir haben in dem Zusammenhang außerdem Social Casual Games wie Candy Crush oder Farmville untersucht. Diese kleinen Spiele, die nebenher im Alltag gespielt werden, sind oft an Social-Media-Plattformen wie Facebook angebunden. Den Nutzer*innen ist dabei sehr wohl bewusst, dass sie damit Datenspuren hinterlassen. Gleichzeitig weiß man aber nicht im Detail, wer was an welcher Stelle sammelt und wofür nutzt. Für mich ist interessant, welche Vorstellungen man sich von der Wirkungsweise der Algorithmen macht und wie man mit diesen interagiert, oft auch auf eine unerwartete, nicht von den Entwickler*innen vorgesehene Art und Weise.

Bei diesen Beispielen gilt es, Unterhaltungsservices zu optimieren. Wenn ich mit meinen Versuchen scheitere, liegt mein maximaler Verlust darin, ein für mich interessantes Produkt nicht zu finden.
Ja, ich habe bei diesen Diensten die Funktionen der Nutzerin und der Datenspenderin. In gewisser Weise trage ich dazu bei, dass die Plattform dazulernt. Wenn wir allerdings in andere Nutzungskontexte blicken, sehen wir, dass andere Strukturen und auch Zwänge auf die Menschen einwirken: Ein Uber-Fahrer beispielsweise ist in einen Algorithmus eingebunden, mit dem Zeit und Gewinne optimiert werden sollen. Es wird konfiguriert, wie er sich im Berufsalltag bei den Taxifahrten zu verhalten hat. Ist er dabei nicht geschickt, wird er weniger Geld verdienen.

Viele sind in Sorge, dass die Schlussfolgerungen aus den Datenspuren ihr Leben negativ beeinträchtigen könnten. Wenn ich im Supermarkt immer ungesunde Lebensmittel kaufe und diese Informationen auf meiner Kundenkarte gespeichert werden, könnte meine Krankenversicherung Einblicke in meinen Lebenswandel gewinnen, die dann zu meinem Nachteil sein könnten. Ist dieses Szenario wahrscheinlich?
Bei diesem Beispiel kommen verschiedene Aspekte ins Spiel. Zuallererst: Wenn Sie seit Jahren immer beim gleichen Supermarkt eingekauft haben, wird die Verkäuferin sich auch schon gemerkt haben, was sie immer wieder einkaufen. Der Unterschied zur Digitalisierung ist aber, dass die digital gespeicherten Informationen über das Einkaufsverhalten einfacher auszuwerten und viel leichter weiterzugeben sind. Wie Sie sagen, man ist in Sorge, dass die Daten auch mit ganz anderen Lebensbereichen verknüpft werden könnten. Wachsamkeit gegenüber denjenigen, die versuchen, aus digitalen Daten über unser Verhalten Profit zu generieren, ist in jedem Fall geboten. Wir müssen mehr hinterfragen, wer welche Daten wofür nutzen darf. Ich halte es aber für unwahrscheinlich, dass genau das genannte Beispiel umgesetzt wird.

Wir kennen aus der Literatur das Phänomen, dass die Potenziale einer neuen Technologie oft überschätzt werden, entweder als zu negativ oder zu positiv.

Warum?
Erstens würde das bedrohliche Szenario implizieren, dass sehr verschiedene Einrichtungen – wie der Supermarkt und die Versicherung – zusammenarbeiten. Das darf ja derzeit nicht passieren, das ist nicht erlaubt. Zweitens kennen wir aus der Literatur das Phänomen, dass die Potenziale einer neuen Technologie oft überschätzt werden, entweder als zu negativ oder zu positiv. Die tatsächlichen Veränderungen sind viel subtiler oder einfach ganz anders als gedacht. Es gibt die Phänomene der Mythenbildung und der ‚Messiness‘. Wir hinterfragen also: Was sind die Versprechen, mit denen eine neue Technologie sowohl bei den Entwickler*innen als auch bei den Nutzer*innen einhergeht? Gleichzeitig müssen wir uns auch ansehen, welchen enormen Brüchen und Uneinheitlichkeiten wir bei den Datensammlungen gegenüberstehen. Ich habe mich in meiner Arbeit umfassend mit Dateninfrastrukturen beschäftigt und dabei gelernt: Daten
sind unheimlich störrisch und schwierig, gerade wenn man sie zusammenführen möchte.

Vieles, was als bedrohlich gemutmaßt wird, wäre also technisch gar nicht so einfach möglich?
Ja, um Daten zusammenzuführen, muss man sie oft auf verschiedenen Ebenen harmonisieren, damit sie miteinander kompatibel sind und man nicht die sprichwörtlichen ‚Äpfel und Birnen‘
miteinander vergleicht oder verknüpft. Wenn einem klar ist, wie herausfordernd das ist, kann man auch besser das Gefahrenpotenzial einschätzen. Ja, große Datensammlungen könnten unter bestimmten Umständen den falschen Personen das Falsche ermöglichen. Und sicherlich wird auch gerade versucht, vom ‚Mythos‘ Big Data zu profitieren. Diese sehr pessimistischen Diskurse verdecken aber oft, was tatsächlich problematisch ist – nämlich zum Beispiel, wer eigentlich Zugang zu diesen Daten hat und wer gerade nicht, obwohl es vielleicht von gesellschaftlichem Interesse wäre. Oder, das wäre wieder Ihr Beispiel von eben, ob es eine Tendenz gibt, solidarische Modelle für Krankenversicherungen aufzukündigen.

Um aus vielen Daten, der Big Data, etwas zu lernen, braucht man Machine Learning oder Künstliche Intelligenz. Das Wissen über diese Methoden ist aber in der Bevölkerung nicht weit verbreitet. Weiß die Wissenschaft hinreichend, was sie da tut?
Die Explainable Artificial Intelligence adressiert diese Fragestellung. Viele wissen nicht, was da vorgeht, oder sie können es nicht verstehen. Die Systeme sind oft auch so komplex, dass selbst die Forschenden bei diesen Algorithmen nicht immer nachvollziehen können, wie es zu einer Schlussfolgerung oder Entscheidung kommt. Im EU-Projekt ‚NoBIAS – Artificial Intelligence without Bias‘ versuchen wir der Frage auf die Spur zu kommen, welche Faktoren eine KI-unterstützte Entscheidung beeinflussen. Viele beschäftigt auch die Frage, wer mit Künstlicher Intelligenz dazu ermächtigt wird, etwas schneller oder besser zu tun. Diese Fragestellungen sind sehr komplex. Um sie zu beantworten, brauchen wir unbedingt die Zusammenarbeit verschiedener Disziplinen. Darauf fokussieren wir im Digital Age Research Center (D!ARC).

Meine eigene Leitfrage war immer: Was machen Menschen mit Maschinen und was machen Maschinen mit Menschen?

Welche Fächer braucht man dafür? Und welche Disziplinen können Sie einbringen?
Am D!ARC sind verschiedene disziplinäre und interdisziplinäre Digitalisierungsforscher*innen versammelt. Meine eigene Leitfrage war immer: Was machen Menschen mit Maschinen und was machen Maschinen mit Menschen? Ich habe Kulturanthropologie und im Nebenfach Informatik und Geschichte studiert. Insgesamt braucht man eine umfassende sozialwissenschaftliche Herangehensweise, um die Phänomene der Digitalisierung zu erfassen. Gleichzeitig braucht man auch ein technisches Verständnis, um technologische Entwicklungen gut einschätzen zu können. Ein Fokus meiner Arbeit liegt auf einer Metaebene: Wie forschen wir zu Digitalisierung? Und was bringen uns digitale Daten für die Wissenschaft?

Vordergründig könnte man ja meinen, dass viele einfach zugängliche Daten für die Wissenschaft ein Segen sind, oder?
Big Data ist für die Wissenschaft aus meiner Warte weder ein Segen noch ein Fluch. Dass viele der Daten unter der Hoheit großer, privater Internetfirmen und deren Profitinteressen stehen, ist für die Wissenschaft wie für die Gesellschaft ein Problem. Wir müssen uns auch der Verschiebungen in den Scientific Communities bewusst sein. Es bilden sich neue Disziplinen heraus, die mit diesen Daten arbeiten und dafür neue Methoden entwickeln. Das Neue führt dann oft auch zu einer Reflektion des Bestehenden; es wirkt also auch in die traditionell arbeitenden Bereiche hinein. Big Data kam mit dem Versprechen, dass es traditionellen Methoden überlegen sei und dass man damit umfassendere Erkenntnisse erlangen kann. Wie Big Data die Wissenschaft verändert, ist bisher noch nicht hinreichend erforscht und auch ein noch andauernder Prozess.

Welche neuen Kompetenzen brauchen Wissenschaftler*innen, um mit Big Data und Künstlicher Intelligenz arbeiten zu können?
Wir haben eine umfassende Skills-Debatte: Heute sind Mathematik und Informationstechnik in allen Disziplinen wichtiger geworden. Diese Daten sind nur jenen zugänglich, die auch die Fähigkeiten haben, sie herunterzuladen und auszuwerten. Man braucht viel Wissen über Methoden, Tools, Plattformen und Schnittstellen.

Kritisches Denken, Grundlagen des wissenschaftlichen und forschungsethischen Arbeitens sind Teilbereiche, bei denen viel Expertise in den Sozial- und Geisteswissenschaften liegt.

Sind also nur die Techniker*innen die Profiteur*innen dieses Wandels?
Nein, ich glaube, dass auch von den Sozial- und Geisteswissenschaften viele Kompetenzen in die Technik hineingetragen werden müssen. Kritisches Denken, Grundlagen des wissenschaftlichen und forschungsethischen Arbeitens sind Teilbereiche, bei denen viel Expertise in den Sozial- und Geisteswissenschaften liegt. In den technischen Fächern ist man hingegen oft nicht gewöhnt, über Menschen und das Soziale zu forschen. Letztlich können wir wechselseitig stark voneinander profitieren.

Könnten Sie uns zum Abschluss einen Bereich nennen, in dem Sie besonders von der Digitalisierung profitieren?
Ich möchte eine Lanze für die Online-Kommunikation im weitesten Sinne brechen – vom Zoom-Meeting bis zum gemeinsamen Verfassen eines Textes auf Google Docs. Mit diesen Werkzeugen ist es uns heute mehr denn je möglich, international in Forschungskollaborationen zusammenzuarbeiten. Das ist einfach unglaublich. Ähnliches würde ich auch für die Online-Lehre sehen: Auch hier haben wir phänomenale Möglichkeiten.

Wir nutzen sie aber nicht immer hinreichend.
Ja, im Moment nutzen wir hauptsächlich Tools, die versuchen, die Situation im Hörsaal oder im Seminarraum online nachzubilden. Ich möchte aber einen genaueren Blick einfordern: Was spielt sich im Hörsaal in welcher Situation ab? Warum sitzen wir überhaupt im Seminarraum? Ich vermute, dass dahinter auch soziale Konstruktionen stehen, die für die Beteiligten wichtig sind, wie die Abbildung von Machtstrukturen oder Konzepte von Wissenshierarchien. Wenn wir das gesamte Setting kritisch reflektieren, können wir auch in den Online-Hörsälen zu neuen Formen der Lehre und des Austauschs kommen, die uns insgesamt voranbringen können.

für ad astra: Romy Müller

Zur Person


Katharina Kinder-Kurlanda ist seit Februar 2021 Universitätsprofessorin am Digital Age Research Center (D!ARC) und seit Oktober 2021 auch dessen Leiterin. Sie studierte Kulturanthropologie, Informatik und Geschichte an der Eberhard-Karls-Universität Tübingen und an der Goethe-Universität Frankfurt am Main. Ab 2005 war sie Doktorandin in einem EPSCR(Engineering and Physical Sciences Research Council)-geförderten Projekt zum Thema Internet of Things an der Lancaster University in Großbritannien. 2009 promovierte sie mit der Dissertation zum Thema „Ubiquitous Computing in
Industrial Workplaces“ an der Lancaster University. Nach ihrer Promotion arbeitete sie als Postdoc Researcher und Visiting Lecturer an der Lancaster University Management School. Katharina Kinder-Kurlanda war von 2012 bis 2016 Senior Researcher und zwischen 2016 und 2021 Teamleiterin für „Data Linking & Data Security“ am GESIS – Leibniz-Institut für Sozialwissenschaften in Köln. Gleichzeitig war sie zwischen 2019 und 2020 Fellow am Center for Advanced Internet Studies (CAIS) in Bochum.