Können Daten und Algorithmen gemeinnützig sein?

Big Data und die scheinbar undurchschaubare Magie der Algorithmen, die uns täglich begegnen und beeinflussen, können manchmal beängstigend wirken. Manch ein Unternehmen weiß vermutlich mehr über uns als unsere eigenen Großmütter und wir kennen Berichte über rassistische und sexistische Algorithmen.

Lucy Bernholz vom Digital Civil Society Lab der University of Stanford und Julia Gundlach von der Bertelsmann Stiftung haben in ihren großartigen Sessions am Digital Social Summit 2022 das Thema von einer ganz anderen Seite beleuchtet: Können Algorithmen dem Gemeinwohl dienen und wie kann eine digitale Zivilgesellschaft die Zukunft zum Besseren formen?

 

Technologie ist immer nur so gut wie die, die sie einsetzen

Dass in unserer datenschutz-affinen, europäischen Gesellschaft eine generelle Abwehrhaltung gegenüber Datensammlungen und Algorithmen herrscht, ist kaum verwunderlich. Mit jedem Klick hinterlassen wir Daten, die zusammengefasst zu einem erschreckend detaillierten Profil unserer Persönlichkeit werden können. So zeigt uns Google treffsicher Werbung über Stiefel an, die genau unserem Geschmack entsprechen, unsere Facebook-Timelines sind nach dem Lesen eines Artikels über vegane Ernährung plötzlich mit Werbung für vegane Produkte gespickt und Spotify kennt unsere musikalischen Vorlieben oft besser als wir selbst.

Abseits von diesem alltäglich erlebbaren Einsatz von Daten und Algorithmen gibt es auch zahlreiche Beispiele, die noch wesentlich bedenklicher sind. Zum Beispiel verschlagwortete Googles Bilderkennungsdienst Bilder von Menschen mit dunkler Hautfarbe als “Gorillas” und eine Software, die Richter*innen dabei helfen soll die Rückfallwahrscheinlichkeit von Häftlingen zu bewerten, sah dunkle Hautfarbe als ausschlaggebend dafür an. 

 

Doch die Technologie an sich kann nichts dafür: Es sind die Menschen, die Algorithmen programmieren und dabei nicht alle Menschen und Möglichkeiten mitdenken oder die das “maschine learning” durch ihre eigenen Vorurteile beeinflussen. Das nennt man “Bias” oder “Voreingenommenheit”. Die Freie Universität Berlin hat diesen Mechanismus anhand des automatischen Bildzuschnitts auf Twitter erklärt

 

Der Twitter-Algorithmus erkannte ein Bild von Barack Obama nicht als Bild eines Gesichtes.

 

Im Grunde sind Algorithmen also lediglich gnadenlose Spiegel unserer Gesellschaft mit all ihren Abgründen und Verfehlungen. Es wird Zeit, dass sich hier etwas ändert und die digitale Zivilgesellschaft – also wir alle – verhindern, dass Technologie auf gesellschaftsschädigende Weise eingesetzt wird. 

Was ist ein Algorithmus?

Julia Gundlach verglich in ihrer Session am Digital Social Summit 2022 Algorithmen mit Möbelaufbau-Anleitungen. Dieser Vergleich trifft es meiner Meinung nach sehr gut. Denn ein Algorithmus ist eine – in Code formulierte – Schritt-für-Schritt-Anleitung zum Lösen eines genau definierten Problems. 

Algorithmen bekommen ihre Relevanz aber erst, sobald sie in einem algorithmischen System eingebettet sind. Das ist ein System einer oder mehrerer Algorithmen, die in Software eingebaut werden, um Daten zu erfassen, zu analysieren und Schlüsse daraus zu ziehen, die zur Lösung des definierten Problems beitragen sollen. So ein System kann selbstlernend (KI) sein oder vorprogrammierten Regeln folgen. (vgl. Algo.Rules, Bertelsmann Stiftung und iRights.Lab GmbH)

 

 

Algorithmen können einen hohen Grad an komplexen Wenn-Dann-Entscheidungen beinhalten und wesentlich schneller als der Mensch riesige Mengen an Daten analysieren. Umso wichtiger ist es zu wissen, welche Ziele für einen Algorithmus definiert sind, welche Trainingsdaten verwendet wurden und wie die Interpretation des Outputs erfolgt. Das sind alles Aspekte, die vom Menschen bestimmt werden. 

Wenn Du mehr über Algorithmen wissen möchtest, lies den Artikel von Sebastian Dörn, Mathematik-Professor am Hochschulcampus Tuttlingen: Algorithmen.

 

Transparenz und der richtige Blickwinkel sind ausschlaggebend

Algorithmen und der Einsatz von Daten können soziale Ungerechtigkeit verstärken – aber auch für mehr Fairness und Teilhabe sorgen. Um das zu erreichen, braucht es mehr Verständnis und Wissen über diese Technologie, um sie zu “entzaubern” und ihr damit das unheimlich-mystische Image zu nehmen. Die Ziele und Funktionsweisen von Algorithmen – welche Daten werden in welchen Schritten analysiert und wie werden die Ergebnisse interpretiert – sollten für alle transparent und nachvollziehbar sein. Damit können ihre Mechanismen durchleuchtet, kritisiert und in einem gemeinsamen Prozess mit allen Beteiligten verbessert werden, um Biases zu vermeiden. 

Algorithmen der Internet-Giganten aus dem Silicon Valley sind aber alles andere als transparent. Sie sind derart komplex, dass selbst Spezialist*innen nicht immer jede vom Algorithmus getroffene Entscheidung nachvollziehen können. Zudem sind sie ein wichtiges Kapital für diese Unternehmen, da die Algorithmen letztlich die Basis dafür bilden, was Nutzende angezeigt bekommen und wie sie mit den Inhalten interagieren. Dahinter stehen gewinnorientierte Geschäftsmodelle, was gesellschaftlich problematisch ist. Denn spätestens wenn es um Politik, Meinungsbildung und Information geht, üben diese Konzerne über ihre undurchschaubaren Algorithmen Macht auf die Gesellschaft aus.

Der Blickwinkel ist essentiell dafür, ob ein Algorithmus dem Gemeinwohl dienen kann oder nicht. Egal um welches Anwendungsfeld es sich handelt: Die Probleme unserer Gesellschaft sollten die Algorithmen beeinflussen, nicht umgekehrt. 

 

Die gesellschaftlichen Auswirkungen sollten stets mehr Gewicht haben als technische Aspekte oder der generierte Mehrwert. 

 

 

Endlose Möglichkeiten für den guten Zweck

Daten und Algorithmen sind gekommen, um zu bleiben. Den Einzelinteressen von Unternehmen dienen sie bereits gut, nun ist es an der Zeit, dem etwas entgegen zu setzen: Tech fürs Gemeinwohl! 

Es gibt bereits viele positive Anwendungsbeispiele von Algorithmen und Daten. So kommen sie z. B. beim Erkennen von Hass im Netz zum Einsatz, helfen bei der Verlaufsanalyse von Pandemien oder dabei, Lebensmittelspenden effizient und gerecht zu verteilen. In Spitälern kommen sie bei der Interpretation medizinischer Bildgebung zum Einsatz, um menschliche Schwächen (z. B. Müdigkeit, Ablenkung, …) auszugleichen. Sogar die Kita-Platz-Vergabe kann durch Algorithmen fairer und transparenter gestaltet werden. Ein guter, vorurteilsfrei gestalteter Algorithmus kann auch Bewerbungsverfahren objektiver und damit gerechter machen. 

Lucy Bernholz erwähnte das Beispiel des Data Altruism: Dabei geht es darum, Daten zu spenden, um einen Beitrag zum kollektiven Wissen für Wissenschaft und Politik zu leisten. Das können – je nach Zweck – beispielsweise Daten zu lokalen Vogelbeobachtungen sein, Fotos von Pilzen mit Ort- und Zeitangabe oder auch die öffentliche Dokumentation von Kriegsgeschehnissen (wie aktuell in der Ukraine) oder Unwettern. Die Non-Profit AlgorithmWatch nutzte beispielsweise Datenspenden, um den Algorithmus von Instagram zu erforschen – was jedoch laut dem Unternehmen gegen die Nutzungsrichtlinien verstieß.

Solche Bottom-up-Daten von Menschen “im echten Leben” dezentralisieren Informationsgewinnung und sind ein wichtiges Mittel digitaler Demokratie. Dadurch, dass sich (fast) jeder daran beteiligen kann, ermöglicht digitale Technologie einen sehr niederschwelligen Zugang zu gesellschaftlicher Teilhabe. Macht über Daten zu haben bedeutet, Macht über Wissen zu haben. Durch Data Altruism erhält jede*r die Macht, Monopolstellungen zu bekämpfen und die Wissensgenerierung zu dezentralisieren.

 

Nur eine Auswahl an Beispielen, bei denen Algorithmen dem Gemeinwohl dienen können.

 

 

Eine neue Generation von Non-Profits widmet sich genau diesem Thema und sammelt Daten für den guten Zweck. Beispiele dafür sind u.a. “Data for Black LivesoderAnti Corruption Data Collective. Sie tragen dazu bei, die Zivilgesellschaft neu zu formen und die Möglichkeiten, die das digitale Zeitalter bietet, für das Gemeinwohl zu nutzen. 

Daten können u.a. verwendet werden, um Diskriminierung sichtbar zu machen, Umweltverschmutzung und Menschenrechtsverletzungen aufzuzeigen, medizinische Forschung zu unterstützen und vieles mehr. Wenn die Algorithmen, die mit solchen Daten gefüttert werden, in einem partizipativen, transparenten Prozess erstellt werden, können sie der Non-Profit-Arbeit den Rücken stärken und faktenbasierte Argumente für Forderungen an Politik und Wirtschaft liefern. 

 

Gemeinsamer Wandel für eine bessere Welt

Daten und Algorithmen sind nicht mehr als Werkzeuge. Ein Hammer kann dazu genutzt werden, jemandem den Kopf einzuschlagen – oder ihm ein Zuhause zu bauen. Wer, wenn nicht Non-Profits, wird diese Werkzeuge für gute Zwecke einsetzen? Wer außer Non-Profits kann eine öffentliche Debatte über ihren Einsatz anstoßen, die zu mehr Transparenz und Gerechtigkeit führt? Wer außer ihnen kann dieses neue Verständnis von Technologie und digitaler Zivilgesellschaft in den Köpfen verankern?

Die EU-Kommission hat das Transparenz-Problem erkannt und mit ihrem Digital Service Act einen ersten Schritt in die richtige Richtung gesetzt. Bis dieser Vorstoß tatsächlich umgesetzt wird, wird noch viel Zeit vergehen.

Daher ist es wichtig, dass Organisationen sich an dieser Entwicklung beteiligen. Es ist nämlich nicht die Frage, ob man Daten sammelt – sondern wer sie wie und zu welchem Zweck speichert und verwendet. 

 

Hat Dir dieser Artikel gefallen? Dann abonniere unseren Newsletter und erhalte künftig neue Beiträge und News von der FundraisingBox gesammelt per Mail. 

 

 

Speichern
Nach oben
Findest Du diesen Artikel hilfreich?