Home > Termine > Digital Kontrovers! #10 – Algorithmen und Gerechtigkeit
  • 21.05.2019
  • 18:30 Uhr - 21:00 Uhr
  • GIZ Repräsentanz Berlin
  • Daten für Entwicklung

Digital Kontrovers! #10 – Algorithmen und Gerechtigkeit

© GIZ / Annette Hauschild

Report: “Man kann Gerechtigkeit nicht in eine Formel übersetzen.”

Die BMZ-Veranstaltungsreihe Digital Kontrovers! fragt in ihrer 10. Auflage danach, ob sich Algorithmen und Gerechtigkeit vereinbaren lassen

“The winner takes it all” – auf diese etwas ernüchternde Formel brachte es Podiums-Sprecher Oliver Schwarz, Head of Smart Customer Solutions bei der Vaillant Group, am Schluss der abendlichen Diskussion. Er fasste damit ungewollt die engagierte zwei-stündige Suche im Rahmen des BMZ-Streitgesprächs Digital Kontrovers! zusammen, ob und wie sich Algorithmen und Gerechtigkeit vereinbaren lassen.

Über 100 Gäste waren wieder gekommen, um in der 10. Auflage der BMZ-Veranstaltung digitale Trends und Fragestellungen gemeinsam zu erörtern. Alles rankte sich an diesem Abend um Algorithmen. Mark Holzberger, der neue Gastgeber vom BMZ, sprach zu Beginn davon, dass sich mit ihnen heute euphorische Hoffnungen, aber zugleich die größte Angst der Menschen vor Kontrollverlust verbinden. Er prognostizierte, dass die Verbindung Mensch zu Maschine wohl ewig ein Spannungsverhältnis bleiben werde. Ohne Sieger oder Besiegte. Tatsächlich würden die Debatten, die wir in Europa über die Chancen und Risiken algorithmischer Systeme führen, auch in Afrika längst geführt. Nur würden dort die Fragen mitunter anders gestellt. Oder es ergäbe sich eher ein anderer Fokus. Genau das habe man auf der re:publica Accra festgestellt, die das BMZ im letzten Jahr in Ghana mit mehr als 1.200 Gästen und über 250 Sprecherinnen und Sprechern aus 32 Ländern unterstützt habe. Mit Digital Kontrovers! wolle man die Fragen, die in Ghana aufgeworfen wurden, zurücktragen nach Berlin.

Algorithmen und Gerechtigkeit lassen sich verbinden

Algorithmen-Expertin Anita Klingel, Wissenschaftliche Koordinatorin, Goethe-Universität Frankfurt am Main, eröffnete dann die Podiumsrunde mit einem entschlossenen Statement, dass sich Algorithmen und Gerechtigkeit sehr wohl verbinden ließen. Sie untersuchte zuletzt für die Bertelsmann Stiftung, wie Algorithmen gesellschaftliche Teilhabe beeinflussen und erarbeitete dabei Kriterien und Methoden, mithilfe derer existierende Algorithmen überprüft und künftige Entscheidungssysteme entwickelt werden können.

Ihr gehe es dabei nicht um Algorithmen, die defekte Schrauben aussortieren helfen. “Aber wenn wie in Frankreich heute Algorithmen über die Vergabe von Studienplätzen entscheiden, dann will ich genau wissen, welche Formel dahintersteckt und wie Diskriminierung verhindert werden kann.” Die Expertin betonte, dass ein Algorithmen-TÜV allein nicht ausreiche. Vielmehr müssten auch dessen Daten-Input sowie die Handlungen untersucht werden, die er auslöst. Sie verwies in diesem Zusammenhang auf die “Algo-Rules“, die neun konkrete Regeln zur Entwicklung gerechter Algorithmen definieren.

Transparenz und Nachvollziehbarkeit seien zwei wichtige Faktoren für den Algorithmen-Check. “Wir sollten dabei aber nicht immer auf den Staat und Gesetze warten, sondern jeder von uns entscheidet täglich mit seinem Verhalten im Netz, welche Algorithmen und Geschäftsmodelle er unterstützt und welche nicht”, mahnte Anita Klingel. Statt Regulierung sprach sie sich mehr für Gütesiegel aus, die die Anwender informieren und steuern.

© GIZ / Annette Hauschild

Zum Schutz Ihrer persönlichen Daten ist die Verbindung zu Facebook blockiert. Mit Klick auf den Play-Button heben Sie die Blockierung auf. Gleichzeitig erhalten Facebook personenbezogene Daten über Ihren Zugriff auf die Webseite.

© GIZ / Annette Hauschild

Zum Schutz Ihrer persönlichen Daten ist die Verbindung zu Facebook blockiert. Mit Klick auf den Play-Button heben Sie die Blockierung auf. Gleichzeitig erhalten Facebook personenbezogene Daten über Ihren Zugriff auf die Webseite.

Gerechte und diskriminierungsfreie digitale Modelle

Aus Sicht von Oliver Schwarz wird es keine gerechten Algorithmen geben können. Ohnehin sei aus seiner Sicht der Zug längst abgefahren, moralische und humanistische Kriterien bei digitalen Geschäftsmodellen anzumahnen. “Man kann Gerechtigkeit nicht in eine Formel übersetzen”, unterstrich der Entwickler. Und gerecht und moralisch zu sein, halte kein Unternehmen am Markt. Der Mensch lerne am meisten aus seinen Fehlern. Das sei aus seiner Sicht auch der realistischere Weg zu gerechteren oder diskriminierungsfreieren digitalen Modellen.

In ihrem entwicklungspolitischen Zwischenruf machte eine der IT-Top-Frauen Afrikas, Ethel Cofie, Gründerin von “Women in Tech Africa”, CEO und Direktorin EDEL Technology Consulting, klar, dass die moralischen Fragen in Afrika aktuell zurückstehen hinter Fragen der generellen Teilhabe Afrikas an der globalen IT-Entwicklung. Allerdings betonte sie, dass normatives Eingreifen in technologische Entwicklungen durch den Menschen notwendig sei. Würde man die Repräsentation von Frauen in Entwicklerteams beispielsweise nicht explizit einfordern, dann würde ein Algorithmus derartige Ungleichgewichte einfach übernehmen und manifestieren.

Förderung lokaler Software-Unternehmen wichtig

Ethel Cofie nannte auch die Konkurrenz verschiedener Software-Anbieter am Markt als notwendig und sinnvoll für die Gesellschaft, um die Monopolisierung von und Diskriminierung durch Algorithmen zumindest stückweise einzudämmen. Aus ihrer Sicht sei deshalb die Förderung lokaler Software-Unternehmen in Afrika aber auch global extrem wichtig, um lokale Normen und Werte auch technologisch abzubilden.

Beide Podium-Redner waren sich am Schluss der 10. Digital Kontrovers!-Veranstaltung (Moderation: Julia Wadhawan) einig, dass die Selbstregulierung der Unternehmen der beste und realistische Weg sei, hin zu gerechteren und diskriminierungsfreien Algorithmen. Dass aber die Zeit auch längst überfällig sei, entsprechende Kodexe zu entwickeln.

Picture 1/5: © GIZ / Annette Hauschild
Picture 2/5: © GIZ / Annette Hauschild
Picture 3/5: © GIZ / Annette Hauschild
Picture 4/5: © GIZ / Annette Hauschild
Picture 5/5: © GIZ / Annette Hauschild

This site uses cookies to provide you with the best user experience. If you like to know more about it or change your cookie settings, please click here.