Wie wird Technologie fair?

Mina Saidze ist Gründerin, Autorin, Tech Evangelist und Lead Data Analytics. Ihr Herzensthema ist die gerechte Teilhabe aller an der digitalen Welt. Wir haben sie – natürlich digital – zum Gespräch getroffen. 

Interview von Sehar Arshad und Kristina Kastner 

Sehar: Liebe Mina, Du hast mit „Inclusive Tech“ die europaweit erste Lobby- und Beratungsorganisation für mehr Diversity in Tech und KI-Ethik gegründet. Was macht Ihr da konkret? 
 
Ich habe „Inclusive Tech“ mitten in der Pandemie März 2020 gegründet, aus dem Bedürfnis heraus, dass auch meine Stimme in der Tech-Industrie repräsentiert sein soll. Wenn wir uns Deutschland anschauen, beträgt der Frauenanteil in den IT-Berufen nur 17 Prozent, und wenn wir uns nicht nur Frauen als Diversity-Dimension anschauen, sondern auch andere Attribute hinzuziehen – wie den Migrationshintergrund – dann ist die Zahl noch viel geringer.  

Das ist problematisch – zum Beispiel, wenn es darum geht, datengetriebene Technologien zu entwickeln. Denken wir mal an Gesichtserkennungs-Software. Die ist oftmals nicht in der Lage, ethnische Minderheiten korrekt zu erkennen. Und deswegen ist es auch wichtig, nicht nur Diversity im Sinne von Gender zu denken, was in Deutschland und in Europa sehr oft noch der Fall ist, sondern eben auch andere Dimensionen wie den Migrationshintergrund oder BIPoC (Black, Indigenous, People of Color, Anm. d. Red.) hinzuzuziehen. Und genau diese Intersektionalität ist so wichtig in dieser Debatte.  

Mit Inclusive Tech will ich dafür sorgen, dass diese Themen auch im politischen und gesellschaftlichen Diskurs stattfinden. Unsere Mission ist es, den Diversity-Gap in der Tech-Industrie zu schließen. Diversity in Tech wird oft noch als Nischen- oder Luxusthema betrachtet und in wirtschaftlich krisenhaften Zeiten, wie gerade jetzt, als erstes eingespart. Das sehen wir aktuell zum Beispiel bei Microsoft, die sich bei OpenAI mit Milliardenbeträgen eingebringen, mit riesigen Wachstumsambitionen, aber gleichzeitig das komplette Ethikteam entlassen. Warum? Weil sie diese sozialen und gesellschaftlichen Fragestellungen eben in direkter Konkurrenz zu den schnellen Wachstumsambitionen sehen.  

Ich glaube ganz fest daran, dass wir parallel zur rasanten technologischen Entwicklung auch die gesellschaftliche und soziale Debatte rund um Technologie führen müssen, damit wir diese gemeinwohlorientiert einsetzen können. Bei Inclusive Tech setzen wir dabei auf drei Säulen: Awareness, Education und Community. Awareness ist der erste Schritt ist, nämlich ein Bewusstsein zu schaffen. Es gibt keine bösen Entwickler:innen, die diskriminierende Algorithmen entwickeln. Aber es gibt mangelndes Bewusstsein für diese Thematik. Aber woher soll das auch kommen? KI-Ethik wird nirgendwo gelehrt, weder in der Uni, noch in den Unternehmen. Und deswegen ist auch Bildung so wichtig und Education unsere zweite Säule. Die besteht aus Vorträgen und viel Aufklärungsarbeit in Kooperation mit Vereinen, Stiftungen, Universitäten, aber auch Unternehmen. Und last but not least Community: Da geht es uns darum, Leute zusammenzubringen. Eine Plattform zum Austausch zu bieten.  

© Julia-Steinigeweg

Kristina: Diversity ist ja gerade für die Entwicklung von KI entscheidend, weil der Algorithmus sonst möglicherweise diskriminierende Stereotype reproduziert. Hier müssten also sehr schnell sehr viele diversere Entwickler:innen her. Wie soll das gehen? 

Ich würde gerne erstmal auf die Algorithmen zurückkommen. Im medialen Diskurs lauten die Schlagzeilen immer: diskriminierende Algorithmen, diskriminierende Recruiting-Systeme oder rassistische oder sexistische Algorithmen. Der Algorithmus per se diskriminiert aber nicht. Es geht vielmehr um die zugrundeliegenden Datensätze, mit denen der Algorithmus trainiert wird.  

Datensätze bilden unsere gesellschaftliche Realität ab, und in dem Moment, wenn im Datensatz ein bestimmtes Attribut nicht so repräsentiert wird, wie es in der Gesellschaft vorkommt, weiß ich, dass ich ein unausgewogenes Verhältnis habe. Sagen wir mal, Menschen mit Migrationshintergrund: Ich finde jetzt nur ein bis vier Prozent davon in meinem Datensatz wieder, aber jede vierte Person in Deutschland hat einen Migrationshintergrund. In dem Moment kann sich Bias im KI-System festsetzen und immer weitertragen – weil etwas unterrepräsentiert ist, in unserem Fall der Migrationshintergrund. Also muss ich auch genau in dem Moment ansetzen, und etwas daran verändern, wie ich meinen Trainingsdatensatz gestalte. Es gibt mittlerweile Tools dafür, sogenannte Bias-Detection-Tools, die für die Tech Community kostenfrei verfügbar gemacht werden. Unter anderem von großen Konzernen wie IBM, weil diese Konzerne sich ja mitunter auch in der Verantwortung dafür sehen, dass Technologie ethisch und fair entwickelt wird.  

Es ist also durchaus jetzt schon möglich, Technologie inklusiv zu entwickeln. Natürlich unterstützen wir auch die Forderung, Stellen im Tech-Bereich diverser zu besetzen. Nur: Wenn ich jetzt eine Gruppe von Frauen einstelle, kann diese Gruppe ja aufgrund ihrer Sozialisation oder ihrer sozialen Klasse ja auch recht homogen in ihren Ansichten sein und gar nicht dazu beitragen, dass es viele neue Perspektiven gibt. Oder wenn ich jetzt eine BIPoc-Entwicklerin einstelle, dann heißt das nicht automatisch, dass sie Antirassismus-Expertin ist oder Gender-Expertin. Allerdings ist die Wahrscheinlichkeit höher, wenn etwa eine Technologie bestimmte Menschengruppen nicht erkennt, dass genau diese Person darauf hinweist.  

Kristina: Voraussetzung für Diversity in Tech ist ja erstmal digitale Teilhabe – also, dass alle Menschen Zugang haben zu digitalen Angeboten. Da sind wir aber noch lange nicht. Was muss da – auch politisch – passieren? 

Als erstes brauchen wir dafür mehr Digitalisierung auf kommunaler Ebene, damit die Kommunen ihren bürokratischen Aufwand bewältigen können. Da scheitert es nämlich momentan, deshalb kommen die Gelder aus dem digitalen Bildungspaket der Bundesregierung überhaupt nicht an den Schulen an. Wenn die Schulen dann Geld in der Hand haben, um die technische Ausstattung anzuschaffen, ist es auch keine Frage des Privilegs mehr, aus welchem Elternhaus ich komme und ob ich dann einen Laptop habe oder nicht.  

Der nächste Schritt wäre dann eine digitale Bildungsreform an unseren Schulen und auch an den Universitäten. Wenn ich in Deutschland zur Schule gehe, lerne ich lesen, schreiben und rechnen. Aber warum lerne ich nicht gar nicht, was Daten überhaupt sind, woher diese Daten kommen, wie sie gesammelt werden, wo sie gespeichert werden, wie sie ausgewertet werden oder sogar für andere Zwecke weiterverkauft werden? Die junge Generation ist sehr technologieaffin, interagiert den ganzen Tag mit Apps, weiß aber gar nicht so genau, was da vonstattengeht. Und deswegen glaube ich, dass wir ein Schulfach wie Datenkunde brauchen, ab Schulklasse drei.  

Auch die Absolvent:innen, die von den Universitäten kommen, haben gar nicht das Skillset, um am digitalen Arbeitsmarkt teilhaben zu können. Ich persönlich halte Datenanalyse für das wichtigste Skillset des 21 Jahrhunderts, weil es unsere Lingua franca ist, unsere gemeinsame Sprache, in der wir uns verständigen. Egal in welchem Bereich ich arbeite: Ich brauche Daten, Fakten und Statistiken, und ich benötige auch die Kompetenz, diese interpretieren zu können und Handlungsempfehlungen daraus ableiten zu können. Und es bedeutet nicht, dass jeder von uns jetzt Programmierer:in, Datenwissenschaftler:in oder ähnliches werden muss, aber dass jeder und jede von uns mündig sein sollte, als Bürgerin oder Bürger im digitalen Zeitalter, um am Diskurs teilhaben zu können. Wir brauchen ein Verständnis und ein Bewusstsein dafür, wie Datenökonomie funktioniert, um Dinge akzeptieren oder ändern zu können. 

Sehar: Auf Deiner Website beschreibst Du Dich als „Tochter von Aktivisten“. Magst Du darüber ein wenig erzählen? Bist Du mit einem Bewusstsein für Teilhabe – beziehungsweise dafür, dass man für Teilhabe in manchen Bereichen auch kämpfen muss – aufgewachsen? 

Anfang der 1990er Jahre sind meine Eltern als politische Aktivisten aus Afghanistan nach Deutschland geflohen, weil sie einem demokratischen, sicheren Staat leben wollten, wo ich als Mädchen das gleiche Recht auf Bildung habe wie Jungen und Männer. Meine Eltern haben ihren neuen Heimathafen in Hamburg gefunden. Und ich war eben recht früh schon politisiert, auch aufgrund meiner Familiengeschichte, und wusste, dass du für deine Werte, für deine Meinung auch kämpfen musst. Ich habe selbst in der Schule Diskriminierung erfahren und hatte dadurch auch immer so eine innere Wut – die ich Gott sei Dank in etwas Positives, in etwas Gutes umwandeln konnte, weil sie auch mein Antrieb wurde für das, was ich heute tue. 

© Quadriga

Kristina: Im September erscheint Dein Buch „FairTech: Digitalisierung neu denken für eine gerechte Gesellschaft“. Darin forderst Du eine Digitalisierung, an der alle teilhaben können. Wie sieht die aus? 

FairTech bedeutet für mich, dass wir uns von den aktuellen Fragestellungen, die den Diskurs dominieren, befreien. Denn häufig geht es eben um Profitmaximierung, um schnelles Wachstum von Tech-Start-ups und die Automatisierung von Arbeitsplätzen. Und da werden immer wieder dieselben Fragen gestellt: Wie viele Prozesse kann ich innerhalb der Organisation mit Hilfe von Technologie automatisieren? Welches Einsparpotenzial hat das? Oder auch: Wie können wir als Unternehmen schneller skalieren und unsere Wachstumsambitionen mit Hilfe von Technologie erfüllen? Mit FairTech möchte ich den Diskurs in eine andere Richtung lenken, dass wir uns eher Fragen stellen wie: Wie können wir Technologie verwenden, um zu einer besseren Lebensrealität beitragen zu können? Wie können wir Technologie nutzen, um Menschenleben zu retten, weil wir beispielsweise viel schneller in der Diagnostik von Erkrankungen sind? Und wie können wir diese Technologien inklusiv und fair entwickeln, sodass bestimmte Menschengruppen nicht ausgeschlossen sind? Was muss jetzt getan werden, damit wir alle an der Digitalisierung teilhaben können und gleichzeitig als Deutschland und Europa im Wettlauf um Technologieführerschaft auf internationaler Ebene mithalten können? Und was können wir, jeder und jede von uns, innerhalb unserer Gesellschaft dazu beitragen – als Lehrkraft, als Schüler:in, als Student:in, als Nutzer:in, als Politiker:in oder auch als Journalist:in, aus unserer jeweiligen Rolle heraus? Und genau darum geht es bei FairTech. 

Vielen Dank, liebe Mina!