VUI Design

Bias in KI in 2020

anna-maria

Künstliche Intelligenz prägt bereits einige der Technologien von heute und wird auch viele von morgen mit beeinflussen. So mächtig die KI auch ist, wir müssen uns stets vor Augen halten, dass sie nur so gut sein kann, wie ihre Schöpfer und die ihr gefütterten Daten es sind. Da die KI in verschiedenen Bereichen unseres Lebens zur Anwendung kommt, müssen wir sicherstellen, dass sie inklusiv und pluralistisch ist und alle gleichbehandelt.

thisisengineering_pexels

Künstliche Intelligenz prägt bereits einige der Technologien von heute und wird auch viele von morgen mit beeinflussen. So mächtig die KI auch ist, wir müssen uns stets vor Augen halten, dass sie nur so gut sein kann, wie ihre Schöpfer und die ihr gefütterten Daten es sind. Da die KI in verschiedenen Bereichen unseres Lebens zur Anwendung kommt, müssen wir sicherstellen, dass sie inklusiv und pluralistisch ist und alle gleichbehandelt. Aber davon sind wir noch weit entfernt: Von der Gesichtserkennung, die für People of Colour schlechter funktioniert, bis zum Leben in Filterblasen aufgrund von Algorithmen: Wir – sowohl die Tech Community als auch die User – begegnen solchen Bias in der Künstlichen Intelligenz überall.

Um dieses Problem in den Griff zu bekommen, ist es wichtig zu wissen, woher die Verzerrung in der KI stammt. Mit diesem Blog-Beitrag möchte ich die drei Hauptkomponenten beleuchten, die zu voreingenommenen KI-Systemen beitragen:

1. Problem: Menschen – die eine KI erschaffen

2. Problem: Daten – was wir einer KI füttern

3. Problem: Algorithmen – wie eine KI ihre Nahrung verdaut

Menschen.

Es ist unvermeidlich, dass wir alle voreingenommen sind. Wir sind alle unter einzigartigen Bedingungen aufgewachsen. Wir sprechen bestimmte Sprachen und haben einen besonderen kulturellen Hintergrund. Wir haben Menschen getroffen und sind geprägt von vielfältigen Erfahrungen und Erlebnissen. Wir nehmen unsere Sozialisation überall mit und lassen sie auch während der Arbeit nicht bei uns zu Hause.

Dies ist an sich kein Problem, aber hier kommt das aber: Nehmen wir an, ein Dutzend Leute arbeiten an einem Sprachassistenten oder einer KI-gesteuerten Technologie und alle Mitarbeitenden haben einen ähnlichen soziokulturellen Hintergrund. Sie teilen daher höchstwahrscheinlich umfangreiche Teile ihres kulturellen Verständnisses, eine gemeinsame Sprache und ein gemeinsames Glaubenssystem. Ihre erlernten Vorurteile verstärken und hinterlassen Spuren in ihrer Arbeit, da sie Trainingsdaten, Trainingsalgorithmen und Vor- und Nachbearbeitung von Daten auswählen. Auch das Geschlecht spielt eine Rolle; wir wissen, dass Frauen in der Technik in Europa nur 25% ausmachen, während sie 51% der Gesamtbevölkerung darstellen; in den USA sind es erstaunliche 1% der hispanischen Frauen, die Berufe in der IT Branche ausüben, wobei sie 17% der Gesamtbevölkerung der USA ausmachen. Das Feld der Menschen, die KI entwickeln, ist somit sehr einheitlich und homogen, was unweigerlich dazu führt, dass Bias in KI-Systemen eingebettet und weiter verstärkt werden.

Natürlich kommen Bias am Arbeitsplatz nicht nur in der Technik vor – es gibt viele Berufe, die z. B. vorwiegend nur von Männern oder Frauen ausgeübt werden: Krankenpflegerinnen, Bauarbeiter, Kindergärtnerinnen, Busfahrer. Der Unterschied besteht darin, dass die KI viele der Technologien von morgen prägt und für Entscheidungsprozesse verwendet wird, an denen kein Mensch mehr beteiligt ist. Wenn eine KI entscheidet, dass ich einen Kredit erhalten kann (oder einen Algorithmus, ob der automatische Seifenspender in einem Hotel mich tatsächlich mit Seife versorgt), müssen wir sicherstellen, dass alle fair und gleich behandelt werden.

Daten.

Menschen sind maßgeblich daran beteiligt, Daten zu einem wichtigen Bestandteil von Bias in KI zu machen, da ihr Auswahlverfahren bereits voreingenommen ist. Das Problem mit den Daten weist jedoch auch noch andere Dimensionen auf. Das Wichtigste zuerst: Daten sind natürlich essentiell für die KI und das maschinelle Lernen – es sind im Grunde die Mahlzeiten, die wir ihnen geben. Maschinelles Lernen arbeitet mit Mustern und durchsucht Daten, um diese zu finden. Je häufiger ein Muster auftritt, desto mehr manifestiert es sich in einer KI. Die KI versucht dann, jeden Input auf eines dieser Muster anzuwenden. Je ungewöhnlicher dieser Input ist, desto schlechter ist die Leistung der KI, da er nur schlecht auf die gängigen Muster angewendet werden kann.

Um dies auf Voice anzuwenden: Eine ASR (Automated Speech Recognition) wird an einem bestimmten Datensatz trainiert, der überwiegend aus hochdeutschen Sprechern besteht. Verwendet nun ein Sprecher aus Österreich (der Deutsch als Muttersprache spricht) diesen Sprachassistent, wird er nur sehr schlecht verstanden. Warum wurde dann nicht einfach ein vielfältigerer Trainingsdatensatz verwendet? Wie sich so oft herausstellt, gibt es genau den eben nicht.
Wir sehen viele bereits vorhandene und weit verbreitete Datensätze, die insofern diskriminierend sind, dass sie in erster Linie einseitige Daten von meist männlichen Sprechern enthalten. Um ein Beispiel zu geben: TED-Vorträge wurden wiederholt von Sprachwissenschaftler*innen für breite Zwecke analysiert, umfassen jedoch 70% männliche Sprecher. Studien zeigen außerdem, dass „fast alle großen Datensätze“, die von Systemen mit maschinellem Lernen generiert werden, voreingenommen sind. Selbst mit den besten Absichten kann möglicherweise nicht vorurteilsfrei mit einer bereits vorhandenen Datenbank gearbeitet werden.

Algorithmen.

Nachdem eine KI gefüttert wurde, beginnt sie mit Hilfe von Algorithmen ihre Daten zu verarbeiten, um zu verstehen, was sie geliefert hat und um Entscheidungen auf der Grundlage des Gelernten zu treffen. Diese Algorithmen stellen auch eine Bedrohung für einen nicht voreingenommenen Ansatz zur KI dar.

AlgorithmWatch, ein deutscher gemeinnütziger Verein zur Bewertung algorithmischer Entscheidungsprozesse, stellte fest, dass der Algorithmus von Instagram Posts bevorzugt, die mehr nackte Haut aufweisen als solche mit weniger Haut. Amazon hat ein KI-gesteuertes Einstellungs-Tool entwickelt, welches das Einstellen von Top-Mitarbeitern für einen bestimmten Job erleichtern soll. Das Tool war jedoch auf Bewerbungen aus früheren erfolgreichen Einstellungen geschult worden, die hauptsächlich von Männern stammten, wodurch Frauen diskriminiert wurden. Der Algorithmus PULSE hat für Kontroverse gesorgt, als er ein verpixeltes Bild von Barack Obama in das eines weißen Mannes verwandelte.

Und selbst wenn die Realität durch einen Algorithmus korrekt dargestellt wird, z.B. indem mehr Frauen als Männer als Krankenpfleger*innen dargestellt werden, so sollte das Bild eines Mannes in einem Krankenhauskittel nicht automatisch den Untertitel „Arzt“ tragen, während das einer Frau den Untertitel „Krankenschwester“ trägt. Dies wird der Idee einer pluralistischen, vielfältigen und integrativen Gesellschaft, auf die wir hinarbeiten wollen, einfach nicht gerecht.

Menschen. Daten. Algorithmen. Bias in KI sind im Grunde verschiedene Verzerrungen, die zusammen ein dringendes Problem mit dieser Technologie bilden. Ein Problem, welches bei der Verwendung immer wieder verstärkt wird und aufgrund fehlender Transparenz, Rückverfolgbarkeit und mangelnden Bewusstseins schwer zu überwinden ist. Mit der Perspektive, dass KI immer wichtigere Entscheidungsprozesse übernimmt, muss die Tech-Community ein Bewusstsein für Bias in KI entwickeln und darauf hinarbeiten, es zu lösen. KI muss eine Verbesserung der aktuellen Entscheidungsprozesse sein und darf Fehler und Ungenauigkeiten, die bereits in unserer Gesellschaft bestehen, nicht reproduzieren und verstärken.

Share via