Warum Machine Learning verzerrte Rollenbilder begünstigt

Interview

5 Minuten

18.11.2021

Portrait von Jennifer Dorman

Maschinelle Übersetzungen können dazu führen, dass gesellschaftliche Vorurteile sichtbar werden. Ein Gespräch mit Jennifer Dorman, Lingustik-Expertin bei Babbel, über die Frage, wie anfällig Algorithmen für Stereotypen sind. Und wie sinnvoll deshalb ein Gender-Sensibilisierungstraining für KI-basierte Übersetzungen ist.

Frau Dorman, Algorithmen sollten präziser, objektiver und vorurteilsfreier entscheiden als Menschen. Soweit die Theorie. Die Praxis zeigt allerdings häufig, dass dies nicht unbedingt stimmt. Welches Beispiel kommt Ihnen dabei in den Sinn?

Jennifer Dorman: Maschinelle Übersetzungen sind einer der Bereiche von Künstlicher Intelligenz, innerhalb derer vorprogrammierte Stereotypen und Vorurteile sichtbar werden. Denn es verbergen sich ja Menschen hinter den Informationen, die KI mit Informationen füttern und die sind nicht frei von Vorurteilen. Stellen wir uns einmal ein Buch über Hauswirtschaft aus den 50er-Jahren vor. Die Frauenbilder, die wir darin finden würden, würden uns heute erschaudern lassen. Leider sind Computer nicht intelligent genug, um diese Reaktion hervorzurufen. Sie saugen das Buch und jedes andere auf und lernen daraus, dass “Frau” und “Küche” enger miteinander in Verbindung stehen als “Mann” und “Küche”. Recherchen haben gezeigt, dass die semantische Assoziation zwischen Frauen und beispielsweise Kochen so stark ist, dass einige Algorithmen, die auf die Kennzeichnung von Bildern trainiert sind, bei der Abbildung eines kochenden Mannes sagen, dass es sich um eine Frau handelt. Ebenso hat die KI aus den Daten gelernt, dass Ausdrücke wie “Gehalt”, “Geschäft”, und “Büro” systematisch näher an Wörtern liegen, die mit Männern assoziiert werden.

Liegen diese Aussetzer auch an den Menschen, die sie mit Informationen füttern? Was lässt sich Ihrer Meinung nach dagegen tun?

Dorman: Für maschinelle Übersetzungen setzen wir Algorithmen Milliarden von Wörtern aus Textdaten aus und erwarten, dass sie Muster erkennen und daraus lernen. Wir nennen diesen Prozess „Maschinelles Lernen“. Enthalten die vorhandenen Daten zum Beispiel geschlechtsspezifische Disbalancen, wird ein auf diesen Daten trainiertes Übersetzungs-Tool diese unweigerlich wiedergeben. Wir können Vorurteile in KI außerdem vermeiden, indem wir Diversität bereits am Ort der technologischen Produktion fördern. Dabei geht es jedoch um mehr als unterschiedliche Bedürfnisse am Arbeitsplatz. Vielmehr sollten verschiedene Nutzer sich und ihre Erfahrungen im Produkt wiederfinden. All das erfordert eine breite Palette von Perspektiven am Front-End.

In welchen Bereichen halten Sie vorprogrammierten Stereotypen für besonders bedenklich?

Dorman: Die Bekräftigung von Stereotypen ist generell gefährlich, egal in welchem Bereich. Zum Beispiel erleben wir durch maschinelle Übersetzungen nicht selten die verzerrten Rollen- und Geschlechterbilder von Frau und Mann in der Gesellschaft, die leider noch immer stark von Stereotypen geprägt sind. Wie das dann in einem Übersetzungsalgorithmus aussieht, wird an diesem Beispiel deutlich: Nehmen wir den englischen Satz "She is a professor". Wird dieser bei Google Translate eingegeben, erhält man die korrekte Übersetzung ins Italienische „Lei è una professoressa” („Sie ist eine Professorin“). Gab man bis 2018 jedoch "She is a professor" bei Bing Translate ein – übrigens das Tool, das für die Übersetzung bei Facebook verwendet wird –, erhielt man das Ergebnis „Lei è un professore” (“Sie ist ein Professor“), vermutlich weil die Daten für diesen Algorithmus mehr Beispiele für männliche Professoren enthielten. Dies geschieht auch heute noch sowohl bei Google Translate, als auch bei Bing Translate mit der italienischen Übersetzung des Satzes "She is a minister“ („Sie ist eine Ministerin”). Google übersetzt ihn nämlich mit „Lei è un ministro”, anstatt „ministra”, die weibliche Form, zu verwenden.

Bleiben wir noch kurz beim Beispiel der geschlechtsspezifischen Sprache. Verlangen wir hier von Algorithmen, was wir als Menschen selbst im Alltag kaum schaffen?

Dorman: Wir können von Maschinen nicht erwarten, dass sie Vorurteile ohne menschliche Hilfe beseitigen, denn sie erstellen lediglich Muster auf der Grundlage von Häufigkeiten. Gerade wenn die komplexe Grammatik in bestimmten Sprachen die Algorithmen quasi anfällig für Stereotypen macht. Zum Beispiel kann KI bei manchen Sprachen das grammatikalische Geschlecht mit dem menschlichen verwechseln. KIs projizieren so menschliche Stereotypen in die Welt der Objekte. Vor ein paar Jahren lautete bei Bing Translate die italienische Übersetzung von „The table is soft, but the table is hard“ („Der Tisch ist weich, aber der Tisch ist hart“) noch „La tavola é morbida, ma il tavolo é duro“ („Die Tisch ist weich, aber der Tisch ist hart“). Der Grund, warum der Tisch zunächst mit „la tavola” (weiblich) und dann mit „il tavolo” (männlich) übersetzt wird, könnte mit den geschlechtsspezifischen Assoziationen der Adjektive „weich” und „hart” zu tun haben. In anderen Sprachen ist das „grammatikalische“ vom „menschlichen“ Geschlecht komplett getrennt: Beispielsweise im Schwedischen gibt es zwei grammatikalische Geschlechter für Substantive, die nichts mit dem menschlichen Geschlecht zu tun haben, auch Englisch ist ein prominentes Beispiel.

Welche Probleme werden bei Übersetzungsalgorithmen sonst noch sichtbar?

Dorman: Ein weiteres interessantes Beispiel aus dem Bereich Sprache betrifft Smart Speaker und digitale Sprachassistenten. Forschungen aus dem Jahr 2020 haben gezeigt, dass Menschen, die Nicht-Standard-Dialekte sprechen, wie zum Beispiel afroamerikanisches Englisch, mit einer deutlich höheren Fehlerquote bei der Spracherkennung konfrontiert werden als Sprecher des amerikanischen Standard-Englisch. Diese Diskrepanz ist selbst dann offensichtlich, wenn der verwendete Wortlaut exakt derselbe ist. Sind intelligente Sprecher also rassistisch? Es ist eine ähnliche Situation wie bei der maschinellen Übersetzung.

Wie könnte man so etwas verhindern?

Dorman: Für repräsentative Algorithmen müssen wir die Qualität der Daten, die in Algorithmen eingepflegt werden, sorgfältiger prüfen, aber auch Prozesse entwickeln, um den Datenkorpus des Algorithmus gezielt überarbeiten zu können. Beispielsweise, indem er punktuell mit ausgewählten Textbeispielen gefüttert wird, in denen beispielsweise “engineer” auch als “Ingenieurin” übersetzt wird – quasi ein Gender-Sensibilisierungstraining für den Algorithmus. Nur so können wir sicherstellen, dass Algorithmen die natürliche Diversität in unserer Gesellschaft widerspiegeln.

Sie arbeiten bei der E-Learning-Plattform Babbel: Kommt dort Künstliche Intelligenz zum Einsatz?

Dorman: Die Babbel-Kursinhalte werden von Menschen erstellt, nicht von Maschinen. Jeder Mensch ist voreingenommen und genau deshalb müssen wir uns selbst und einander immer wieder dessen bewusst werden. Wir arbeiten bei Babbel in einem diversen Team, das Wert auf Repräsentation und Inklusivität legt. Babbel beschäftigt mehr als 180 Linguist:innen, von denen jede:r eine andere Perspektive mitbringt. Dadurch stellen wir sicher, dass unsere Sprachkurse sowohl ansprechend, als auch respektvoll für unsere Lernenden sind.

Dennoch: Welche Maßnahmen trifft Ihr Unternehmen, um die Algorithmen zu beaufsichtigen?

Dorman: Wir haben bei Babbel Richtlinien entwickelt, die eine diverse Repräsentation sicherstellen. Das beginnt bei der schriftlichen Ausarbeitung unserer Dialoge und reicht zu der Art und Weise, wie wir Bilder auswählen, die neue Vokabeln und Sätze veranschaulichen. Das bedeutet, dass wir Stereotypen direkt vermeiden, die beispielsweise hauptsächlich Frauen mit Aktivitäten wie Hausarbeit oder übermäßigem Konsum in Verbindung zu bringen.

Ganz generell: Ist eine Künstliche Intelligenz nicht an sich auf Diskriminierung ausgerichtet? Immerhin soll sie in einer Unmenge an Daten Zusammenhänge, aber eben auch Unterschiede herausfiltern.

Dorman: Im weitesten Sinne soll KI das tun, wozu sie ursprünglich programmiert wurde, und zwar auf der Grundlage der von uns definierten Parameter und der von uns gelieferten Daten. Das kann bedeuten, dass sie Korrelationen herstellt, nicht passende Begriffe markiert, gruppiert, optimiert oder synthetisiert. Das Verb „diskriminieren“ kann übrigens sowohl positiv als auch negativ konnotiert sein. Das liegt daran, dass es entweder als Verb zum Wort Diskriminierung (negativ konnotiert) oder zum Wort Diskrimination (nicht wertend) gebraucht wird. Diskrimination bedeutet einfach gesagt, die Unterschiede zwischen Dingen zu erkennen und wird ohne eine negative Wertung gebraucht. Das ist etwas, was das menschliche Gehirn ständig tut. Deshalb nehmen wir einen Löffel statt eines Messers in die Hand, wenn wir eine Suppe essen, oder ziehen ein T-Shirt statt einer Winterjacke an, wenn die Temperaturen über 40 Grad steigen.

Die negative Konnotation des Begriffs "Diskriminierung" hat mit Werturteilen zu tun, die mit bestimmten Unterscheidungsmerkmalen verbunden sein können, zum Beispiel Hautfarbe, Alter, Geschlechtsidentität oder Nationalität. An dieser Stelle ist es wichtig, die Arten von Parametern zu berücksichtigen, die die Verarbeitung einer KI einschränken – beispielsweise Klassifizierer oder – und die Datensätze, die zum Training der KI verwendet werden. Darüber hinaus ist es von entscheidender Bedeutung, die Ergebnisse eines Algorithmus mit der menschlichen Intelligenz zu vergleichen, und zwar nicht nur während der Trainingsphase, sondern auch, wenn die KI daraus lernt, wie wir mit den Ergebnissen interagieren.

Das Interview führte Helmut van Rinsum

Jennifer Dorman ist Leiterin des Learner Experience Design Teams bei Babbel. Zu ihren Spezialgebieten gehören Linguistik und Bildung mit einem Fokus auf Spracherwerb, Soziolinguistik, Dialektologie und digital vermitteltem Diskurs. Bevor Jennifer 2019 zu Babbel stieß, war sie unter anderem als Instructional Designerin, Universitätsprofessorin und Lehrerin tätig.

Weitere Interviews:
Theo Steininger: „Erstmal Überblick über die Daten verschaffen“
Henrik Roth: Eine neue Zeitrechnung des Marketing
Simon Alger: „Die Erwartung an intelligente Software wächst“

Warum Machine Learning verzerrte Rollenbilder begünstigt

Interview

5 Minuten

18.11.2021

Portrait von Jennifer Dorman

Maschinelle Übersetzungen können dazu führen, dass gesellschaftliche Vorurteile sichtbar werden. Ein Gespräch mit Jennifer Dorman, Lingustik-Expertin bei Babbel, über die Frage, wie anfällig Algorithmen für Stereotypen sind. Und wie sinnvoll deshalb ein Gender-Sensibilisierungstraining für KI-basierte Übersetzungen ist.

Frau Dorman, Algorithmen sollten präziser, objektiver und vorurteilsfreier entscheiden als Menschen. Soweit die Theorie. Die Praxis zeigt allerdings häufig, dass dies nicht unbedingt stimmt. Welches Beispiel kommt Ihnen dabei in den Sinn?

Jennifer Dorman: Maschinelle Übersetzungen sind einer der Bereiche von Künstlicher Intelligenz, innerhalb derer vorprogrammierte Stereotypen und Vorurteile sichtbar werden. Denn es verbergen sich ja Menschen hinter den Informationen, die KI mit Informationen füttern und die sind nicht frei von Vorurteilen. Stellen wir uns einmal ein Buch über Hauswirtschaft aus den 50er-Jahren vor. Die Frauenbilder, die wir darin finden würden, würden uns heute erschaudern lassen. Leider sind Computer nicht intelligent genug, um diese Reaktion hervorzurufen. Sie saugen das Buch und jedes andere auf und lernen daraus, dass “Frau” und “Küche” enger miteinander in Verbindung stehen als “Mann” und “Küche”. Recherchen haben gezeigt, dass die semantische Assoziation zwischen Frauen und beispielsweise Kochen so stark ist, dass einige Algorithmen, die auf die Kennzeichnung von Bildern trainiert sind, bei der Abbildung eines kochenden Mannes sagen, dass es sich um eine Frau handelt. Ebenso hat die KI aus den Daten gelernt, dass Ausdrücke wie “Gehalt”, “Geschäft”, und “Büro” systematisch näher an Wörtern liegen, die mit Männern assoziiert werden.

Liegen diese Aussetzer auch an den Menschen, die sie mit Informationen füttern? Was lässt sich Ihrer Meinung nach dagegen tun?

Dorman: Für maschinelle Übersetzungen setzen wir Algorithmen Milliarden von Wörtern aus Textdaten aus und erwarten, dass sie Muster erkennen und daraus lernen. Wir nennen diesen Prozess „Maschinelles Lernen“. Enthalten die vorhandenen Daten zum Beispiel geschlechtsspezifische Disbalancen, wird ein auf diesen Daten trainiertes Übersetzungs-Tool diese unweigerlich wiedergeben. Wir können Vorurteile in KI außerdem vermeiden, indem wir Diversität bereits am Ort der technologischen Produktion fördern. Dabei geht es jedoch um mehr als unterschiedliche Bedürfnisse am Arbeitsplatz. Vielmehr sollten verschiedene Nutzer sich und ihre Erfahrungen im Produkt wiederfinden. All das erfordert eine breite Palette von Perspektiven am Front-End.

In welchen Bereichen halten Sie vorprogrammierten Stereotypen für besonders bedenklich?

Dorman: Die Bekräftigung von Stereotypen ist generell gefährlich, egal in welchem Bereich. Zum Beispiel erleben wir durch maschinelle Übersetzungen nicht selten die verzerrten Rollen- und Geschlechterbilder von Frau und Mann in der Gesellschaft, die leider noch immer stark von Stereotypen geprägt sind. Wie das dann in einem Übersetzungsalgorithmus aussieht, wird an diesem Beispiel deutlich: Nehmen wir den englischen Satz "She is a professor". Wird dieser bei Google Translate eingegeben, erhält man die korrekte Übersetzung ins Italienische „Lei è una professoressa” („Sie ist eine Professorin“). Gab man bis 2018 jedoch "She is a professor" bei Bing Translate ein – übrigens das Tool, das für die Übersetzung bei Facebook verwendet wird –, erhielt man das Ergebnis „Lei è un professore” (“Sie ist ein Professor“), vermutlich weil die Daten für diesen Algorithmus mehr Beispiele für männliche Professoren enthielten. Dies geschieht auch heute noch sowohl bei Google Translate, als auch bei Bing Translate mit der italienischen Übersetzung des Satzes "She is a minister“ („Sie ist eine Ministerin”). Google übersetzt ihn nämlich mit „Lei è un ministro”, anstatt „ministra”, die weibliche Form, zu verwenden.

Bleiben wir noch kurz beim Beispiel der geschlechtsspezifischen Sprache. Verlangen wir hier von Algorithmen, was wir als Menschen selbst im Alltag kaum schaffen?

Dorman: Wir können von Maschinen nicht erwarten, dass sie Vorurteile ohne menschliche Hilfe beseitigen, denn sie erstellen lediglich Muster auf der Grundlage von Häufigkeiten. Gerade wenn die komplexe Grammatik in bestimmten Sprachen die Algorithmen quasi anfällig für Stereotypen macht. Zum Beispiel kann KI bei manchen Sprachen das grammatikalische Geschlecht mit dem menschlichen verwechseln. KIs projizieren so menschliche Stereotypen in die Welt der Objekte. Vor ein paar Jahren lautete bei Bing Translate die italienische Übersetzung von „The table is soft, but the table is hard“ („Der Tisch ist weich, aber der Tisch ist hart“) noch „La tavola é morbida, ma il tavolo é duro“ („Die Tisch ist weich, aber der Tisch ist hart“). Der Grund, warum der Tisch zunächst mit „la tavola” (weiblich) und dann mit „il tavolo” (männlich) übersetzt wird, könnte mit den geschlechtsspezifischen Assoziationen der Adjektive „weich” und „hart” zu tun haben. In anderen Sprachen ist das „grammatikalische“ vom „menschlichen“ Geschlecht komplett getrennt: Beispielsweise im Schwedischen gibt es zwei grammatikalische Geschlechter für Substantive, die nichts mit dem menschlichen Geschlecht zu tun haben, auch Englisch ist ein prominentes Beispiel.

Welche Probleme werden bei Übersetzungsalgorithmen sonst noch sichtbar?

Dorman: Ein weiteres interessantes Beispiel aus dem Bereich Sprache betrifft Smart Speaker und digitale Sprachassistenten. Forschungen aus dem Jahr 2020 haben gezeigt, dass Menschen, die Nicht-Standard-Dialekte sprechen, wie zum Beispiel afroamerikanisches Englisch, mit einer deutlich höheren Fehlerquote bei der Spracherkennung konfrontiert werden als Sprecher des amerikanischen Standard-Englisch. Diese Diskrepanz ist selbst dann offensichtlich, wenn der verwendete Wortlaut exakt derselbe ist. Sind intelligente Sprecher also rassistisch? Es ist eine ähnliche Situation wie bei der maschinellen Übersetzung.

Wie könnte man so etwas verhindern?

Dorman: Für repräsentative Algorithmen müssen wir die Qualität der Daten, die in Algorithmen eingepflegt werden, sorgfältiger prüfen, aber auch Prozesse entwickeln, um den Datenkorpus des Algorithmus gezielt überarbeiten zu können. Beispielsweise, indem er punktuell mit ausgewählten Textbeispielen gefüttert wird, in denen beispielsweise “engineer” auch als “Ingenieurin” übersetzt wird – quasi ein Gender-Sensibilisierungstraining für den Algorithmus. Nur so können wir sicherstellen, dass Algorithmen die natürliche Diversität in unserer Gesellschaft widerspiegeln.

Sie arbeiten bei der E-Learning-Plattform Babbel: Kommt dort Künstliche Intelligenz zum Einsatz?

Dorman: Die Babbel-Kursinhalte werden von Menschen erstellt, nicht von Maschinen. Jeder Mensch ist voreingenommen und genau deshalb müssen wir uns selbst und einander immer wieder dessen bewusst werden. Wir arbeiten bei Babbel in einem diversen Team, das Wert auf Repräsentation und Inklusivität legt. Babbel beschäftigt mehr als 180 Linguist:innen, von denen jede:r eine andere Perspektive mitbringt. Dadurch stellen wir sicher, dass unsere Sprachkurse sowohl ansprechend, als auch respektvoll für unsere Lernenden sind.

Dennoch: Welche Maßnahmen trifft Ihr Unternehmen, um die Algorithmen zu beaufsichtigen?

Dorman: Wir haben bei Babbel Richtlinien entwickelt, die eine diverse Repräsentation sicherstellen. Das beginnt bei der schriftlichen Ausarbeitung unserer Dialoge und reicht zu der Art und Weise, wie wir Bilder auswählen, die neue Vokabeln und Sätze veranschaulichen. Das bedeutet, dass wir Stereotypen direkt vermeiden, die beispielsweise hauptsächlich Frauen mit Aktivitäten wie Hausarbeit oder übermäßigem Konsum in Verbindung zu bringen.

Ganz generell: Ist eine Künstliche Intelligenz nicht an sich auf Diskriminierung ausgerichtet? Immerhin soll sie in einer Unmenge an Daten Zusammenhänge, aber eben auch Unterschiede herausfiltern.

Dorman: Im weitesten Sinne soll KI das tun, wozu sie ursprünglich programmiert wurde, und zwar auf der Grundlage der von uns definierten Parameter und der von uns gelieferten Daten. Das kann bedeuten, dass sie Korrelationen herstellt, nicht passende Begriffe markiert, gruppiert, optimiert oder synthetisiert. Das Verb „diskriminieren“ kann übrigens sowohl positiv als auch negativ konnotiert sein. Das liegt daran, dass es entweder als Verb zum Wort Diskriminierung (negativ konnotiert) oder zum Wort Diskrimination (nicht wertend) gebraucht wird. Diskrimination bedeutet einfach gesagt, die Unterschiede zwischen Dingen zu erkennen und wird ohne eine negative Wertung gebraucht. Das ist etwas, was das menschliche Gehirn ständig tut. Deshalb nehmen wir einen Löffel statt eines Messers in die Hand, wenn wir eine Suppe essen, oder ziehen ein T-Shirt statt einer Winterjacke an, wenn die Temperaturen über 40 Grad steigen.

Die negative Konnotation des Begriffs "Diskriminierung" hat mit Werturteilen zu tun, die mit bestimmten Unterscheidungsmerkmalen verbunden sein können, zum Beispiel Hautfarbe, Alter, Geschlechtsidentität oder Nationalität. An dieser Stelle ist es wichtig, die Arten von Parametern zu berücksichtigen, die die Verarbeitung einer KI einschränken – beispielsweise Klassifizierer oder – und die Datensätze, die zum Training der KI verwendet werden. Darüber hinaus ist es von entscheidender Bedeutung, die Ergebnisse eines Algorithmus mit der menschlichen Intelligenz zu vergleichen, und zwar nicht nur während der Trainingsphase, sondern auch, wenn die KI daraus lernt, wie wir mit den Ergebnissen interagieren.

Das Interview führte Helmut van Rinsum

Jennifer Dorman ist Leiterin des Learner Experience Design Teams bei Babbel. Zu ihren Spezialgebieten gehören Linguistik und Bildung mit einem Fokus auf Spracherwerb, Soziolinguistik, Dialektologie und digital vermitteltem Diskurs. Bevor Jennifer 2019 zu Babbel stieß, war sie unter anderem als Instructional Designerin, Universitätsprofessorin und Lehrerin tätig.

Weitere Interviews:
Theo Steininger: „Erstmal Überblick über die Daten verschaffen“
Henrik Roth: Eine neue Zeitrechnung des Marketing
Simon Alger: „Die Erwartung an intelligente Software wächst“

Warum Machine Learning verzerrte Rollenbilder begünstigt

Interview

5 Minuten

18.11.2021

Portrait von Jennifer Dorman

Maschinelle Übersetzungen können dazu führen, dass gesellschaftliche Vorurteile sichtbar werden. Ein Gespräch mit Jennifer Dorman, Lingustik-Expertin bei Babbel, über die Frage, wie anfällig Algorithmen für Stereotypen sind. Und wie sinnvoll deshalb ein Gender-Sensibilisierungstraining für KI-basierte Übersetzungen ist.

Frau Dorman, Algorithmen sollten präziser, objektiver und vorurteilsfreier entscheiden als Menschen. Soweit die Theorie. Die Praxis zeigt allerdings häufig, dass dies nicht unbedingt stimmt. Welches Beispiel kommt Ihnen dabei in den Sinn?

Jennifer Dorman: Maschinelle Übersetzungen sind einer der Bereiche von Künstlicher Intelligenz, innerhalb derer vorprogrammierte Stereotypen und Vorurteile sichtbar werden. Denn es verbergen sich ja Menschen hinter den Informationen, die KI mit Informationen füttern und die sind nicht frei von Vorurteilen. Stellen wir uns einmal ein Buch über Hauswirtschaft aus den 50er-Jahren vor. Die Frauenbilder, die wir darin finden würden, würden uns heute erschaudern lassen. Leider sind Computer nicht intelligent genug, um diese Reaktion hervorzurufen. Sie saugen das Buch und jedes andere auf und lernen daraus, dass “Frau” und “Küche” enger miteinander in Verbindung stehen als “Mann” und “Küche”. Recherchen haben gezeigt, dass die semantische Assoziation zwischen Frauen und beispielsweise Kochen so stark ist, dass einige Algorithmen, die auf die Kennzeichnung von Bildern trainiert sind, bei der Abbildung eines kochenden Mannes sagen, dass es sich um eine Frau handelt. Ebenso hat die KI aus den Daten gelernt, dass Ausdrücke wie “Gehalt”, “Geschäft”, und “Büro” systematisch näher an Wörtern liegen, die mit Männern assoziiert werden.

Liegen diese Aussetzer auch an den Menschen, die sie mit Informationen füttern? Was lässt sich Ihrer Meinung nach dagegen tun?

Dorman: Für maschinelle Übersetzungen setzen wir Algorithmen Milliarden von Wörtern aus Textdaten aus und erwarten, dass sie Muster erkennen und daraus lernen. Wir nennen diesen Prozess „Maschinelles Lernen“. Enthalten die vorhandenen Daten zum Beispiel geschlechtsspezifische Disbalancen, wird ein auf diesen Daten trainiertes Übersetzungs-Tool diese unweigerlich wiedergeben. Wir können Vorurteile in KI außerdem vermeiden, indem wir Diversität bereits am Ort der technologischen Produktion fördern. Dabei geht es jedoch um mehr als unterschiedliche Bedürfnisse am Arbeitsplatz. Vielmehr sollten verschiedene Nutzer sich und ihre Erfahrungen im Produkt wiederfinden. All das erfordert eine breite Palette von Perspektiven am Front-End.

In welchen Bereichen halten Sie vorprogrammierten Stereotypen für besonders bedenklich?

Dorman: Die Bekräftigung von Stereotypen ist generell gefährlich, egal in welchem Bereich. Zum Beispiel erleben wir durch maschinelle Übersetzungen nicht selten die verzerrten Rollen- und Geschlechterbilder von Frau und Mann in der Gesellschaft, die leider noch immer stark von Stereotypen geprägt sind. Wie das dann in einem Übersetzungsalgorithmus aussieht, wird an diesem Beispiel deutlich: Nehmen wir den englischen Satz "She is a professor". Wird dieser bei Google Translate eingegeben, erhält man die korrekte Übersetzung ins Italienische „Lei è una professoressa” („Sie ist eine Professorin“). Gab man bis 2018 jedoch "She is a professor" bei Bing Translate ein – übrigens das Tool, das für die Übersetzung bei Facebook verwendet wird –, erhielt man das Ergebnis „Lei è un professore” (“Sie ist ein Professor“), vermutlich weil die Daten für diesen Algorithmus mehr Beispiele für männliche Professoren enthielten. Dies geschieht auch heute noch sowohl bei Google Translate, als auch bei Bing Translate mit der italienischen Übersetzung des Satzes "She is a minister“ („Sie ist eine Ministerin”). Google übersetzt ihn nämlich mit „Lei è un ministro”, anstatt „ministra”, die weibliche Form, zu verwenden.

Bleiben wir noch kurz beim Beispiel der geschlechtsspezifischen Sprache. Verlangen wir hier von Algorithmen, was wir als Menschen selbst im Alltag kaum schaffen?

Dorman: Wir können von Maschinen nicht erwarten, dass sie Vorurteile ohne menschliche Hilfe beseitigen, denn sie erstellen lediglich Muster auf der Grundlage von Häufigkeiten. Gerade wenn die komplexe Grammatik in bestimmten Sprachen die Algorithmen quasi anfällig für Stereotypen macht. Zum Beispiel kann KI bei manchen Sprachen das grammatikalische Geschlecht mit dem menschlichen verwechseln. KIs projizieren so menschliche Stereotypen in die Welt der Objekte. Vor ein paar Jahren lautete bei Bing Translate die italienische Übersetzung von „The table is soft, but the table is hard“ („Der Tisch ist weich, aber der Tisch ist hart“) noch „La tavola é morbida, ma il tavolo é duro“ („Die Tisch ist weich, aber der Tisch ist hart“). Der Grund, warum der Tisch zunächst mit „la tavola” (weiblich) und dann mit „il tavolo” (männlich) übersetzt wird, könnte mit den geschlechtsspezifischen Assoziationen der Adjektive „weich” und „hart” zu tun haben. In anderen Sprachen ist das „grammatikalische“ vom „menschlichen“ Geschlecht komplett getrennt: Beispielsweise im Schwedischen gibt es zwei grammatikalische Geschlechter für Substantive, die nichts mit dem menschlichen Geschlecht zu tun haben, auch Englisch ist ein prominentes Beispiel.

Welche Probleme werden bei Übersetzungsalgorithmen sonst noch sichtbar?

Dorman: Ein weiteres interessantes Beispiel aus dem Bereich Sprache betrifft Smart Speaker und digitale Sprachassistenten. Forschungen aus dem Jahr 2020 haben gezeigt, dass Menschen, die Nicht-Standard-Dialekte sprechen, wie zum Beispiel afroamerikanisches Englisch, mit einer deutlich höheren Fehlerquote bei der Spracherkennung konfrontiert werden als Sprecher des amerikanischen Standard-Englisch. Diese Diskrepanz ist selbst dann offensichtlich, wenn der verwendete Wortlaut exakt derselbe ist. Sind intelligente Sprecher also rassistisch? Es ist eine ähnliche Situation wie bei der maschinellen Übersetzung.

Wie könnte man so etwas verhindern?

Dorman: Für repräsentative Algorithmen müssen wir die Qualität der Daten, die in Algorithmen eingepflegt werden, sorgfältiger prüfen, aber auch Prozesse entwickeln, um den Datenkorpus des Algorithmus gezielt überarbeiten zu können. Beispielsweise, indem er punktuell mit ausgewählten Textbeispielen gefüttert wird, in denen beispielsweise “engineer” auch als “Ingenieurin” übersetzt wird – quasi ein Gender-Sensibilisierungstraining für den Algorithmus. Nur so können wir sicherstellen, dass Algorithmen die natürliche Diversität in unserer Gesellschaft widerspiegeln.

Sie arbeiten bei der E-Learning-Plattform Babbel: Kommt dort Künstliche Intelligenz zum Einsatz?

Dorman: Die Babbel-Kursinhalte werden von Menschen erstellt, nicht von Maschinen. Jeder Mensch ist voreingenommen und genau deshalb müssen wir uns selbst und einander immer wieder dessen bewusst werden. Wir arbeiten bei Babbel in einem diversen Team, das Wert auf Repräsentation und Inklusivität legt. Babbel beschäftigt mehr als 180 Linguist:innen, von denen jede:r eine andere Perspektive mitbringt. Dadurch stellen wir sicher, dass unsere Sprachkurse sowohl ansprechend, als auch respektvoll für unsere Lernenden sind.

Dennoch: Welche Maßnahmen trifft Ihr Unternehmen, um die Algorithmen zu beaufsichtigen?

Dorman: Wir haben bei Babbel Richtlinien entwickelt, die eine diverse Repräsentation sicherstellen. Das beginnt bei der schriftlichen Ausarbeitung unserer Dialoge und reicht zu der Art und Weise, wie wir Bilder auswählen, die neue Vokabeln und Sätze veranschaulichen. Das bedeutet, dass wir Stereotypen direkt vermeiden, die beispielsweise hauptsächlich Frauen mit Aktivitäten wie Hausarbeit oder übermäßigem Konsum in Verbindung zu bringen.

Ganz generell: Ist eine Künstliche Intelligenz nicht an sich auf Diskriminierung ausgerichtet? Immerhin soll sie in einer Unmenge an Daten Zusammenhänge, aber eben auch Unterschiede herausfiltern.

Dorman: Im weitesten Sinne soll KI das tun, wozu sie ursprünglich programmiert wurde, und zwar auf der Grundlage der von uns definierten Parameter und der von uns gelieferten Daten. Das kann bedeuten, dass sie Korrelationen herstellt, nicht passende Begriffe markiert, gruppiert, optimiert oder synthetisiert. Das Verb „diskriminieren“ kann übrigens sowohl positiv als auch negativ konnotiert sein. Das liegt daran, dass es entweder als Verb zum Wort Diskriminierung (negativ konnotiert) oder zum Wort Diskrimination (nicht wertend) gebraucht wird. Diskrimination bedeutet einfach gesagt, die Unterschiede zwischen Dingen zu erkennen und wird ohne eine negative Wertung gebraucht. Das ist etwas, was das menschliche Gehirn ständig tut. Deshalb nehmen wir einen Löffel statt eines Messers in die Hand, wenn wir eine Suppe essen, oder ziehen ein T-Shirt statt einer Winterjacke an, wenn die Temperaturen über 40 Grad steigen.

Die negative Konnotation des Begriffs "Diskriminierung" hat mit Werturteilen zu tun, die mit bestimmten Unterscheidungsmerkmalen verbunden sein können, zum Beispiel Hautfarbe, Alter, Geschlechtsidentität oder Nationalität. An dieser Stelle ist es wichtig, die Arten von Parametern zu berücksichtigen, die die Verarbeitung einer KI einschränken – beispielsweise Klassifizierer oder – und die Datensätze, die zum Training der KI verwendet werden. Darüber hinaus ist es von entscheidender Bedeutung, die Ergebnisse eines Algorithmus mit der menschlichen Intelligenz zu vergleichen, und zwar nicht nur während der Trainingsphase, sondern auch, wenn die KI daraus lernt, wie wir mit den Ergebnissen interagieren.

Das Interview führte Helmut van Rinsum

Jennifer Dorman ist Leiterin des Learner Experience Design Teams bei Babbel. Zu ihren Spezialgebieten gehören Linguistik und Bildung mit einem Fokus auf Spracherwerb, Soziolinguistik, Dialektologie und digital vermitteltem Diskurs. Bevor Jennifer 2019 zu Babbel stieß, war sie unter anderem als Instructional Designerin, Universitätsprofessorin und Lehrerin tätig.

Weitere Interviews:
Theo Steininger: „Erstmal Überblick über die Daten verschaffen“
Henrik Roth: Eine neue Zeitrechnung des Marketing
Simon Alger: „Die Erwartung an intelligente Software wächst“

Newsletter

Hier erfährst Du einmal in der Woche, wo Künstliche Intelligenz in das Marketing eingreift, welche Trends sich abzeichnen und wie sie Kommunikation und Medien verändert. Informativ, unterhaltsam, nachdenklich.

Schließe Dich den 1.500+ Abonnenten an, kostenlos.

Newsletter

Hier erfährst Du einmal in der Woche, wo Künstliche Intelligenz in das Marketing eingreift, welche Trends sich abzeichnen und wie sie Kommunikation und Medien verändert. Informativ, unterhaltsam, nachdenklich.

Schließe Dich den 1.500+ Abonnenten an, kostenlos.

Newsletter

Hier erfährst Du einmal in der Woche, wo Künstliche Intelligenz in das Marketing eingreift, welche Trends sich abzeichnen und wie sie Kommunikation und Medien verändert. Informativ, unterhaltsam, nachdenklich.

Schließe Dich den 1.500+ Abonnenten an, kostenlos.