In fünf Schritten zum fairen Einsatz von KI

Insight

5 Minuten

04.09.2021

Portrait von Florian Lauck-Wunderlich

Die Nutzung Künstlicher Intelligenz für Kundenkommunikation und -services wächst rasant. Das wirft Fragen nach der Verantwortung von Unternehmen für den fairen, diskriminierungsfreien Umgang auf. Florian Lauck-Wunderlich, Project Delivery Leader bei Pegasystems, benennt die fünf wichtigsten Schritte bei der Entwicklung sozial gerechter, diskriminierungsfreier KI-Modelle.

Künstliche Intelligenz (KI) kann den Kern gesellschaftlicher Konflikte und Ungerechtigkeiten nicht verschwinden lassen. Aber sie kann dazu beitragen, Diskriminierungen zu vermeiden und gesellschaftlichen Werten wie Vielfalt, Inklusion oder Geschlechtergerechtigkeit mehr Gewicht zu verleihen. KI ist für Unternehmen ein wertvolles Werkzeug, entsprechende Compliance- und Governance-Vorgaben in der täglichen Praxis umzusetzen. Pegasystems, führender Anbieter von strategischen Software-Lösungen für Vertrieb, Marketing, Service und Operations, hat die fünf wichtigsten Punkte identifiziert, die bei der Umsetzung sozial gerechter KI- und Machine-Learning-Modelle zu beachten sind.

1. Klare Zielvorgaben

Bei der Entwicklung eines KI-Modells müssen die Ziele widerspruchsfrei, eindeutig, kurz und verständlich formuliert werden. Alle Beteiligten bewegen sich dabei im Spannungsfeld von natürlicher und mathematischer Sprache. In einer optimalen Arbeitsteilung fungiert der Data Scientist dabei als Bindeglied zwischen den Businessfunktionen und der Softwareentwicklung. Er kümmert sich um die KI-Modellierung und Algorithmen, während sich das Business auf die Vorgaben und der Entwickler auf die Software konzentrieren können.

2. Die richtige Datenbasis

Eine große und repräsentative Datenbasis ist eine wichtige Voraussetzung für die Genauigkeit des Modells. Je mehr und bessere Daten vorliegen, desto zielgenauer kann das KI-Modell trainiert werden. Dabei muss stets ein Kompromiss zwischen der angestrebten Genauigkeit und den Kosten und Möglichkeiten bei der Trainingsdatenbeschaffung getroffen werden. Einen zumindest teilweisen Ausweg aus diesem Konflikt bieten lernende Algorithmen, die es erlauben, auf Basis von sukzessiv eingehenden Echtzeitdaten zu trainieren.

3. Die geeignete Abstraktionsebene

KI-Modelle nutzen auf Statistik basierende Algorithmen, um Aussagen tätigen zu können. Wenn die Verteilung der Merkmale in der Stichprobe, also zum Beispiel in den Trainingsdaten, nicht der wahren Verteilung der Merkmale in der Grundgesamtheit, also dem Nutzungskontext, entspricht, liegt eine Verzerrung vor. Das Modell muss stärker abstrahieren, die Repräsentativität der Aussage ist dadurch einschränkt und die Zielvorgaben können nur bedingt erfüllt werden.

4. Die Gewichtung von Merkmalen

Bei der operativen Umsetzung von Vorgaben wie etwa dem Entgelttransparenzgesetz oder gerechteren Geschlechteranteilen im Recruiting sind viele Faktoren zu gewichten. Will man beispielsweise im HR-Prozess die Abschlussnoten einer amerikanischen Bewerberin und eines finnischen Bewerbers fair bewerten, müssten sie vergleichbar sein. Wenn die entsprechenden Daten dafür aber nicht oder nur eingeschränkt vorliegen, muss der Algorithmus abstrahieren, was zu Einbußen bei der Qualität und Eignung des Modells und damit letztlich auch bei der Fairness im Einzelfall führt.

5. Der Einfluss selbstverstärkender Prozesse

Die Vorschlagsquote weiblicher Künstlerinnen liegt auf Streaming-Portalen bei rund 25 Prozent. Diese geringe Präsenz führt dazu, dass sie weiter niedrig bleibt. Solche selbstverstärkenden Prozesse sind aus der KI als Überanpassung bekannt. Data Scientists können durch Analyse der verwendeten Modelle und Daten die Überanpassung erkennen und sie durch geeignete Maßnahmen wie Komplexitätsreduzierung der Modelle oder Anpassung der Merkmaleoptimierung minimieren. Voraussetzung dafür ist die Formulierung einer entsprechenden Zielvorgabe.

In fünf Schritten zum fairen Einsatz von KI

Insight

5 Minuten

04.09.2021

Portrait von Florian Lauck-Wunderlich

Die Nutzung Künstlicher Intelligenz für Kundenkommunikation und -services wächst rasant. Das wirft Fragen nach der Verantwortung von Unternehmen für den fairen, diskriminierungsfreien Umgang auf. Florian Lauck-Wunderlich, Project Delivery Leader bei Pegasystems, benennt die fünf wichtigsten Schritte bei der Entwicklung sozial gerechter, diskriminierungsfreier KI-Modelle.

Künstliche Intelligenz (KI) kann den Kern gesellschaftlicher Konflikte und Ungerechtigkeiten nicht verschwinden lassen. Aber sie kann dazu beitragen, Diskriminierungen zu vermeiden und gesellschaftlichen Werten wie Vielfalt, Inklusion oder Geschlechtergerechtigkeit mehr Gewicht zu verleihen. KI ist für Unternehmen ein wertvolles Werkzeug, entsprechende Compliance- und Governance-Vorgaben in der täglichen Praxis umzusetzen. Pegasystems, führender Anbieter von strategischen Software-Lösungen für Vertrieb, Marketing, Service und Operations, hat die fünf wichtigsten Punkte identifiziert, die bei der Umsetzung sozial gerechter KI- und Machine-Learning-Modelle zu beachten sind.

1. Klare Zielvorgaben

Bei der Entwicklung eines KI-Modells müssen die Ziele widerspruchsfrei, eindeutig, kurz und verständlich formuliert werden. Alle Beteiligten bewegen sich dabei im Spannungsfeld von natürlicher und mathematischer Sprache. In einer optimalen Arbeitsteilung fungiert der Data Scientist dabei als Bindeglied zwischen den Businessfunktionen und der Softwareentwicklung. Er kümmert sich um die KI-Modellierung und Algorithmen, während sich das Business auf die Vorgaben und der Entwickler auf die Software konzentrieren können.

2. Die richtige Datenbasis

Eine große und repräsentative Datenbasis ist eine wichtige Voraussetzung für die Genauigkeit des Modells. Je mehr und bessere Daten vorliegen, desto zielgenauer kann das KI-Modell trainiert werden. Dabei muss stets ein Kompromiss zwischen der angestrebten Genauigkeit und den Kosten und Möglichkeiten bei der Trainingsdatenbeschaffung getroffen werden. Einen zumindest teilweisen Ausweg aus diesem Konflikt bieten lernende Algorithmen, die es erlauben, auf Basis von sukzessiv eingehenden Echtzeitdaten zu trainieren.

3. Die geeignete Abstraktionsebene

KI-Modelle nutzen auf Statistik basierende Algorithmen, um Aussagen tätigen zu können. Wenn die Verteilung der Merkmale in der Stichprobe, also zum Beispiel in den Trainingsdaten, nicht der wahren Verteilung der Merkmale in der Grundgesamtheit, also dem Nutzungskontext, entspricht, liegt eine Verzerrung vor. Das Modell muss stärker abstrahieren, die Repräsentativität der Aussage ist dadurch einschränkt und die Zielvorgaben können nur bedingt erfüllt werden.

4. Die Gewichtung von Merkmalen

Bei der operativen Umsetzung von Vorgaben wie etwa dem Entgelttransparenzgesetz oder gerechteren Geschlechteranteilen im Recruiting sind viele Faktoren zu gewichten. Will man beispielsweise im HR-Prozess die Abschlussnoten einer amerikanischen Bewerberin und eines finnischen Bewerbers fair bewerten, müssten sie vergleichbar sein. Wenn die entsprechenden Daten dafür aber nicht oder nur eingeschränkt vorliegen, muss der Algorithmus abstrahieren, was zu Einbußen bei der Qualität und Eignung des Modells und damit letztlich auch bei der Fairness im Einzelfall führt.

5. Der Einfluss selbstverstärkender Prozesse

Die Vorschlagsquote weiblicher Künstlerinnen liegt auf Streaming-Portalen bei rund 25 Prozent. Diese geringe Präsenz führt dazu, dass sie weiter niedrig bleibt. Solche selbstverstärkenden Prozesse sind aus der KI als Überanpassung bekannt. Data Scientists können durch Analyse der verwendeten Modelle und Daten die Überanpassung erkennen und sie durch geeignete Maßnahmen wie Komplexitätsreduzierung der Modelle oder Anpassung der Merkmaleoptimierung minimieren. Voraussetzung dafür ist die Formulierung einer entsprechenden Zielvorgabe.

In fünf Schritten zum fairen Einsatz von KI

Insight

5 Minuten

04.09.2021

Portrait von Florian Lauck-Wunderlich

Die Nutzung Künstlicher Intelligenz für Kundenkommunikation und -services wächst rasant. Das wirft Fragen nach der Verantwortung von Unternehmen für den fairen, diskriminierungsfreien Umgang auf. Florian Lauck-Wunderlich, Project Delivery Leader bei Pegasystems, benennt die fünf wichtigsten Schritte bei der Entwicklung sozial gerechter, diskriminierungsfreier KI-Modelle.

Künstliche Intelligenz (KI) kann den Kern gesellschaftlicher Konflikte und Ungerechtigkeiten nicht verschwinden lassen. Aber sie kann dazu beitragen, Diskriminierungen zu vermeiden und gesellschaftlichen Werten wie Vielfalt, Inklusion oder Geschlechtergerechtigkeit mehr Gewicht zu verleihen. KI ist für Unternehmen ein wertvolles Werkzeug, entsprechende Compliance- und Governance-Vorgaben in der täglichen Praxis umzusetzen. Pegasystems, führender Anbieter von strategischen Software-Lösungen für Vertrieb, Marketing, Service und Operations, hat die fünf wichtigsten Punkte identifiziert, die bei der Umsetzung sozial gerechter KI- und Machine-Learning-Modelle zu beachten sind.

1. Klare Zielvorgaben

Bei der Entwicklung eines KI-Modells müssen die Ziele widerspruchsfrei, eindeutig, kurz und verständlich formuliert werden. Alle Beteiligten bewegen sich dabei im Spannungsfeld von natürlicher und mathematischer Sprache. In einer optimalen Arbeitsteilung fungiert der Data Scientist dabei als Bindeglied zwischen den Businessfunktionen und der Softwareentwicklung. Er kümmert sich um die KI-Modellierung und Algorithmen, während sich das Business auf die Vorgaben und der Entwickler auf die Software konzentrieren können.

2. Die richtige Datenbasis

Eine große und repräsentative Datenbasis ist eine wichtige Voraussetzung für die Genauigkeit des Modells. Je mehr und bessere Daten vorliegen, desto zielgenauer kann das KI-Modell trainiert werden. Dabei muss stets ein Kompromiss zwischen der angestrebten Genauigkeit und den Kosten und Möglichkeiten bei der Trainingsdatenbeschaffung getroffen werden. Einen zumindest teilweisen Ausweg aus diesem Konflikt bieten lernende Algorithmen, die es erlauben, auf Basis von sukzessiv eingehenden Echtzeitdaten zu trainieren.

3. Die geeignete Abstraktionsebene

KI-Modelle nutzen auf Statistik basierende Algorithmen, um Aussagen tätigen zu können. Wenn die Verteilung der Merkmale in der Stichprobe, also zum Beispiel in den Trainingsdaten, nicht der wahren Verteilung der Merkmale in der Grundgesamtheit, also dem Nutzungskontext, entspricht, liegt eine Verzerrung vor. Das Modell muss stärker abstrahieren, die Repräsentativität der Aussage ist dadurch einschränkt und die Zielvorgaben können nur bedingt erfüllt werden.

4. Die Gewichtung von Merkmalen

Bei der operativen Umsetzung von Vorgaben wie etwa dem Entgelttransparenzgesetz oder gerechteren Geschlechteranteilen im Recruiting sind viele Faktoren zu gewichten. Will man beispielsweise im HR-Prozess die Abschlussnoten einer amerikanischen Bewerberin und eines finnischen Bewerbers fair bewerten, müssten sie vergleichbar sein. Wenn die entsprechenden Daten dafür aber nicht oder nur eingeschränkt vorliegen, muss der Algorithmus abstrahieren, was zu Einbußen bei der Qualität und Eignung des Modells und damit letztlich auch bei der Fairness im Einzelfall führt.

5. Der Einfluss selbstverstärkender Prozesse

Die Vorschlagsquote weiblicher Künstlerinnen liegt auf Streaming-Portalen bei rund 25 Prozent. Diese geringe Präsenz führt dazu, dass sie weiter niedrig bleibt. Solche selbstverstärkenden Prozesse sind aus der KI als Überanpassung bekannt. Data Scientists können durch Analyse der verwendeten Modelle und Daten die Überanpassung erkennen und sie durch geeignete Maßnahmen wie Komplexitätsreduzierung der Modelle oder Anpassung der Merkmaleoptimierung minimieren. Voraussetzung dafür ist die Formulierung einer entsprechenden Zielvorgabe.

Newsletter

Hier erfährst Du einmal in der Woche, wo Künstliche Intelligenz in das Marketing eingreift, welche Trends sich abzeichnen und wie sie Kommunikation und Medien verändert. Informativ, unterhaltsam, nachdenklich.

Schließe Dich den 1.500+ Abonnenten an, kostenlos.

Newsletter

Hier erfährst Du einmal in der Woche, wo Künstliche Intelligenz in das Marketing eingreift, welche Trends sich abzeichnen und wie sie Kommunikation und Medien verändert. Informativ, unterhaltsam, nachdenklich.

Schließe Dich den 1.500+ Abonnenten an, kostenlos.

Newsletter

Hier erfährst Du einmal in der Woche, wo Künstliche Intelligenz in das Marketing eingreift, welche Trends sich abzeichnen und wie sie Kommunikation und Medien verändert. Informativ, unterhaltsam, nachdenklich.

Schließe Dich den 1.500+ Abonnenten an, kostenlos.