Entwicklung und Bewertung fairer KI-Systeme: Strategien zur Überwindung von Bias von intersektionalen Gruppen
Diese Arbeit untersucht die Entwicklung und Bewertung fairer KI-Systeme mit dem Schwerpunkt auf Strategien zur Minderung von Voreingenommenheit gegenüber sozialen Gruppen wie Mann, Frau und Divers. Die Problematik hierbei ist, dass reale Datensätze mehrere sensitive Attribute enthalten können. Hier werden mehrere Bewertungsmetriken miteinander verglichen, die die Diskriminierung von mehreren sensitiven Attributen behandeln. Es werden Experimente durchgeführt auf verschiedenen Datensätzen, ebenso wird eine Pre-Processing Methode modifiziert und Experimente mit verschiedenen Einstellungen gemacht.
Ansprechpartner: echo $arbeit[3]." ".$arbeit[4]?>
Bereich: