Diskriminierung durch KI mit Zurechnung zum Arbeitgeber?

Das Allgemeine Gleichbehandlungsgesetz (AGG) schützt Menschen vor Benachteiligungen aufgrund von Merkmalen wie Rasse, ethnischer Herkunft, Geschlecht, Religion, Weltanschauung, Behinderung, Alter oder sexueller Identität. Es unterscheidet zwischen direkten und indirekten Benachteiligungen, die jeweils unterschiedlich gerechtfertigt werden können. Direkte Benachteiligungen, die als die schwerste Form der Diskriminierung gelten, können nur unter strengen Anforderungen gerechtfertigt werden, während die Rechtfertigungslast bei indirekten Benachteiligungen geringer ausfällt.

Eine direkte Benachteiligung liegt vor, wenn eine Person aufgrund eines geschützten Merkmals aus dem AGG eine schlechtere Behandlung erfährt als eine vergleichbare Person. Eine indirekte Benachteiligung tritt hingegen auf, wenn scheinbar neutrale Vorschriften, Kriterien oder Verfahren Personen aufgrund geschützter Merkmale in besonderer Weise benachteiligen können, es sei denn, es gibt eine Rechtfertigung für die Ungleichbehandlung.

Abweichend von der normalen Beweislastverteilung, bei der der Kläger die günstigen Voraussetzungen beweisen muss, sieht das AGG in § 22 eine Beweislastumkehr vor. Wenn der Betroffene Indizien vorbringen kann, die darauf hindeuten, dass die Benachteiligung zumindest auch wegen geschützter Merkmale erfolgt ist, muss der Arbeitgeber nachweisen, dass die Entscheidung nicht auf diesen Merkmalen beruhte oder zumindest gerechtfertigt war.

Im Arbeitsleben muss ein Arbeitnehmer oder Bewerber also zunächst darlegen, dass die Benachteiligung wahrscheinlich aufgrund eines geschützten Merkmals des AGG erfolgte. Der Arbeitgeber muss dann nachweisen, dass eine KI-basierte Entscheidung auf anderen Gründen beruhte oder die Berücksichtigung eines geschützten Merkmals gerechtfertigt war.

Es wird oft übersehen, dass Künstliche Intelligenz (KI) potenziell diskriminierend oder ausgrenzend für ältere oder behinderte Mitarbeiter sein kann. Dies ist ein relevanter Aspekt, der bei der Auswahl und Implementierung von KI-Technologien berücksichtigt werden muss, insbesondere angesichts des Verbots jeglicher Form der Benachteiligung gemäß des Allgemeinen Gleichbehandlungsgesetzes (AGG).

Selbst moderne KI-Systeme sind nicht unfehlbar und können gegen Diskriminierung gefährdet sein. Der Grund dafür liegt in den Lerndaten, die für das Training der KI-Anwendungen verwendet werden. Diese Daten könnten möglicherweise nicht repräsentativ sein und somit Ungleichbehandlungen zulassen. Jede Verzerrung in den Lerndaten kann das KI-System beeinflussen und dazu führen, dass systematische Verzerrungen auch im Output der KI sichtbar werden.

Es ist daher nicht überraschend, dass Berichte über Benachteiligungen bestimmter Personengruppen durch KI-Systeme häufen. So könnten Arbeitgeber beispielsweise die Möglichkeiten moderner Algorithmen nutzen, um gezielt Stellenanzeigen nur für Männer auf bestimmten Plattformen zu schalten, was Frauen den Zugang zu potenziellen Arbeitsmöglichkeiten erschwert, noch bevor sie sich beworben haben.

Die Diskriminierung durch KI erfolgt im Wesentlichen in den gleichen Kategorien wie bei menschlichen Entscheidungsträgern. Ein Beispiel für direkte Benachteiligung wäre, wenn das Geschlecht bei der Bewerberauswahl als relevantes Kriterium herangezogen wird. Eine indirekte Benachteiligung könnte entstehen, wenn die KI bei der Leistungsbeurteilung die durchschnittliche Arbeitszeit als Maßstab verwendet und dadurch Arbeitnehmer, die häufiger in Teilzeit arbeiten, benachteiligt werden. Dies birgt auch das Risiko einer Geschlechterdiskriminierung, da Frauen statistisch gesehen häufiger in Teilzeit arbeiten.

Das Allgemeine Gleichbehandlungsgesetz (AGG) wurde in einer Zeit verfasst, in der Künstliche Intelligenz (KI) keine relevante Rolle spielte. Daher stößt das Gesetz bei diskriminierenden Handlungen, die auf KI-Systemen basieren, an seine Grenzen. Die bisherige Unterscheidung zwischen direkter und indirekter Diskriminierung wird bei KI-gestützten Entscheidungen besonders kompliziert. Denn die genaue Ursache einer Benachteiligung durch eine KI ist oft nicht klar erkennbar, da der Entscheidungsprozess nicht transparent ist. Die Wege, die eine KI zur Generierung ihrer Ergebnisse nimmt, bleiben verborgen. Dadurch wird es für Nutzer herausfordernd nachzuvollziehen, ob eine KI-Entscheidung aufgrund eines Merkmals aus dem AGG getroffen wurde oder ob scheinbar neutrale (Zahlen-) Werte verwendet wurden, die jedoch mittelbar diskriminierende Auswirkungen haben können. Die Unterscheidung zwischen direkter und indirekter Diskriminierung ist aufgrund der verschiedenen Rechtfertigungsvoraussetzungen jedoch unverzichtbar.

Aufgrund des intransparenten Entscheidungsprozesses geraten die Parteien in eine Beweisnotlage. Für Arbeitnehmer kann es schwierig sein nachzuweisen, dass die KI wahrscheinlich ein diskriminierendes Merkmal verwendet hat. Wenn gemäß § 22 AGG die Beweislast auf den Arbeitgeber übergeht, steht dieser vor der Herausforderung zu beweisen, dass die KI die Merkmale aus dem AGG bei ihrer Entscheidung nicht berücksichtigt hat.

Die Haftung eines Arbeitgebers für KI-bedingte Diskriminierungen kann trotz der Schwierigkeiten, die sich aus dem herkömmlichen Normenkanon des Allgemeinen Gleichbehandlungsgesetzes (AGG) ergeben, nicht ignoriert werden. Obwohl die genauen Details der Haftung noch nicht abschließend geklärt sind, gibt es klare Verpflichtungen für Arbeitgeber gemäß § 12 Absatz 1 Satz 1 AGG, um Diskriminierungen aufgrund der in § 1 AGG genannten Gründe zu verhindern.

Wenn ein Arbeitgeber Aufgaben an eine KI delegiert, bleibt er dennoch für die Überwachung und Kontrolle der Handlungen dieser Maschine verantwortlich – genauso wie bei einem menschlichen Mitarbeiter. Die potenzielle Haftung für KI-bedingte Fehler und Ungleichbehandlungen darf daher nicht unterschätzt werden. Jeder Arbeitgeber sollte daher alle erforderlichen Maßnahmen ergreifen, um sicherzustellen, dass Diskriminierung in seinem Unternehmen nicht toleriert wird.

Die Implementierung von Künstlicher Intelligenz im Arbeitsrecht birgt einige Risiken, insbesondere in Bezug auf Diskriminierung im Bewerbungsprozess oder anderen personalrelevanten Entscheidungen. KI-Systeme, die bei der Personalauswahl eingesetzt werden, könnten aufgrund von unterbewussten Vorurteilen in den zugrunde liegenden Daten und Algorithmen diskriminieren. Es ist wichtig zu verstehen, dass die Qualität und Neutralität einer KI nur so gut ist wie die Daten, die ihr zur Verfügung gestellt werden.

Ein konkretes Beispiel verdeutlicht dieses Risiko: Wenn ein Unternehmen explizit nach einem „deutschen, männlichen Arbeitnehmer unter 35″ sucht, werden Bewerber automatisch benachteiligt, die diese Merkmale nicht erfüllen. Selbst weniger offensichtliche Diskriminierungen können auftreten, wie beispielsweise wenn die KI angewiesen wird, nur die Einstellungen der letzten zehn Jahre zu berücksichtigen. In diesem Fall könnte die KI durch historische Daten unbewusst dazu neigen, Männer zu bevorzugen, falls in der Vergangenheit überwiegend Männer eingestellt wurden.

Um solche Diskriminierung zu vermeiden, ist es entscheidend, dass Unternehmen sicherstellen, dass ihre KI-Algorithmen regelmäßig überprüft und angepasst werden. Ein enges Zusammenwirken zwischen der Personalabteilung, Datenexperten und Juristen ist hierbei unerlässlich. Blind auf die vermeintliche Neutralität der Maschine zu vertrauen, ist keine adäquate Strategie. Vielmehr ist es ratsam, sich im Vorfeld mit den potenziellen Risiken auseinanderzusetzen, um die Vorteile künstlicher Intelligenz effektiv nutzen zu können.