Als der Europäische Datenschutzausschuss im Frühjahr eine Warnung zu KI-gestützten Personalentscheidungen veröffentlichte, blieb die Reaktion in vielen Unternehmen erstaunlich verhalten. Dabei ist die Botschaft eindeutig: Algorithmen treffen längst Entscheidungen über Bewerbungen, Leistungsbewertungen, Beförderungen oder Kreditwürdigkeit – Entscheidungen, die früher Menschen trafen und die heute oft in intransparenten Modellen verborgen sind. Damit ist KI in der Arbeitswelt keine technische Frage mehr, sondern eine gesellschaftliche Machtfrage.
Sandra Wachter, Professorin für Technologie und Regulierung an der University of Oxford, beobachtet diese Entwicklung seit Jahren. „Wir stehen an einem Wendepunkt“, sagt sie. „Wenn Unternehmen KI einsetzen, ohne Verantwortung, Transparenz und Nachvollziehbarkeit einzubauen, riskieren sie systematische Diskriminierung – und verlieren das Vertrauen ihrer Mitarbeitenden.“ Wachters Forschung zeigt, dass viele Machine-Learning-Modelle Vorurteile aus ihren Trainingsdaten übernehmen. Kleine Verzerrungen können große Auswirkungen haben, sobald sie im Personalwesen skaliert werden.
Dass dies kein theoretisches Risiko ist, zeigte die vielbeachtete Studie „On the Dangers of Stochastic Parrots“ der Forscherinnen Emily Bender, Timnit Gebru, Angelina McMillan-Major und Margaret Mitchell. Sie belegten, wie Sprachmodelle bestehende gesellschaftliche Verzerrungen verstärken. Für die Arbeitswelt bedeutet das, dass jede automatisierte Entscheidung auf unbewussten Mustern beruhen kann. „Ein diskriminierender Algorithmus diskriminiert nicht vereinzelt“, sagt Gebru. „Er diskriminiert im Maßstab.“
Besonders deutlich wird das im Personalbereich. Laut einer Erhebung des MIT Sloan Management Review setzen inzwischen 62 Prozent der Unternehmen KI im HR-Bereich ein – von der Bewerberauswahl über Produktivitätsanalysen bis zu internen Matching-Verfahren. Gleichzeitig gaben nur 30 Prozent an, nachvollziehen zu können, wie diese Systeme zu ihren Bewertungen kommen. Danielle Citron, Professorin für Recht und Technologie an der University of Virginia, bezeichnet das als „gefährliches Verantwortungsvakuum“. „Wenn ein System entscheidet, aber niemand weiß, wie – wer trägt dann die Verantwortung?“, fragt sie. „Das Unternehmen? Der Hersteller? Oder niemand?“
Die Realität liefert bereits mehrere warnende Beispiele. Amazon musste ein automatisiertes Recruiting-System abschalten, weil es Bewerberinnen systematisch benachteiligte. In den Niederlanden kippte der oberste Gerichtshof das staatliche Betrugserkennungssystem SyRI, nachdem es sozial schwache Familien fälschlich als Hochrisikofälle markiert hatte. Und das Algorithmic Justice League fand heraus, dass kommerzielle Gesichtserkennungssoftware bei People of Color Fehlerquoten von über 30 Prozent aufweist. Diese Fälle zeigen, wie schnell ein algorithmisches System diskriminierend wirkt – selbst dann, wenn die Absicht eine andere war.
Für Unternehmen bedeutet das einen Paradigmenwechsel. Ethik ist nicht länger ein abstrakter Leitwert, sondern ein betriebliciches Steuerungsinstrument. Jeannette zu Fürstenberg, Tech-Investorin und Mitglied der European Tech Alliance, formulierte es bei einer Konferenz 2023 so: „Technologie ist kein Fortschritt, wenn sie Vertrauen zerstört. Unternehmen müssen KI so gestalten, dass sie menschliche Entscheidungen verbessert – nicht ersetzt.“ Vertrauen aber entsteht nicht durch Absichtserklärungen. Es entsteht durch Governance.
Einige Organisationen haben das erkannt. SAP entwickelte früh einen KI-Ethik-Kodex, der Transparenz, Fairness und Revisionsfähigkeit fordert. Die Deutsche Telekom veröffentlichte bereits 2018 eigene Leitlinien für verantwortungsvolle KI. Bosch arbeitet mit einer unabhängigen Ethikkommission, die Produktentwicklungen bewertet. Doch diese Beispiele sind eher die Ausnahme. Laut einer Studie der Internationalen Arbeitsorganisation (ILO) verfügen weltweit nur 10 Prozent der Unternehmen über strukturierte Prüfmechanismen für algorithmische Entscheidungen.
Cansu Canca, Gründerin des AI Ethics Lab, sieht darin die größte Gefahr: „Sobald Mitarbeitende das Gefühl haben, dass sie von Black-Box-Systemen bewertet werden, bricht die Legitimität von Führung weg.“ Vertrauen sei für Organisationen so zentral wie technische Effizienz — doch deutlich fragiler. Fehlentscheidungen, die früher einer Person zugeordnet wurden, werden heute einem System angelastet. Und Systeme sind schwerer zu korrigieren.
Die Ethikerin Shoshana Zuboff spricht in diesem Zusammenhang von einer „Entfremdung zweiter Ordnung“. In ihrem Werk „The Age of Surveillance Capitalism“ beschreibt sie, wie die Digitalisierung nicht nur Arbeitsprozesse, sondern auch Machtverhältnisse verändert. „Wenn Menschen den Eindruck haben, dass sie Objekt eines algorithmischen Systems sind, sinkt ihre Bindung — und ihre Bereitschaft, Verantwortung zu übernehmen“, schreibt sie. Entscheidungen werden unpersönlicher, aber nicht neutraler.
Für Unternehmensleitungen bedeutet das: Die Einführung von KI ist keine IT-Implementierung, sondern eine strategische Führungsaufgabe. Es geht um Transparenz, Revisionsfähigkeit, klare Verantwortlichkeiten und ethische Standards, die über reinen Datenschutz hinausgehen. Es geht darum, dass Systeme erklärbar sind. Dass Betroffene Einspruchsmöglichkeiten haben. Dass Unternehmen nicht blind auf Effizienz setzen, sondern aktiv prüfen, ob ihre Werkzeuge fair sind.
„KI kann ein mächtiges Werkzeug sein“, sagt Wachter. „Aber nur, wenn Unternehmen sicherstellen, dass ihre Werte im Code sichtbar bleiben.“ Die Arbeitswelt der Zukunft wird nicht an der Geschwindigkeit von Algorithmen gemessen werden, sondern an der Glaubwürdigkeit der Entscheidungen, die sie unterstützen. Die zentrale Frage ist nicht, was KI kann, sondern was Unternehmen verantworten wollen.