Abgründe
KI und die Möglichkeiten neuer Dimensionen der Überwachbarkeit
Die mit der Informationstechnik möglich gewordene Überwachbarkeit der elektronisch unterstützten Vorgänge gehört zweifelsohne zur dunklen Seite dieser Technik und ist so alt wie diese selbst. Seit in den späten 1970er und dann massiv in den 1980er Jahren Computer in die Unternehmen eingezogen sind, hat sie zu zahlreichen teils heftig ausgetragenen Konflikten geführt, mit denen die Arbeitsgerichte beschäftigt waren.
Ein bisschen History
Lag der Fokus anfangs bei der Auswertung unmittelbar personenbezogener Beschäftigtendaten (Fehltage, Beurteilungen, Akkordleistungen u.ä.), so hat er sich im Laufe der nachfolgenden Jahrzehnte immer mehr auf die direkte Überwachbarkeit der von Menschen geleisteten Arbeit verschoben. Auf den gläsernen Menschen folgte die gläserne Arbeit.
Schon die Durchziehung der Standardsoftware mit immer mehr Workflows hat im Prinzip jeden elektronisch unterstützten Arbeitsschritt überwachbar gemacht. Bei jedem Statuswechsel entsteht ein elektronischer Stempel mit Datum, Urzeit, Identität der die Arbeit ausführenden Person, einer Kennung der ausgeführten Transaktion und damit meist auch des Ortes der Arbeit. Es bedarf nur eines geeigneten Reportings, diese Aufzeichnungen auch sichtbar zu machen.
Microsoft hatte bereits in seinem System M365 (früher Office 365) in seinem Graph-Hintergrundsystem nahezu jeden Tastendruck seiner Benutzerinnen und Benutzer regristriert und für Produktivitätsanalysen aufbereitet (wobei der fleißige Umgang mit den Microsoft-Tools als Produktivität interpretiert wurde). Schon im Rahmen der Integration weiterer KI-Funktionen kündigte Microsoft für den Herbst 2022 die Überwachbarkeit des Einhaltens ausgewählter Compliance-Regeln an. Hier geht es - wie nicht anders zu erwarten - um Mustererkennung Verdacht erregenden Mitarbeiter-Verhaltens.
Kaum war das Internet in den Firmen angekommen - Ende der 1990er Jahre - gab es auch schon Streit um die Überwachung seiner Nutzung. Viele, vermutlich die meisten Unternehmen wollten ihren Beschäftigten jede nicht-dienstliche Nutzung während der Arbeit verbieten, hier ein Beispiel. In Deutschlands Firmen war wenig zu spüren von einer Aufbruchstimmung in eine neue Zeit, keine Experimentierfreude um den Erwerb von Kompetenz für den Umgang mit dem neuen Medium. Die Personaler präsentierten sich eher als die Agentur einer neuen Ängstlichkeit und hielten es mit Verboten und Kontrolle.
Obwohl hochgradig betroffen haben sich die Medien-Unternehmen alles andere als mit Ruhm bekleckert. In den Firmen tobte ein heftiger Streit zwischen print und online. Online, das waren die Kollegen (sorry, es waren fast nur Männer) mit den verkehrt rum sitzenden Baseball-Kappen, schlecht bezahlt und konnten den Edelfedern vom print natürlich das Wasser nicht reichen. Dieser sich jahrelang hinziehende Streit versperrte den Blick auf einen kreativen Umgang mit den neuen Möglichkeiten. Die Medien-Unternehmen hätten die natürlichen Instanzen sein können, um in der Zeit der aufkommenden Globalisierung Lokalität neu in Szene zu setzen. Stattdessen ließen sie sich die Butter vom Brot nehmen und überließen den aufkommenden zahlreichen Online-Diensten das Geschäft. Heute blicken sie ziemlich ratlos auf ihren selbst mitverschuldeten Niedergang.
Neue Dimensionen
Die multimodalen Eigenschaften der neueren KI-Tools erweitern das Repertoir der Überwachungsmöglichkeiten beträchtlich. George Orwells damals dystopisch erscheinende Überwachungsszenarien lassen sich nun mit den entsprechenden Analyse-Tools sozusagen in Echtzeit bewerkstelligen - dank maschinellem Lernen. Multimodal bedeutet dabei, dass für die Informationen alle Medienkanäle zur Verfügung stehen, neben Anschlägen auf der Tastatur Texte, Bilder, Videos, gesprochenes Wort in jeder akustischen Präsentation - Videoconferencing macht es möglich.
Sentimentanalyse gibt es zwar schon seit längerer Zeit, zunächst mit dem Schwerpunkt auf der Beobachtung des Kundenverhaltens, dann aber schnell ausgeweitet auf die Mitarbeiterschaft. Employee Experiences ist das Schlagwort und meint die Messung von Produktivität, Loyalität und Bindung der Beschäftigten an das Unternehmen. Purpose-built AI for your business nennt sich das dann unschuldig klingend bei einem Start-Up namens Aware. Daten über Mitarbeiterverhalten z.B. zur Früherkennung von Mobbing, Belästigung, Diskriminierung, Nichteinhaltung von Vorschriften, Umgang mit Pornografie oder andere Verhaltensweisen werden zunächst anonym präsentiert, können aber „im Bedarfsfall“ ohne Aufwand personalisiert werden; dazu gibt es dann ein zusätzliches Discovery Tool. Was bleibt ist die schwer zu ziehende Grenze zwischen Fürsorge und schlichter Kontrolle.
Die Social Media nach unbotmäßigen Äußerungen der Mitarbeitenden über ihre Arbeitgeber zu scannen ist nicht neu, dank leistungsfähiger Programme aber sehr viel leichter, schneller und vor allem gründlicher durchführbar. Dies lässt sich auch auf die elektronische Kommunikation innerhalb des Unternehmens ausdehnen.
Neu sind die Chancen, die Videoaufzeichnungen der Kommunikation (Microsoft Teams, Zoom und zahlreiche andere) bieten. An unbewussten Gesichtsbewegungen, Muskelzuckungen oder Veränderungen der Pupillen wollen spezielle Programme emotionale Befindlichkeiten erkennen. Soft Skills, kognitive Fähigkeiten, emotionale Intelligenz und weitere psychologische Eigenschaften erschließen sich auf diese Weise einer Messbarkeit. Hier entsteht ein Tummelfeld für Start-Ups, die mit teils zweifelhaften Programmen das Blaue vom Himmel versprechen, z.B. Alarme erzeugen, wenn eines ihrer Produkte anhand der Auswertung von Körpersprache erkannt haben will, dass ein Mitarbeiter mit besonders wichtigen Skills demnächst die Firma verlassen will.
Das schwedische Unternehmen SmartEye sieht sich als global leader in Human Insight AI mit sehr speziellen Programmen, die Gesichtsanalyse mit einer Interpretation der Körperhaltung verbinden. Willkommen in der Schönen Neuen Welt, allerdings einer, von der Aldous Huxley, der Autor des dystopischen Romans mit diesem Titel aus dem Jahr 1932, noch keine Ahnung hatte.
Die Anbieter allerdings scheinen durchaus eine Ahnung zu haben, dass ihre Programme mit Vorurteilen behaftet sind. Sie mühen sich in ihrer Werbung zu betonen, dass dem nicht so sei. Ihre Schlussfolgerungen seien ausschließlich faktenorientiert und nicht durch Stimmungen einer beurteilenden Person getrübt. Aber es sind ja keine Fakten, die von den Programmen präsentiert werden, sondern von Algorithmen erstellte Interpretationen. Welche heimlichen Regeln in diesen Algorithmen stecken (sog. bias), ist nicht Gegenstand ihrer Betrachtungen und im Falle des Einsatzes von Neuronalen Netzen auch außerordentlich schwierig bis prinzipiell unmöglich.
Es ist naheliegend, dass sich diese Tools im Personalbereich, vor allem im Personal Recruitment einsetzen lassen und vermutlich zunehmende Relevanz erlangen, vor allem vor dem Hintergrund, dass die üblichen Bewerbungsunterlagen von Chatbots erstellt oder zumindest aufgehübscht werden.
Wenn man eine Bewerberin oder einen Bewerber bittet, mit einem speziellen Programm Smalltalk zu machen, kann man ihr oder ihm sagen, dass dies selbstverständlich ganz freiwillig geschieht. Wenn die betroffene Person nicht begreift, dass ihre Chance sich im Sinkflug der Null-Linie nähert, wenn sie sich nicht auf den freiwilligen Test einlässt, kann man dies durchaus als vorgeschalteten Intelligenztest betrachten.
Es ist zurzeit nicht zu erwarten, dass das Tummelfeld rühriger Firmen durch klare Regeln begrenzt oder zumindest mit Orientierungen versehen wird. Der Verordnungsentwurf der Europäischen Kommission zur Künstlichen Intelligenz liefert zwar einen Klassifizierungsrahmen und ein paar durch Öffnungsklauseln für Ausnahmen durchlöcherte NO-GOs, aber stellt darüber hinaus kaum eine brauchbare Hilfe dar.