Amazons Alexa, Apples Siri und Microsofts Contana sind hinreichend bekannt.Die Computerleistung dahinter, Spracherkennung, ist ein Spezialfall der Mustererkennung (pattern recognition). Viele Menschen sehen in diesen Diensten eine Bereicherung ihres Alltagslebens.
Das 2013 gegründete Aachener StartUp-Unternehmen Psyware, 2021 übernommen von 4TechnologyGroup, hat die Software PRECIRE entwickelt, spezialisiert auf eine pysochologische Sprachanalyse für das Personalmanagement, angeboten für das Recruitment, aber auch ganz allgemein zur Beurteilung von Menschen.
Als Bewerber für einen Job sitzt man vor einem Computer und macht mit ihm eine Viertelstunde small talk. Hier geht es nicht um die Abfrage von fachlichem Wissen oder (auswendig gelernter) Management-Weisheiten, sondern um nahezu Belangloses mit eingestreuten Überraschungen und provozierenden Fragen (natürlich political correct).
„Beschreiben Sie einen typischen Sonntag“, „Beschreiben Sie ein besonders schönes Erlebnis, das Sie in den letzten Wochen hatten“ oder „Welche Sorgen hatten Sie in den vergangenen Wochen?“ Psyware hat meine 1531 gesprochenen Wörter aufgezeichnet und durch das Analyseprogramm mit dem Namen „Precire“ gejagt.
Quelle: Katrin Hummel in der FAZ vom 20.5.2015
Die Idee dahinter: Die Software registriert Sprachgeschwindigkeit, Antwortlänge, Sprachmuster, Perturbationen, Wortwahl, Schwankungen in der Tonhöhe und viele Details, über die Menschen keine oder nur geringe willentliche Kontrolle haben, ähnlich wie bei den Mikro-Bewegungen in der Körpersprache. Dies wird vor dem Hintergrund eines pyschologischen Modells bewertet. Daraus werden Rückschlüsse auf Unsicherheit, Verbindlichkeit, Aufgabenorientiertheit, Resilienz, Aufgeregtheit, Gelassenheit, ganz allgemein Emotionalität und wahrscheinlich eine Menge weiterer nicht genannter Eigenschaften gezogen. Heraus kommt quasi auf Knopfdruck ein Persönlichkeitsprofil, für das ansonsten Psychologen mit verschiedenen Testverfahren in tagelangen Assessments herumlaborieren müssten - und das ohne jeden persönlichen Kontakt mit dem Probanden.
Die Entwickler betonen die Objektivität der Ergebnisse. Nicht erst seit Kahnemanns wirklich sehr lehrreichem Buch Noise über die „Verrauschtheit“ von Urteilen weiß man um die Schwankungen und Unzuverlässlichkeiten menschlicher Urteile.
Eines der vielen Beispiele aus Kahnemanns Buch: Legt man mehreren Ärzten ein und dieselbe Röntgenaufnahme vor, so muss man mit unterschiedlichen Diagnosen rechnen. Ähnliches kann passieren, wenn man ein und demselben Arzt deiselbe Aufnahme mit zeitlicher Verzögerung erneut vorlegt.
Das Computerprogramm bietet hier Konstanz anstelle von eventuell stimmungsabhängiger menschlicher Individualität. Aber wie verhält es sich mit der Objektivität?
Die Forderung nach Transparenz der Algorithmen wird oft im Zusammenhang mit KI-Programmen, speziell bei sog. Maschinellem Lernen, gestellt. Wollte man die Grundlagen des psychologischen Modells offenlegen, so käme das einer halben Doktorarbeit gleich. Klar ist aber: Das Modell ist menschengemacht. Die Systemersteller mussten natürlich Menschen, bei denen Psychologen auf herkömmliche Weise bestimmte Persönlichkeitsmerkmale gefunden hatten, in Gruppen einteilen, und dann deren Sprache auf Gemeinsamkeiten und Unterschiede zu Vergleichsgruppen untersuchen, in denen Menschen mit anderen Persönlichkeitsmerkmalen steckten. So können sprachliche Merkmale extrahiert werden, die mit gewissen charakterlichen Merkmalen korrelieren. Die Software kann sich dann auf den Weg der Mustererkennung begeben und die unterschiedlichen Wahrscheinlichkeiten gegeneinander abwägen.
Jedoch weder die Auswahl der Merkmale noch die psychologischen Methoden können die behauptete wissenschaftliche Objektivität für sich reklamieren; sie unterliegen durchaus subjektiven Denkmustern der Systemersteller. Eine selbstlernende Software, die in der Lage ist, diese BIAS-Verzerrungen abzubauen, ist bis heute nicht erfunden. Durch gelegentliches oder regelmäßiges Feedback kann man natürlich eine Verfeinerung der Mustererkennung erreichen, die sich das System für die Zukunft merkt. Auch hier stellt sich die Frage nach der Objektivität dieses Feedbacks. Jedenfalls betonen die Erfinder, dass sie sich am main stream orientieren und können dann der gegen ein vermeintliches Fehlurteil des Progarmms protestierenden Journalistin entgegenhalten: „Wir messen ja nicht, was Sie über sich denken, sondern wie Sie im Vergleich zur Allgemeinheit der Probanden sind. Das ist viel objektiver“ (ebd. Katrin Hummel in der FAZ 20.5.2015).
Vom schnellen Erfolg beflügelt denken die Firmengründer natürlich über die Ausweitung des Geschäfts nach. Man kann mit ähnlichen Methoden aus Social Media-Beiträgen, Mails oder anderen Verlautbarungen des Probanden ergänzende Persönlichkeitsmerkmale oder psychosoziale Auffälligkeiten herauslesen und damit das Service-Angebot komplettieren.
Die Technik lässt sich auch für Kundenkontakte mobilisieren, wie es teilweise heute schon fortgeschrittenere Call Senter-Software tut, die bei aufgebrachten Gesprächspartnern gleich per Routing ein automatisches Weiterleiten des Calls an einen krisenerprobtem Experten veranlasst. Empfangsdienste von Hotels, Polizei oder Patnerbörsen dürften zur interessierten Kundschaft zählen (wenn sie es nicht bereits sind). Jedenfalls: „Diese junge Technologie schafft völlig neue Möglichkeiten für den Personalbereich“, um die bereits erwähnte Journalistin nochmals zu zitieren.
Man kann sich hier lange Zeit den Kopf zerbrechen über Schadensbegrenzung durch Bemühen um verstärkte Objektivität oder die Herstellung zumindest ansatzweiser Kontrollierbarkeit der Software. Man kann sich aber auch daran erinnern, dass wir in Mitteleuropa leben und Teilhaber einer bestimmten Kultur sind, die gewisse Wertvorstellungen über Privatheit und persönliche Rechte teilt und deshalb zu dem Urteil gelangen: Eine solche Technik wollen wir nicht. Ende der Durchsage.
Der Autor und seine Kollegin durften den Eiertanz eines amtlichen Datenschützers erleben, der sich dem Test unterzogen hatte und (nach Präsentation der für ihn positiven Befunde) zum Ergebnis gelangte, in der Abwägung von betrieblichen Erfordernissen und dem Schutz der Persönlichkeitsrechte könne der Einsatz durchaus gerechtfertigt sein, weil ja dank dieser Software festgestellt werden kann, wie gut ein Bewerber in ein Team passt, und dann profitieren ja beide Seiten. Einem ungeeigneten Bewerber und dem Team werde schließlich die Frustration einer nicht passenden Zusammenarbeit erspart. Ob besagtem Datenschützer auch die für die Beurteilung seiner Person negativen Befunde präsentiert wurden, ist nicht bekannt.
Karl Schmitz, Januar 2022 |