Bias - Die verborgenen Vorurteile der Sprachmodelle
Wenn also vor allem weiße amerikanische Jungs in Kapuzenpullis Maschinen entwerfen und die Zukunft programmieren, ticken die Maschinen auch wie weiße amerikanische Jungs in Kapuzenpullis. Nur die Welt besteht nicht nur aus weißen amerikanischen Jungs in Kapuzenpullis.
Fei-Fei-Li, ehem. Chief Scientist Artificial Intelligence Google Cloud (2018)
Künstliche Intelligenz ist nicht von selbst schlau. Die Systeme, soweit sie auf Sprachmodellen, den sog. Large Language Models beruhen, haben eine Datenbasis, mit der sie trainiert und Algorithmen, mit denen sie entwickelt werden, beides nicht fehlerfreie Prozesse.
Die inkorporierten Vorurteile, Verzerrungen, Benachteiligung und Diskriminierungen von Farbigen, Frauen, ethnischen Minderheiten sind nichts Neues und in vielen Publikationen beschrieben worden. Was aber sind die systemischen Ursachen der Verzerrungen?
Die Quellen der Verzerrung
Die Auswahl der Trainings- und Testdaten, die Algorithmen für ihre Aufarbeitung, die Notwendigkeit fortlaufender Aktualisierung und die in der Architektur der Sprachmodelle verwendeten Strukturen bergen Risiken für Verzerrungen:
Fazit
Die Technik der Neuronalen Netze bietet zahlreiche Quellen für Verzerrungen ihrer Ergebnisse. Die Strategie der großen Anbieter Big Data und Big Money verspricht keine Verbesserungen. Perspektiven für Unternehmen tun sich in dem Maße auf, in dem die Anbieter bescheidenere Modelle mit höherer Sicherheit und Verlässlichkeit verfügbar machen, die sich mit bezüglich ihrer Quellen transparent darstellbaren unternehmsinternen Daten nachtrainieren und nach außen schützen lassen.