Wesentliche technische Voraussetzungen sind die Digitalisierung und das Cloud Computing.
Dieses Szenario hat sich grundlegend geändert:
Die Voraussetzungen dafür, dass Big Data, selbstlernende Systeme und Predictive Analytics (Vorhersagen, die auf statistischen Verfahren und Wahrscheinlichkeitsrechnung beruhen) überhaupt möglich sind. Was dieses exponentielle Wachstum bedeutet, ist sehr schön in dem Märchen vom Schachbrett und dem Reiskorn erzählt...
Diese Form der Computernutzung schickt sich an, die klassische Client Server Architekturen in den Unternehmen zu vertreiben. Die wichtigsten Merkmale:
Themenstellungen wie Mobiles Arbeiten, Flexibilisierung der Arbeitszeiten, Führung virtueller Teams rücken damit in den Fokus der Betriebsratsarbeit
Eigenentwickelte Software oder Kauf-Software mit in der Regel Lizenz- und Wartungsmodellen werden durch Nutzungs-Modelle wie PaaS (Platform as a Service) oder SaaS (Software as a Service) abgelöst. Bezahlt wird nach Nutzungsdauer und Verbrauch, so wie bei Strom oder Wasser.
Wie erfolgreich und lukrativ das Geschäftsmodell cloud computing ist, zeigen unlängst veröffentliche Quartalszahlen von Amazon, dem Google-Konzern Alphabet und Microsoft. So wies z.B. Microsoft allein mit seiner Cloud-Plattform Azure im abgelaufenden Quartal ein Umsatzwachstum von plus 90% aus, die verschiedenen Cloud-Produkte erreichen – nach Angaben des Konzerns inzwischen einen Umsatz der - auf das Gesamtjahr hochgerechnet - über 20 Milliarden Dollar.
Jetzt sind wir an einem Punkt , wo alle technische Zutaten für Big Data bereit stehen:
Die diversen Formen des Cloud Computing soll jetzt nicht unser Thema sein.
Spielen wir das Ganze am größten Big-Data-Projekt der Welt durch, an Google und seiner Suchmaschine. Der Zweck der Suchmaschine ist: der Kunde soll finden, was er sucht, nämlich Internetseiten.
Googles Suchmaschine ist weltweit kostenlos zugänglich - kostenlos - stimmt nicht ganz.
Wir - die Benutzer - bezahlen mit der Speicherung unserer Daten und unserer Suchbegriffe,
Google erhält täglich Milliarden von Informationen, u.a.
alles messbar - und auswertbar.
Die wichtigste Geschäftsidee Googles beruht auf der Google-Suche der Benutzer, nämlich die zielgruppenspezifische Werbung, die in die aufgerufenen Seiten eingeblendet wird. Damit macht Google noch über 80 Prozent seines Umsatzes. Die Big-Data Methode dahinter ist das sog. Target-Marketing.
Die Geschäftsideen des Google-Konzern reichen von bestehenden Services wie Google Maps, das kartographisches Material kombiniert mit Lokalisierungsdaten des Anwenders – für Privatpersonen kostenlos – für Firmen gegen Bezahlung zur Verfügung stellt oder Google Streetview – das eine plastische realitätsnahe Ansicht der Orte bietet und Google Maps gut ergänzt, über neuere Ideen wie Google glasses (im medizinischen Bereich eingesetzt) und die den sogenannten Augmented Reality-Tools zugeordnet werden können bis hin zum Engagement des Konzerns im aktuellen Wettlauf um das selbstfahrende Auto Alphabet-Tochter Waymo).
Der Google-Konzern war es auch, der mit einer seiner Big Data-Anwendung Google Flu 2009 in Fachkreisen für Aufmerksamkeit sorgte.
2009 gab es bei Seuchenbehörden weltweit die Befürchtung, dass durch Mutation des Vogelgrippevirus eine Übertragung auf den Menschen entstehen und zu einer weltweiten Pandemie führen könnte - erste Erkrankungsfälle wurden schon gemeldet. Einen Impfstoff gab es noch nicht. Erinnerungen an die Spanische Grippe kommen auf, die Millionen Menschen weltweit den Tod gebracht hat.
Durch die Jahre zuvor eingeführte Meldepflicht bei Erkrankung mit Grippeviren standen zwar die Ausbreitungsdaten - wie Ort, Zeitpunkt und Anzahl der Erkrankten - zur Verfügung, aber erst zeitverzögert, frühestens 14 Tage nach dem Ausbrüchen, und genau das war ein Problem. Bei einem hochvirulenten Erreger ist nach kürzester Zeit die kritische Masse der Infizierten meist überschritten, bei der eine Eindämmung durch Gegenmaßnahmen noch möglich ist.
Kurz davor hatte Google in Fachzeitschriften veröffentlicht, dass Ihre neue Anwendung Google flu Region und Zeit von Grippeausbrüchen im Vorfeld prognostizieren könne.
Wie war man vorgegangen: Google nahm die veröffentlichten Grippedaten der US-Gesundheitsbehörden von 2003 bis 2008 und verglich sie mit den 50 Millionen am häuftigsten eingegebenen Suchbegriffen der Google-Nutzer der USA. Der Gedanke dahinter war, ob sich die Eingabehäufigkeit bestimmter Suchbegriffe vor Ausbruch der Grippe verändert hatte. Man prüfte unterschiedliche mathematische Modelle und glich die Voraussage-Ergebnisse mit den tatsächlichen Grippedaten von 2007 bis 2008 ab. So fand man schließlich ein Modell, mit dem man anhand von 45 Suchbegriffen die Ausbreitung der Grippe (Region und Zeit) erfolgreich prognostizieren konnte. Die Behörden gewannen dadurch einen wertvollen Zeitvorsprung im Kampf gegen den Virus.
Wie verhält sich Google Flu als typische Big-Data-Anwendung vor dem Hintergrund des Datenschutzes? Wir halten die drei Grundprinzipien des Datenschutzes dagegen, die Zweckbindung, die Verhältnismäßigkeit /bzw. Datensparsamkeit und die Transparenz.
Keiner der Software- oder Internet-Anbieter (weder Amazon, Google, Facebook, noch Microsoft oder SAP ) holt eine Einwilligung für Folgezwecke in der Zukunft ein. Nicht nur diese Beispiele und ihre ständig erweiterten Services zeigen, dass die Auswirkungen von Big Data für die Gesellschaft als solche sehr virulent sind.
So verwenden in den USA beispielsweise Bewährungsausschüsse in mehr als der Hälfte der US-Bundesstaaten Verhaltensvorhersagen auf Grundlage einer Datenanalyse, wenn sie entscheiden, ob eine Haftstrafe zur Bewährung ausgesetzt wird.
Und in immer mehr Städten der USA gibt es das sog. pridictive policing. Aufgrund einer Big-Data-Analyse werden Straßen, Gruppen, und sogar einzelne Menschen stärker überwacht, bloß weil ein Algorithmus sie als anfälliger für Verbrechen identifiziert hat.
Bedenklich stimmen auch Beispiele wie unlängst der Trump-Wahlkampf. Das dort eingesetzte Mikro-Targeting der Firma Cambridge Analytica macht überdeutlich, dass durch Vermischung, Kombination und Anreicherung verschiedener Datenpools – die käuflich oder öffentlich kostenlos zugängig sind - auch Rückschlüsse auf Personen kein Problem mehr darstellen und Raum für zielgenaue „Ansprache“ – oder auch Manipulation bieten. Mit dieser Methode hat Herr Trump in den Swinging States seine Wahl gewonnen
Das letzte Beispiel ist für uns aber insofern wichtig, weil es aufzeigt, dass die datenschutzrechtlichen Instrumente wie Anonymisierung und Pseudonymisierung von personenbezogenen Daten durch Big Data zunehmend ihre Wirkung verlieren.
Aber auch bei betrieblichen Themen, spielen die neuen Möglichkeiten zunehmend eine Rolle. Nehmen wir ein ganz schlichtes Thema, die Instandhaltung.
Traditionelle Instandhaltungs-Systeme verwalten unter anderem Wartungspläne für Maschinen und Anlagen. Um ungeplante Stillstände zu vermeiden, liefern diese Systeme Hinweise, wann welche Maschinenteile ausgewechselt werden sollen. Die Informationen stammen aus dem oft über Jahre gesammelten Erfahrungswissen der Maschinenführer, Techniker und Ingenieure. Jeder einzelne Instanthaltungsvorgng wird dokumentiert und gespeichert.
Was passiert, wenn ein solches System als Cloud-Lösung mit Big-Data-Analysen angeboten wird. Spielen wir das mal am fiktiven Beispiel SAP-Plant Management durch. Das passt gut in die Diskussion, weil SAP von sich selbst sagt, es sei auf dem Weg zur Cloud Company und weil es mit seinen vielen Modulen Fantasien für zukünftige Verknüpfungskombinationen fast keine Grenzen setzt.
Wie alle großen Anbieter wird sich auch diese Firma von den Unternehmen vertraglich zusichern lassen, dass sie die Daten des Unternehmens zur Verbesserung des Services verwenden darf.
Da ist der Weg kurz zur Erstellung einer „Best Practice" – Auswertung, die den Unternehmen dann wiederum als Service angeboten wird, „wann welche Teile zu warten oder zu ersetzen sind, bis hin zu kompletten Wartungsplänen.
Was vorher hochqualifizierte Techniker und Facharbeiter mit ihrer Erfahrung vorgegeben haben, erhalten die Firmen jetzt per Service quasi auf Knopfdruck: Vorhersagen, die zu jedem Zeitpunkt aktualisierbar sind, und die genauer sind als jedes einzelne Unternehmen, sei es noch so groß, diese ermitteln könnte.
Die Risiken für die Beschäftigung in den Unternehmen sind leicht ableitbar:
Bei deisem harmlos klingenden Beispiel Instandhaltung fragt sich mancher Betriebsrat, was dort z tun ist, denn die Auswertungen selbst lassen ja keinerlei Personenbezug mehr erkennen.
Gewonnen wurden diese Daten jedoch aus Daten über Vorgänge, die von Personen bewerkstelligt wurden. Der Personenbezug wurde dann zwar entfernt – aber die Auswirkungen auf die Beschäftigten, Ihre Arbeitsplätze, Arbeitsbedingungen, Bezahlung und Qualifikation sind erheblich - und fallen unter die klassischen Themen der Mitbestimmung nach § 87 Abs. 1BetrVG.
Abgesehen vom PM-System bietet SAP auch für das Personal vielfältige Cloud-Services:
Warum also nicht das Bewerbermanagement, - zur Auswahl von „geeigneten“ Bewerbern per Algorithmen – mit dem Performance- und Talentmanagement– kombinieren, oder gleich per Knopfdruck Zielerreichung und Geldbestandsteile sich automatisch errechnen lassen, am besten auch gleich bei wiederholtem Low-Performen sich die Top Ten der besonders geeignete Maßnahmen zur Regelung des Problems – natürlich als Best-Practice per Big Data Service vom Systemanbieter - mitliefern lassen?
Und zur Motivation gleich die neue Blüte von SAP – JobPts , wo elektronische Bonuspunkte für tolles Helfen oder was auch immer - untereinander vergeben werden können, angepriesen als leicht mit Beschäftigtendaten und Payroll integrierbar.
Das Geschäftsmodell Big Data wird zu Big Business und für die Software-Anbieter und Unternehmen zum Win-Win-Modell. Auf der Strecke bleiben, wenn die Betriebsräte nicht aufpassen, die Beschäftigten.
Damit stellt sich nun dieFrage, hilft uns der Datenschutz und die Mitbestimmung bei Big Data, und was braucht es noch für Weiterentwicklungen.
Rekapitulieren wir kurz nochmal die Paradigmen von Big Data
und stellen sie den Datenschutzprinzipien - Datensparsamkeit, Transparenz , Zweckbindung, „Recht auf Vergessen“ gegenüber, so bleibt folgendes festzustellen:
Durch Big Data mit seinen neuartigen statistischen Analyseverfahren verlieren die uns bekannten Prinzipien des Datenschutzes einen Großteil ihrer Regelungstauglichkeit.
Big Data Anwendungen werben mit Anonymisierun bzw. Pseudonymisierung von personenbezogenen Daten. Dadurch wird die datenschutzrechtliche Relevanz oft nicht erkannt.
Eine Re-Identifzierung stellt jedoch aufgrund der vielfachen Kombinations- und Verknüpfungsmöglichkeiten kein unlösbares Problem mehr dar.
Bereits 2011 konnten Forscher aufzeigen, dass nicht nur konventionelle Daten, sondern auch der sogenannte Social Graph – die Beziehungen der Menschen untereinander - äußerst anfällig für Re-Identifikation ist.
Wo bietet der Datenschutz neue Chancen, wo Risiken, was sind die Hoffnungen, wo die Grenzen der neuen Datenschutzgrundverordnung?
Große Hoffnungen verbinden sich
Inwieweit die aktuellen Datenschutzgesetze in Zeiten von Big Data die Balance zwischen den Rechten der betroffenen Personen und den Unternehmensinteressen halten oder auch wieder herstellen können, bleibt abzuwarten.
Was fehlt aus unserer Sicht:
Bis zur Klärung dieser Fragen empfiehlt sich die strikte Beachtung insbesondere des Grundsatzes der Datensparsamkeit, vor allem bei sogenannten Personalinstrumenten und angebotenen social Media – und Predictive Analytics-Funktionen.
Big Data verletzt die Normen des traditionellen Datenschutzes Zweckbindung, Verhältnismäßigkeit bzw. Datensparsamkeit und Normenklarheit. Deshalb muss für Big Data-Anwendungen in den Betrieben gelten:
Mitbestimmung first - Datenschutz als Ergänzung!
Ingrid Maas, November 2017 |