Big Data

Neue Geschäftsmodelle - Datenschutz bewahren

Wesentliche technische Voraussetzungen sind die Digitalisierung und das Cloud Computing.

Digitalisierung

Dieses Szenario hat sich grundlegend geändert:

Die Voraussetzungen dafür, dass Big Data, selbstlernende Systeme und Predictive Analytics (Vorhersagen, die auf  statistischen Verfahren und Wahrscheinlichkeitsrechnung beruhen) überhaupt möglich sind. Was dieses exponentielle Wachstum bedeutet, ist sehr schön in dem Märchen vom Schachbrett und dem Reiskorn erzählt...

Cloud Computing

Diese Form der Computernutzung schickt sich an, die klassische Client Server Architekturen in den Unternehmen zu vertreiben. Die wichtigsten Merkmale:

Themenstellungen wie Mobiles Arbeiten, Flexibilisierung der Arbeitszeiten, Führung virtueller Teams rücken damit in den Fokus der Betriebsratsarbeit

Eigenentwickelte Software oder Kauf-Software mit in der Regel Lizenz- und Wartungsmodellen werden durch Nutzungs-Modelle wie PaaS (Platform as a Service) oder SaaS  (Software as a Service) abgelöst. Bezahlt wird nach Nutzungsdauer und Verbrauch, so wie bei Strom oder Wasser.

Wie erfolgreich und lukrativ das Geschäftsmodell cloud computing ist, zeigen unlängst veröffentliche Quartalszahlen von Amazon, dem Google-Konzern Alphabet und Microsoft. So wies z.B.  Microsoft  allein mit seiner Cloud-Plattform Azure im abgelaufenden Quartal ein Umsatzwachstum von plus 90% aus,  die verschiedenen Cloud-Produkte erreichen – nach Angaben des Konzerns inzwischen einen Umsatz der - auf das Gesamtjahr hochgerechnet - über 20 Milliarden Dollar.

Jetzt sind wir an einem Punkt , wo alle technische Zutaten für Big Data bereit stehen:

Die diversen Formen des Cloud Computing soll jetzt nicht unser Thema sein.

Software as a Service

Spielen wir das Ganze am größten Big-Data-Projekt der Welt  durch, an Google und seiner Suchmaschine. Der Zweck der Suchmaschine ist: der Kunde soll finden, was er sucht, nämlich Internetseiten.

Googles Suchmaschine ist weltweit kostenlos zugänglich  - kostenlos  - stimmt nicht ganz.  
Wir -  die Benutzer -  bezahlen  mit der Speicherung unserer Daten und unserer Suchbegriffe,  
Google erhält täglich Milliarden von Informationen, u.a.

alles messbar - und  auswertbar.

Die wichtigste Geschäftsidee Googles beruht auf der Google-Suche der Benutzer, nämlich die zielgruppenspezifische Werbung, die in die aufgerufenen Seiten eingeblendet wird. Damit  macht Google  noch über 80 Prozent seines Umsatzes. Die Big-Data Methode dahinter ist das sog. Target-Marketing.

Die Geschäftsideen des Google-Konzern reichen von  bestehenden Services wie Google Maps, das kartographisches Material  kombiniert mit Lokalisierungsdaten des Anwenders – für Privatpersonen kostenlos – für Firmen gegen Bezahlung zur Verfügung stellt  oder Google Streetview – das eine plastische realitätsnahe Ansicht der Orte bietet und  Google Maps gut ergänzt, über neuere Ideen wie Google glasses (im medizinischen Bereich eingesetzt) und die den sogenannten Augmented Reality-Tools zugeordnet werden können bis hin zum Engagement des Konzerns im aktuellen Wettlauf um das selbstfahrende Auto Alphabet-Tochter Waymo).

Der Google-Konzern war es auch, der mit einer seiner Big Data-Anwendung Google Flu  2009 in Fachkreisen für Aufmerksamkeit sorgte.  

2009 gab es bei Seuchenbehörden weltweit die Befürchtung, dass durch Mutation des Vogelgrippevirus eine Übertragung auf den Menschen entstehen und zu einer weltweiten Pandemie führen könnte  - erste Erkrankungsfälle wurden schon gemeldet. Einen Impfstoff  gab es noch nicht. Erinnerungen an die Spanische Grippe kommen auf, die Millionen Menschen weltweit den Tod gebracht hat.

Durch die Jahre zuvor eingeführte Meldepflicht bei Erkrankung mit Grippeviren standen zwar die Ausbreitungsdaten  - wie Ort, Zeitpunkt und Anzahl der Erkrankten - zur Verfügung, aber erst zeitverzögert, frühestens 14 Tage nach dem Ausbrüchen, und genau das war ein Problem. Bei einem hochvirulenten Erreger ist nach kürzester Zeit die kritische Masse der Infizierten meist überschritten, bei der eine Eindämmung durch Gegenmaßnahmen noch möglich ist.

Kurz davor hatte Google in Fachzeitschriften veröffentlicht, dass Ihre neue Anwendung Google flu Region  und Zeit von Grippeausbrüchen im Vorfeld prognostizieren könne.  

Wie war man vorgegangen: Google nahm die veröffentlichten Grippedaten der US-Gesundheitsbehörden von 2003 bis 2008 und verglich sie mit den 50 Millionen am häuftigsten eingegebenen Suchbegriffen der Google-Nutzer der USA. Der Gedanke dahinter war, ob sich die Eingabehäufigkeit bestimmter Suchbegriffe vor Ausbruch der Grippe verändert hatte. Man prüfte unterschiedliche mathematische Modelle und glich die Voraussage-Ergebnisse mit den tatsächlichen Grippedaten von 2007 bis 2008 ab. So fand man schließlich ein Modell, mit dem man anhand von 45 Suchbegriffen die Ausbreitung der Grippe (Region und Zeit) erfolgreich prognostizieren konnte. Die Behörden gewannen dadurch einen wertvollen Zeitvorsprung im Kampf gegen den Virus.

Google Flu und Datenschutz

Wie verhält sich Google Flu  als typische Big-Data-Anwendung vor dem Hintergrund des Datenschutzes? Wir halten die drei Grundprinzipien des Datenschutzes dagegen, die Zweckbindung, die Verhältnismäßigkeit /bzw. Datensparsamkeit und die Transparenz.  

Keiner der Software- oder Internet-Anbieter (weder Amazon, Google, Facebook, noch Microsoft oder SAP )  holt eine Einwilligung für Folgezwecke in der Zukunft ein. Nicht nur diese Beispiele und ihre ständig erweiterten Services  zeigen, dass die Auswirkungen von Big Data für die Gesellschaft als solche sehr virulent sind.

So verwenden in den USA beispielsweise Bewährungsausschüsse in mehr als der Hälfte der US-Bundesstaaten Verhaltensvorhersagen auf Grundlage einer Datenanalyse, wenn sie entscheiden, ob eine Haftstrafe zur Bewährung ausgesetzt wird.

Und in immer mehr Städten der USA  gibt es das sog. pridictive  policing. Aufgrund einer Big-Data-Analyse werden Straßen, Gruppen, und sogar einzelne Menschen stärker überwacht, bloß  weil ein Algorithmus sie als anfälliger für Verbrechen identifiziert hat.

Bedenklich stimmen auch Beispiele wie unlängst der Trump-Wahlkampf. Das dort eingesetzte Mikro-Targeting der Firma Cambridge Analytica  macht überdeutlich, dass durch Vermischung, Kombination und Anreicherung verschiedener Datenpools – die käuflich oder öffentlich kostenlos zugängig sind -  auch Rückschlüsse auf Personen kein Problem mehr darstellen und Raum für zielgenaue „Ansprache“ – oder auch Manipulation bieten. Mit dieser Methode hat Herr Trump in den Swinging States seine Wahl gewonnen

Das letzte Beispiel ist für uns aber insofern wichtig, weil es aufzeigt,  dass die datenschutzrechtlichen Instrumente  wie Anonymisierung und Pseudonymisierung von personenbezogenen Daten durch Big Data zunehmend ihre Wirkung verlieren.

Ein betriebliches Beispiel

Aber auch bei betrieblichen Themen, spielen die neuen Möglichkeiten zunehmend eine Rolle. Nehmen wir ein ganz schlichtes Thema, die Instandhaltung.

Traditionelle Instandhaltungs-Systeme verwalten unter anderem Wartungspläne für Maschinen und Anlagen. Um ungeplante Stillstände zu vermeiden, liefern diese Systeme Hinweise, wann welche Maschinenteile ausgewechselt werden sollen. Die Informationen stammen aus dem oft über Jahre gesammelten Erfahrungswissen der Maschinenführer, Techniker und Ingenieure. Jeder einzelne Instanthaltungsvorgng wird dokumentiert und gespeichert.

Was passiert, wenn ein solches System als Cloud-Lösung  mit Big-Data-Analysen angeboten wird. Spielen wir das mal am fiktiven Beispiel SAP-Plant Management durch. Das passt gut in die Diskussion, weil SAP von sich selbst sagt, es sei auf dem Weg zur Cloud Company und weil es mit seinen vielen Modulen Fantasien für zukünftige Verknüpfungskombinationen fast keine Grenzen setzt.

Wie alle großen Anbieter wird sich auch diese Firma von den Unternehmen vertraglich zusichern lassen, dass sie die Daten des Unternehmens zur Verbesserung des Services verwenden darf.

Die Folgen:

Da ist der Weg kurz zur Erstellung einer  „Best Practice" – Auswertung, die den Unternehmen dann wiederum als Service angeboten wird,  „wann welche Teile zu warten oder zu ersetzen sind, bis hin zu kompletten Wartungsplänen.   

Was vorher hochqualifizierte Techniker und Facharbeiter mit ihrer Erfahrung vorgegeben haben, erhalten die Firmen jetzt per Service quasi auf Knopfdruck: Vorhersagen, die zu jedem Zeitpunkt aktualisierbar sind, und die genauer sind als jedes einzelne Unternehmen, sei es noch so groß, diese ermitteln könnte.
        
Die Risiken für die Beschäftigung in den Unternehmen  sind leicht ableitbar:

Bei deisem harmlos klingenden Beispiel Instandhaltung fragt sich mancher Betriebsrat, was dort z tun ist, denn die Auswertungen selbst lassen ja keinerlei Personenbezug mehr erkennen.

Gewonnen wurden diese Daten jedoch aus Daten über Vorgänge, die von Personen bewerkstelligt wurden. Der Personenbezug wurde dann zwar entfernt – aber die Auswirkungen auf die Beschäftigten,  Ihre Arbeitsplätze, Arbeitsbedingungen, Bezahlung und Qualifikation sind erheblich - und fallen unter die klassischen Themen der Mitbestimmung nach § 87 Abs. 1BetrVG.

Abgesehen vom PM-System bietet SAP auch für das Personal vielfältige Cloud-Services:

Warum also nicht das Bewerbermanagement, - zur Auswahl von „geeigneten“ Bewerbern per Algorithmen  – mit dem Performance- und Talentmanagement–  kombinieren, oder gleich per Knopfdruck Zielerreichung und Geldbestandsteile sich automatisch errechnen lassen, am besten auch gleich bei wiederholtem Low-Performen sich die Top Ten der besonders geeignete Maßnahmen zur Regelung des Problems – natürlich als Best-Practice per Big Data Service vom Systemanbieter  - mitliefern lassen?
 
Und zur Motivation gleich die neue Blüte von SAP –  JobPts ,  wo elektronische Bonuspunkte für tolles Helfen oder was auch immer  - untereinander vergeben werden können, angepriesen als leicht mit Beschäftigtendaten und Payroll integrierbar.

Das Geschäftsmodell Big Data wird zu Big Business und für die Software-Anbieter und  Unternehmen zum Win-Win-Modell. Auf der Strecke bleiben, wenn die Betriebsräte nicht aufpassen, die Beschäftigten.

Datenschutz und Big Data

Damit stellt sich nun dieFrage, hilft uns der Datenschutz und die Mitbestimmung bei Big Data, und was braucht es noch für Weiterentwicklungen.

Rekapitulieren wir kurz nochmal die Paradigmen von Big Data

und stellen sie den Datenschutzprinzipien  - Datensparsamkeit, Transparenz , Zweckbindung, „Recht auf Vergessen“  gegenüber,  so bleibt folgendes festzustellen:

Durch Big Data mit seinen neuartigen statistischen Analyseverfahren  verlieren die uns bekannten Prinzipien des Datenschutzes einen Großteil ihrer Regelungstauglichkeit.
 
Big Data Anwendungen werben mit  Anonymisierun bzw. Pseudonymisierung  von personenbezogenen Daten.  Dadurch wird die datenschutzrechtliche Relevanz oft nicht erkannt.
  
Eine Re-Identifzierung stellt jedoch aufgrund der vielfachen Kombinations- und Verknüpfungsmöglichkeiten kein unlösbares Problem mehr dar.

Bereits 2011 konnten Forscher aufzeigen, dass nicht nur konventionelle Daten, sondern auch der sogenannte Social Graph – die Beziehungen der Menschen untereinander  - äußerst anfällig für Re-Identifikation ist.

Wo bietet der Datenschutz neue Chancen, wo Risiken, was sind die Hoffnungen, wo die Grenzen der neuen Datenschutzgrundverordnung?

Große Hoffnungen verbinden sich

Inwieweit die aktuellen Datenschutzgesetze in Zeiten von Big Data die Balance zwischen den Rechten  der betroffenen Personen   und den Unternehmensinteressen halten oder auch wieder herstellen können, bleibt abzuwarten.

Was fehlt aus unserer Sicht:

Bis zur Klärung dieser Fragen empfiehlt sich die strikte Beachtung insbesondere des Grundsatzes der Datensparsamkeit, vor allem bei sogenannten Personalinstrumenten und angebotenen social Media – und Predictive Analytics-Funktionen.

Big Data verletzt die Normen des traditionellen Datenschutzes Zweckbindung, Verhältnismäßigkeit bzw. Datensparsamkeit und Normenklarheit. Deshalb muss für Big Data-Anwendungen in den Betrieben gelten:

Mitbestimmung first  -  Datenschutz als Ergänzung!

 

 

Ingrid Maas, November 2017