Der EU-AI-Act

Brüssel 1. August 2024. Endlich ist es in Kraft getreten, das mit vorauseilendem Selbstlob gepriesene Gesetzeswerk. Man quält sich über fast 200 Seiten, über die Hälfte davon nur Einleitung, in 180 sogenannten Gründen über die Gesinnung des Gesetzgebers, gefolgt von 112 Artikeln mit den eigentlichen Regelungen und noch einer Menge Anhängen, und man fragt sich danach, was man eigentlich gelesen hat.

Bürokratenschwemme
Die Bürokratenschwemme

Ein Rechtsrahmen für politisch verantwortbare Künstliche Intelligenz sollte es werden, ein bürokratisches Monster ist es geworden.

Die Umsetzung das Rechtswerks darf sich bis 2027 dahinquälen. Hehre Absichten sind erklärt, aber klar ist noch nichts. Eine nationale Behörde oder auch mehrere davon müssen noch benannt oder geschaffen werden, alles um die Umsetzung der Regeln zu beaufsichtigen. Neue Bürokraten braucht das Land.

Mit der Stange im Nebel

„Unabhängige“ Prüfstellen soll es geben müssen. Sie sollen nach dem Risikostufen-Modell hauptsächlich das Einhalten der Verbote für die Hochrisiko-Anwendungen kontrollieren. Der Katalog ist ok, (Näheres dazu hier) aber unpräzise formuliert mit viel Spielraum für Interpretation. Anwaltskanzleien werden sich freuen. Hier ein Beispiel:

KAPITEL II VERBOTENE PRAKTIKEN IM KI-BEREICH Artikel 5 Ziffer 1:

Folgende Praktiken im KI-Bereich sind verboten:

das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das Techniken der unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person oder absichtlich manipulative oder täuschende Techniken mit dem Ziel oder der Wirkung einsetzt, das Verhalten einer Person oder einer Gruppe von Personen wesentlich zu verändern, indem ihre Fähigkeit, eine fundierte Entscheidung zu treffen, deutlich beeinträchtigt wird, wodurch sie veranlasst wird, eine Entscheidung zu treffen, die sie andernfalls nicht getroffen hätte, und zwar in einer Weise, die dieser Person, einer anderen Person oder einer Gruppe von Personen erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird.


Ein wohlklingendes Beispiel werteorientierter Politik. Doch der Abssatz enthält nur unscharfe Beschreibungen und Begriffe mit erheblichem Interpretationsspielraum:

  • Was ist unterschwellige Beeinflussung?
  • Was sind absichtlich manipulative oder täuschende Techniken?
  • Wie soll man erkennen, ob der Systembetreiber Techniken einsetzt, die geeignet sind, das Verhalten einer Person oder einer Gruppe von Personen wesentlich zu verändern?
  • Wie kann man die Fähigkeit beschreiben, eine fundierte Entscheidung zu treffen
  • oder zu beurteilen, ob die Entscheidung andernfalls nicht getroffen würde?
  • Ab wann handelt es sich um eine Zufügung erheblichen Schadens?

Man darf rätseln, wie man auf diese Fragen konsensfähige Antworten findet. Gleich welchen anderen Absatz mit normativem Anspruch man sich anschaut, überall dasselbe Bild: Es bleibt neblig.

Vorprogrammierte Entscheidungsparalyse

Um bei diesen rechtlichen Vorgaben zu einem Urteil zu kommen, darf man in einem erheblichen Ermessensspielraum herumnavigieren. Politiker haben die Entscheidungen mit Erfolg an die Gerichte abgeschoben, die in vermutlich jahrelangen Rechtsstreiten eine Präzisierung finden müssen.

Mitleid muss man vor allem mit den zahlreichen mittelständischen und kleinen Unternehmen haben, die sich keine spezialisierten Rechtsabteilungen leisten können. Damit nicht genug: Die Entwicklungsabteilungen (falls noch vorhanden) müssten gründlich geschult werden oder besser eine Schere in den Kopf implementiert bekommen, damit sie bei ihren Plänen (falls sie sich noch trauen, welche zu schmieden) nicht Projekte anleiern, die ihre Unternehmen später teuer zu stehen kommen. Denn erbarmungslos präzise wird die EU-Verordnung, wenn es um Strafen geht.

Sanktionswut und Verbote

Sanktionen sind zum Lieblingsinstrument der Politik herangereift. Daran hat auch der zweifelhafte bisherige Erfolg nichts geändert. Sanktionen haben leider das Potenzial unkalkulierbarer Nebenwirkungen.

Ein ganzes Kapitel (XII) widmet sich in drei Artikeln (99 bis 101) dem Thema, differenziert nach den zahlreichen formal möglichen Regelmissachtungen. Abschreckend die Obergrenze von 35 Mio € oder 7 Prozent des Vorjahresumsatzes des betroffenen Unternehmens, je nachdem welche Summe höher ist. Abstufungen entlang der kompletten Lieferkette, von der Entwicklung über die Betreiber und Händler bis zu den Anbietern. Wer in dieser Kette das Sagen hat, dem sei angeraten „nichts ohne seinen Anwalt“ zu unternehmen.

Wir kennen das Spiel schon von der Datenschutz-Grundverordnung. Die Nebenwirkungen dieses Gesetzeswerkes sind an dem Belästigungsgefühl der Benutzerinnen und Benutzer, der Absicherungswut der Betreiber mit ihren umfangreichen Rückverscherungen, der wachsenden Politikverdrossenheit und der verdorbenen Lust am Europa der EU mit ihren über 60.000 Beschäftigten der Kommission mit ihren zahlreichen Institutionen und Organen.

Verwaltungsirrgarten

Anfang 2025 wird die EU-Kommission schon einmal mit Verboten von KI-Systemen anfangen, die nach ihrer Meinung manipulative oder täuschende Techniken einsetzen. Im August 2025 sind dann die Allzweck-KI-Modelle, die Chatbots und Artverwandten darn; ihre Betreiber müssen Verhaltenskodizes vorlegen.

Die EU-Mitgliedstaaten müssen bis dahin nationale Behörden für die Marktbeobachtung gebildet haben. Prüfstellen für die Betreiber von KI-Hochrisikosstemen müssen aufgebaut sein. Harte Verbote wie für die Emotionserkennung am Arbeitplatz oder die Bewertung von Sozialverhalten (social scoring) sind 2027 fällig, Details alles noch offen, genügend Zeit für die Lobbyorganisationen.

Viele Richtlinien sind zu erarbeiten. Institutionen, Kommissionen und Offices einschließlich Beschwerdestellen für Bürgerinnen und Bürger sind einzurichten. Alles aufzuzählen würde Seietn füllen.

Die Kommsiion hat sich auch selber nicht vergessen, sie muss neue Gremien schaffen und besetzen, darunter einen Ausschuss für Künstliche Intelligenz, eine wissenschaftliche Kommission und noch viele weitere.

Innovationsbremse

Politiker betonen immer wieder, dass sie Innovationen fördern, „den Einsatz von Künstlicher Intelligenz sowohl in Wirtschaft und Verwaltung als auch in der Gesellschaft konsequent voranbringen“ wollen. Aber was bewegen sie wirklich?

Lange Rechtsunsicherheit, unklare Zuständigkeiten und aufwendige bürokratische Prozesse in der Umsetzung des AI Acts würden europäische KI-Innovation behindern, orakelt BitCom-Präsident Ralf Wintergerst pünktlich zum Inkrafttreten des AI Act.

Klassifizierung nach Gefährdungsstufen, zahlreiche Dokumentationspflichten und eventuell vorzunehmende Folgeeinschätzungen sind mit administrativer Arbeit verbunden.

Illusionäre Transparenzvorschriften sind weitere Hürden, gerade bei den etwas anspruchsvolleren Systemen der generativen KI:

  • Wie will man die vorgeschriebene Qualitätsbewertung des Trainingsmaterials hinbekommen anbetracht von Milliarden verwendeter Quellen,
  • oder die Regeln offenlegen, wie die Systeme zu ihren Ergebnissen kommen, anbetracht der Tatsache, dass die Algorithmen ihr Output auf der Grundlage von Statistik und Wahrscheinlichkeit ermitteln, in Abhängigkeit von der jeweiligen Benutzeranfrage?

Zu den Nebenwirkungen der gut-gemeint-schlecht-gemacht-EU-Politik gehört der indirekte Vorteil für große Firmen, die mit dem erhöhten Verwaltungsaufwand gut klar kommen, während der umfangreiche Regulierungsaufwand kleinere Firmen vor ernsthafte finanzielle und organisatorische Probleme stellt. Folge: Die Machtkonzentration der Hyperscaler wird weiter zunehmen.

Der Rest der außereuropäischen Welt wird mit Begeisterung auf das epochemachende Regelwerk sehen, das eine neue Marke setzen will für eine KI mit dem besten Datenschutz aller Zeiten. Oder aber staunend zuschauen, wie sich die EU selber aus dem Orbit kickt. Die Amerikaner und Chinesen wir es erfreuen.

Man denkt an die Echternacher Springprozession: Zwei Schritte vor, drei Schritte zurück (sorry, das war im Original wohl umgekehrt).

Alles in allem: Für Europa nicht die athmosphärischen Bedingungen, sich darauf zu freuen, wie eine neue Technik neue Möglichkeiten schafft.

Politikversagen

Die Künstliche Intelligenz und die Politik: Treffen auf einem blinden Fleck. Zu wenig Technik-Sachkenntnisse bei den Kommissionspolitikern sind den Lobbyisten aller Couleur ihr Liebstes. Die Trends setzen die Platzhirsche weiter nach eigem Gusto.

Zwei von vielen Beispielen:

  • Die Belästigung mit Cookies

    Man hätte z.B. erlauben können, dass Coocies, die nur die Verbindung des Benutzerbrowsers zu seinem aktuellen Internetserver während einer Session aufrecht erhalten, zustimmungsfrei erlaubt ist und das Abgreifen aller anderen Benutzerinformationen der ausdrücklichen Zustimmung nur für einen überprüfbar klar benannten Zweck erlaubt ist - hätte der Benutzerschaft viel Frust und Verdruss erspart. Datenschutz wird nun immer mehr als Belästigung empfunden - muss man also nicht ernst nehmen.

  • Chatbot statt Suchmaschine

    Wenn Chatbots das Geschäft der früheren Suchmaschinen übernehmen (wie z.B. mit SearchGPT von OpenAI beabsichtigt), werden Quellenfunde mit Meinungen vermischt. Über die Milliarden-Dollar-Ressourcen, solche Systeme zu trainieren, verfügen nur die BicTec-Konzerne, und sie werden damit zum Trendsetter der auffindbaren Informationen und Meinungen. Dabei hilft ihnen die ungebremst schnell wachsende Flutung des öffentlichen digitalisierten Datenbestandes mit seinen zahlreicher werdenden Wiederholungen und Aufblähungen. Die gesellschaftlichen Folgen sind eine Verschiebung der Koordinaten von Aufklärung in Richtung Verdummung. Ahnungslos schaut die EU-Kommission der Entwicklung zu. Ihr politisches Repertoire scheint sich auf Sanktionen (kann sie gut) und Subventionen (macht sie gerne) zu beschränken.

War der EU- AI-Act nun der große Wurf? Oder wird doch nur Politik weitergemacht in Demokratie-Ersatzveranstaltungen, die sich Talkshows nennen? Politiker jedenfalls können sich auf Hilfestellungen aus ihren Alibi-Einrichtungen verlassen, allen voran die Ethik-Räte. Dort hält man sich Kommissionsphilosophen. Früher waren das die Hofnarren.

 

 

Karl Schmitz August 2024