Mentale Folgen

Was macht der vermehrte Einsatz Künstlicher Intelligenz mit unserem Geist?

Manfred Spitzer hat 2017 in einem Buch mit dem Titel Cyberkrank vor einem alarmierenden Krankheitsmuster gewarnt: Digitalen Medien übernähmen die Kontrolle von immer mehr Lebensbereichen. Das Fixiertsein auf den Bildschirm begrenze die Wahrnehmung auf nur einen Medienkanal. Permanentes Multitasking verursache Konzentrationsstörungen. Stress, Empathieverlust, Depressionen sowie Schlaf- und Aufmerksamkeitsstörungen seien die Folgen. Zwei Jahre später hat er in einem Buch mit dem Titel Einsamkeit die nächste Stufe dieser Krankheit beschrieben.

Don Norman hat im Jahr 1988 den Klassiker The Design of Everyday Things (deutscher Titel: Dinge des Alltags) geschrieben. Das Buch befasst sich unter anderem mit der Gestaltung von Softwaresystemen. Bereits damals hat er vor der schleichenden Seuche der Leistungsmerkmale gewarnt. Gemeint ist das immer weiter fortschreitende Vollstopfen von Softwaresystemen mit überbordender Funktionalität, die niemand wirklich braucht. Epochemachend sein Mantra: Software ist dann gut, wenn man nicht merkt, dass man mit einem Computer arbeitet.

Schauen wir uns die Situation heute an. Von Don Normans Mantra haben wir uns gründlich entfernt. Die Folgen des Cloud Computing, genauer des dahinter stehenden Geschäftsmodells bezahlt wird nach Traffic hat zwei wichtige Folgen:

  • Bindung an die Geräte: Benutzerinnen und Benutzer werden zunehmend an ihre Computer gebunden, gleich ob Desktop, Notebook, Tablet oder Smartphone. Jeder Klick löst einen Request an das Hintergrundsystem in der Cloud aus, auf den mit einem Datentransfer geantwortet wird. Und jedesmal klingelt die Kasse der Service-Provider. Es ist zu erwarten, dass eine fortschreitende Nutzung der Chatbots die Bindung an die Geräte weiter verstärken wird.
  • Verlust von Autonomie: Das Aufkommen der Personal Computer in den frühen 1980er Jahren wurde begriffen als Befreiung vom Diktat der Großrechnersysteme, Modell Computer als Maschine, Benutzerinnen und Benutzer in der Bedienerrolle. Computer als Werkzeug war das neue Konzept der Personal Computer: Das Individuum wieder in Szene setzen, den Menschen ein mächtiges Tool an die Hand zu geben, ihre Arbeit selbstbestimmter zu realisieren. Dieser Trend hat sich wieder umgekehrt: Die Workflows der zentralen Systeme nehmen die Benutzerinnen und Benutzer ans digitale Gängelband. Am Ende der Kette steht das Betreute Arbeiten: Den Beschäftigten wird von den Systemen gesagt, was sie als Nächstes zu tun haben.

Das KI-Neuland

Künstliche Intelligenz, vor allem die Chatbots haben ein neues El Dorado der individuellen Freiheit versprochen.

Was meint die Metapher vom „El Dorado“?

ChatGPT: Die Metapher vom "El Dorado" bezieht sich auf die Vorstellung von einem mythischen, sagenumwobenen Ort, der reich an Gold und anderen Schätzen ist. Historisch gesehen wurde El Dorado oft mit dem Streben nach Reichtum und Wohlstand in Verbindung gebracht.

Im übertragenen Sinne wird die Metapher vom „El Dorado“ oft verwendet, um auf einen Ort oder Zustand hinzuweisen, der als ideales Ziel oder als Ort des Überflusses betrachtet wird. Es kann auch auf die Suche nach etwas beziehen, das als äußerst begehrenswert oder perfekt angesehen wird, aber möglicherweise schwer zu erreichen ist.

Gemini: Heutzutage wird die Metapher "El Dorado" verwendet, um verschiedene Dinge zu beschreiben, wie zum Beispiel

  • Einen Ort, an dem man große Chancen hat: Ein Ort, an dem man große Erfolge erzielen kann.
  • Einen Ort, der voller Schönheit und Wunder ist: Ein Ort, der an Faszination und Mystik nicht zu überbieten ist
  • Einen Ort, der voller Reichtum und Luxus ist: Ein Ort, der ein Leben in Saus und Braus ermöglicht.

Alles ist easy, man kann sich in natürlicher Sprache mit dem Computer ins Benehmen setzen. Schnelle Antworten sparen Zeit und lästiges Tippen, das Ganze sprachgesteuert erhöht nochmals den Komfort. Lästige Arbeiten lassen sich automatisieren. Brauchbare Zusammenfassungen komplizierterer Texte erfreuen nicht nur Studierende bei ihren Hausarbeiten. Keine unaufmerksamen Rechtschreibefehler mehr. Viele Vorteile.

ChatBot-Implikationen

Die Chatbot-Anwendungen beruhen auf den Large Language-Modellen der großen Anbieter (OpenAI/Microsoft, Google usw.), auch wenn sie firmenspezifisch erweitert wurden. Folglich unterliegen sie auch den Restriktionen der Anbieter:

  • Die von den Systemen benutzten Daten (einschließlich der Trainingsdaten) enthalten Verzerrungen, die in der Auswahl dieser Daten begründet liegen (Benachteiligung von Frauen, ethnischen Minderheiten usw.). Sie werden sich wegen der zu erwartenden Zunahme von durch KI erzeugte Internetseiten weiter verstärken.
  • Manipulation durch die Korrekturprogramme der Big-Tech-Firmen (Filterung unerwünschter Inhalte, political-correct-Guidelines, Anwendung von Compliance-Regeln),
  • Reduktion auf die westliche Welt und ihren Werte-Kanon, weitgehender bis kompletter Ausschluss der östlichen Hemisphere (China, Russland, die sich dem westlichen Einfluss immer mehr entziehenden Länder wie Indien, Idonesien, die BRICS-Staaten usw.), leichtsinnig anbetracht des schnell fortschreitenden Ausgleichs der technologischen Differenzen zwischen den Blöcken.

Arbeitsplätze

Management-Befragungen um die Jahreswende 2023/24 förderten Erwartungen um Rationalisierungvorteile und damit verbundene Einsparungen von Arbeitsplätzen auf den Spitzenplatz. Das wird nicht so kommen, wie es für die Management-Top-Etagen schöngeredet wird, aber sehr branchenspezifisch ist ein großer Teil der Arbeitsplätze direkt oder mittelbar betroffen. Menschen, die rechtzeitig gelernt haben, kompetent mit den neuen Instrumenten umzugehen, werden sich sicherlich keine Sorgen um ihre Beschäftigung machen müssen. Anders sieht es für Experten aus, die sich nicht um die Tools gekümmert haben: Sie werden mit ziemlicher Sicherheit ihren Arbeitsplatz verlieren.

Hauptsächlich betroffene Bereiche für die zu erwartenden Veränderungen sind:

  • Alle Arbeitsfelder mit einem hohen Anteil an routinehaften und sich wiederholenden Arbeitsschritten; dies sind die hervorragenden Kanditaten für Automatisierung. Chatbot-ähnliche Anwendungen lassen sich gut in traditionelle Workflows integrieren oder mit ihnen verbinden.
  • vorneweg die Medienbranche und alle Branchen, deren Geschäft ganz oder großenteils auf Werbung beruht. Die Arbeitsabläufe dort erfüllen in weiten Teilen das vorgenannte Kriterium.
  • Einen kurzen Überblick über weitere besonders betroffene Bereiche finden Sie hier.

Arbeitsinhalte

Als positive Kehrseite wird von den Technnik-Enthusiasten auf das Freistellen für kreative Aufgaben verwiesen. Bevor man sich diesen Optimismus zu eigen macht, sollte man sich aber ins Bewusstsein rufen, dass die Systeme nur Wahrscheinlichkeiten der Wortverteilung ihrer Trainingsdaten kennen und diese dann kombinieren können. Jenseits ihres gelernten Vokabulars ist die Wahrscheinlichkeit für Halluzinationen hoch. Unbestritten können die Chatbots wertvolle Hilfen für neue Assoziationen sein, wenn die Benutzer klug und wissend um diese Defizite mit den neuen Werkzeugen umgehen.

Die Tools sind noch zu neu, um belastbare Prognosen für die praktischen Erfahrungen mit ihnen zu machen. Man darf aber vermuten, dass die weiter fortschreitende Kommerzialisierung des Internets und seine Entwicklung in Richtung Masse statt Klasse über die aktualisierte Auswahl der Trainingsdaten auch Rückwirkungen auf die Qualität des Outputs der Chatbots haben wird.

Mentale Folgen

Zunehmende Bindung an die Geräte, schon vereinzelte Erscheinungsformen einer neuen Sucht, die Verengung der Wahrnehmung auf die digitalen Kanäle einschließlich einer Beeinträchtigung der Aufmerksamkeitsfähigkeit werden die von Manfred Spitzer beschriebenen Phänomene sicher nicht abschwächen. Gerade die Produkte der Generativen Künstlichen Intelligenz, vorneweg die Chatbots, tragen ihre Antworten schnell, in formal hoher Präzision und Sicherheit vor, was viele Nutzerinnen und Nutzer verleitet, alles für bare Münze zu nehmen. Googles Bard hatte zwar noch vor Halluzinationen gewarnt, Gemini macht das jetzt auch noch, in 5 Punkt großer Schrift:

Gemini zeigt möglicherweise fehlerhafte Informationen an, z. B. zu Personen. Prüfe daher die Antworten noch einmal.

ChatGPT meint etwas bescheidener:

Chat GPT kann Fehler machen: Überprüfen Sie wichtige Informationen.

Abgesehen von dieser Warnung im Kleingedruckten suggerieren die Systeme verlässliche Richtigkeit der von ihnen präsentierten Ergebnisse. Den meisten Benutzerinnen und Benutzern ist nicht bekannt, wie hoch die Gefahr der „Halluzination“ ist. Schließlich beruhen die Ergebnisse auf dem Tatbestand, dass Text-, Bild-, Video- oder Tonfetzen der digitalisierten Welt in eine Form gebracht wurden, mit der Computer gut umgehen können und dann nach den von den Systemen interpretierten Benutzerwünschen neu kombiniert werden. Über Dinge, die die Systeme in ihren Trainingsdaten nicht gesehen haben, können sie nur auf der Basis von Analogien aus den im Training gelernten Mustererkennungen Antworten geben, mit allen Unsicherheiten dieses Verfahrens. Inwieweit die mit dem Eindruck von Sicherheit und Verlässlichkeit erfolgende Ergebnispräsentation die Empfänger von eigener Reflexion und kritischem Blick abhällt, wird sicher noch Gegenstand zukünftiger Studien sein.

In einer internationalen Studie der Boston Consulting Group vom Septemer 2023 wurden 750 Berater der Unternehmensberatung über ihren Umgang mit ChatGPT-4 befragt. Die Highlights:

  • Rund 90 Prozent der Teilnehmer gaben an, ihre Leistungen verbessert zu haben, wenn sie GenAI für die kreative Ideenfindung verwendeten, allerdings nur dann am besten, wenn sie nicht versuchten, den Output von GPT-4 zu bearbeiten.
  • Bei der Erledigung normaler Geschäftsaufgaben sei die Produktivität aber um 23 Prozent zurückgegangen.
  • Ähnlich wie bei Navigationssystemen bestehe die Gefahr, sich zu sehr auf die Technologie zu verlassen und so Fähigkeiten zu verlieren, die einmal vorhanden waren.
  • Die KI-Nutzer neigten dazu, ihr Gehirn „abzuschalten“ und ihr „Urteilsvermögen an die KI auszulagern“.  70 Prozent der BCG-Berater in der Studie befürchteten, dass die Verwendung von ChatGPT ihre kreativen Fähigkeiten mit der Zeit ersticken würde.
Man muss die Meinung von Technik-Pessimisten nicht teilen, dass der vermehrte vor allem kritiklose Gebrauch der Tools zur Abstumpfung des eigenen Geistes führt. Bekannt ist jedoch, dass Hirnareale für Fähigkeiten, die nicht mehr benötigt werden, zurückgebildet werden. Mediziner und Neurologen werden sich mit den Langzeitfolgen noch zu befassen haben.

Ein anderer Aspekt ist sicher weniger umstritten: bei unternehmensinternen Rahmenbedingungen, die Zeitdruck und Intensivierung der Arbeit fördern, ist mit abnehmender Sorgfalt bei der Arbeit zu rechnen. Im Sinne kommunizierender Röhren löst dies wachsenden Druck auf die Überwachung der Arbeit aus, die sich dank des immensen technischen Fortschritts hochgradig automatisieren lässt.

Der wirtschaftliche Druck, dem sich insbesondere die Anbieter der Generativen Künstlichen Intelligenz selber aussetzen, verleitet sie dazu, die Datenbasis ihrer Systeme in immer schnellerem Tempo zu aktualisieren. Die dann erforderlichen Nachtrainings bauen auf den Trainingsstrategien der Vergangenheit auf, sind also im Vergleich zum Basistraining der Systeme oberflächlicher - und kritikloser gegenüber neuen Verzerrungen. Die mangelnde Transparenz der Anbieter wird im Zusammenhang mit der politischen Debatte um die Regulierung der Künstlichen Intelligenz eine unvermeidliche Rolle spielen.

Die vor allem in die kommerziellen Software-Instrumente eingebauten KI-Elemente lassen zudem eine neue Übergriffigkeit erkennen. Allzu oft sagen die Systeme den Benutzerinnen und Benutzern, was sie als nächstes tun sollten, zunächst als „Vorschläge“ verpackt, aber erkennbar mit Compliance-Überwachungen kombiniert.

Einem permanent eingeschalteten kritischen Blick auf die Ergebnisse entziehen sich - zumindest in der alltäglichen Praxis - die in die Systeme eingebauten Vorurteile und nicht offen gelegten Wertorientierungen. In Form einer de-facto-Dauerberieselung kann man erwarten, dass sie meinungsbildend wirken im Sinne eines main streams mit enger zusammenrückenden Ufern. Sicher, das alles ist heute - Stand Anfang 2024 - nicht erwiesen.

Apples Einstieg in die Virtualität mit Mixed Reality bzw. Spacial Reality (Apples Produkt Visual Pro) dürfte wenig geeignet sein, die beschriebenen Trends abzumildern, geschweige denn umzukehren. Die Bereicherung von Videokonferenzen mit noch mehr Virtualität verstärkt die Kluft zur erlebten Realität, auf jeden Fall, wenn sie zum new normal erklärt werden sollte. Um die „Erweiterung“ sinnlicher Wahrnehmung durch Implantation von Errungenschaften aus Elon Musks Firma Neuralink machen wir jetzt lieber einen großen Bogen. Diese Innovationen sind sicher hilfreich in Situationen, in denen sonst nichts mehr geht, für kurze Zeiten alles erträglich, doch ihre Integration in die Alltäglichkeit ist eher das Ticket für neue Probleme sinnlicher Perturbanzen.

Die Steuerung von Anwendungen per Eye Tracking wird selbst von den Anbietern als gewöhnungsbedürftig bezeichnet. Ob die Einbindung von digitalen Avataren Zusammenarbeit eher behindert oder sie fördert, bleibt weiter umstritten. Hier positive Folgen für Kreativität und Intuition zu sehen, dürfte selbst eine Herausforderung für die Kreativität sein.

Nicht unbedingt zum Guten habe KI-generierter Programmcode die Software-Entwicklung verändert, sorgt sich die Computerwoche (15.2.2024) und meint, dass der so erzeugte Code eher an die Arbeit einer Aushilfskraft erinnere. Diese - wohlwollend ausgedrückte - Flucht in die Mittelmäßigkeit ist überall dort anzutreffen, wo kommerzielle Interessen die Intentionen kluger Menschen überlagern, hier: Die erhoffte Zeit- und Kosteneinsparung, eine Entwicklung, die schon mit den LowCode- und NoCode-Konzepten ihren Anfang nahm.

Google kündigt an, mit Gemini Nano (für Smartphones) gesprochene Sprache aus einem längeren Meeting, einer Vorlesung oder einem Interview aufzuzeichnen und in Echtzeit in schriftliche Form umzuwandeln und außerdem ohne Zeitverzögerung kompakte Zusammenfassungen zu erstellen. Microsoft hat das für sein Produkt Copilot ebenfalls versprochen und schon in Teilen umgesetzt. Der zu erwartende Zeitgewinn ist beeindruckend, doch auch der Verlust an Reflexion, der Verzicht auf Nachdenken wird die Arbeitswelt nachhaltig verändern.

Perspektiven

Möglicherweise halten sich die genannten Befürchtungen in Grenzen, denn ein Abklingen der gehypten Begeisterung zeichnet sich bereits ab. Frustrationen ob der ausbleibenden Verbesserungen und der drohenden Kommerzialisierung der Tools machen sich bemerkbar.

OpenAI scheint sich für den Weg entschieden zu haben, mit noch größeren Datensätzen, noch mehr Trainingsparametern und weiter gesteigerter Rechnerleistung seine derzeitige Marktführerschaft zu festigen. AI-Chef Sam Altman investiert heftig in Quantenncomputer (für mehr Rechnerleistung) und Fusionstechnik (für mehr Energie). Inzwischen werden aber Zweifel laut, ob dieser Weg zu einer Qualitätsverbesserung und zu mehr Verlässlichkeit und Sicherheit der KI-Tools führen wird. Man wird sehen.

 

Karl Schmitz Februar 2024