Maschinenbewusstsein
Der Autor des Buchs mit dem anspruchsvollen Titel ist Ralf Otte, Ingenieur und Professor für Industrialisierung und Künstliche Intelligenz an der Technischen Hochschule Ulm. Seine Forschungsschwerpunkte umfassen u.a. Künstliches Bewusstsein auf Maschinen und Neuronale Netze auf Quantencomputern.
Nach dem Hype um die Chatbots, vorneweg ChatGPT von OpenAI und dem Wettlauf der Big-Tech-Konzerne um das big money mit den überbordenden Phantasien grenzenloser Leistungen tut es gut, eine fundierte Auseinandersetzung darüber lesen zu können, was die hochgelobte Technik wirklich kann und wo ihre prinzipiellen Leistungsgrenzen liegen.
Die Grenzen der Künstlichen Intelligenz
Künstliche Intelligenz ist nach heutigem Stand der Technik nur Software, die auf üblicher Computer-Hardware läuft. Daraus ergeben sich einige grundsätzliche Schranken:
- KI kann nur digital. Ihr Innenleben sind nur Bits und Bytes
- Sie verfügt über keine autonome Wahrnehmung. Ihr muss alles von außen beigebracht werden.
- Sie kann nicht autonom lernen.
- Sie versteht nichts. Ihre Welt muss sie durch Modelle simulieren, in den Grenzen, die durch den Zwang zur digitalen Repräsentation gesetzt sind.
- Sie hat keine Gefühle, kein Bewusstsein und keinen eigenen Willen.
Die Basis der KI-Spitzenprodukte sind Neuronale Netze. Sie sind wichtigen Funktionen des menschlichen Gehirns nachgebaut. Ihre künstlichen Neurone existieren nicht wirklich im Computerinneren, sondern sind nur durch Softwarefunktionen simuliert. Die mit der Reizweiterleitungen in unserem Gehirn beschäftigten Synapsen werden durch Verbindungsgewichte, die sog. Parameter der großen Sprachmodelle, nachgebildet. Das Gedächtnis der Systeme wird aus risieg großen Mengen von Trainingsdaten gewonnen. Die Big-Tech-Firmen wetteifern darin, wer die größten Datenmengen mit den meisten Parametern aufbieten kann, deren Spitzenzahl inzwischen (Stand Herbst 2024) die Billionen-Grenze überschritten hat. Im Klartext heißt das: Der auf der Basis der Trainingsdaten gewonnene Output des Systems wird nach einem trial-and-error-Verfahren mit den „richtigen“ Antworten so lange verglichen, bis eine vom Hersteller bestimmte Fehlergrenze unterschritten wird. Das alles lässt sich (größtenteils) maschinell abwickeln. Dabei versucht das System immer wieder mit Hilfe von Statistik und Wahrscheinlichkeitsrechnung das für den Benutzer nützlichste Ergebnis zu finden. Das Ganze passiert einige Millionen bis Milliarden Male. Jedes Mal werden Milliarden bis Billionen Verbindungswerte, die sog. Parameter, neu berechnet, bis man mit dem Ergebnis zufrieden ist.
Wenn Sie technikaffiner Leser dieses Textes sind, verzeihen Sie bitte diese stark vereinfachte Darstellung. Die Verfahren sind inzwischen im Detail sehr ausgetüftelt, aber folgen im Prinzip dem beschriebenen Grundmuster.
In diesen Verfahren erkennt man auch schon die Probleme:
- Wenn die Trainingsdaten nicht repräsentativ für das Anwendungsgebiet sind, gibt es schlechte Ergebnisse. Am schwersten tun sich damit die Chatbots, die ja den Anspruch haben, jede beliebige Frage beantworten zu können. Bei hochspezialisieren Anwendungen, z.B. Muster in Röntgenaufnahemen erkennen zu können, funktioniert das Verfahren bewundernswert gut.
- Innerhalb ihrer Trainings-Domain können die Systeme interpolieren, also auch Fragen bearbeiten, deren Antworten sich nicht in der Trainings-Datenmasse befinden, wohlgemerkt nach den Regeln der besten Wahrscheinlichkeit.
- Datenmangel: Weil die Ergebnisse mit den Regeln der Statistik und Wahrscheinlichkeit ermittelt werden, sieht man auch das nächste Problem: Hat man zu wenig Daten, so wird das Ergebnis schlecht. Und man hat immer zu wenig Daten.
- Beschäftigt man die Systeme mit Anliegen außerhalb des Bedeutungsumfangs ihrer Trainingsdaten, müssen sie extrapolieren. Da ihnen geeignete Daten fehlen, können sie nur noch raten, im Technik-Schönsprech wird das dann als „halluzinieren“ verharmlost.
- Es gibt Systeme, die täuschen verblüffend echt Gefühle vor. Sie können aber selber nichts empfinden. Sie wurden ähnlich wie die großen Sprachmodelle mit Abertausenden von Gesichtsausdrücken trainiert, wobei Psychologen Schlagworte dafür vergeben haben, was die Mimiken zu bedeuten haben (sog. Tagging). Den Systemen ist es egal, ob sie mit Wortfetzen, Mimiken oder Ober- und Untertönen einer Stimme hantieren - sie verstehen ja ohnehin nicht, was sie tun. Man ahnt aber auch hier, dass verletzte Daten-Repräsentativität und das Tagging das Ergebnis verzerren können.
Menschliche Intelligenz
Der Vergleich Computer-Gehirn war für viele Konstruktionspläne der Neuronalen Netze sozusagen die Blaupause. Doch es ergeben sich wichtige Unterschiede:
- Unser Gehirn arbeitet analog, nicht digital und „rechnet“ nicht.
- Wir sind mit einer autonomen Wahrnehmung ausgestattet. Wir können die Welt außerhalb von uns sehen, hören, fühlen usw - die ganze Palette unserer Sinne steht uns dabei zur Verfügung. Ein Computer kann nicht nach draußen sehen, sóndern muss sich mit einem durch Software erzeugten inneren Modell der Welt zufrieden geben.
- Wir haben einen Verstand und Gefühle. Beides ist daran beteiligt, was den Weg in unser Gedächtnis findet.
- Wir sind erstaunlich lernfähig, können kreativ sein und uns an Umstände anpassen, die wir nie erlebt haben.
- Wir verfügen über ein Bewusstsein und darüber hinaus auch über ein Selbstbewusstsein.
Die kurze Aufzählung zeigt, dass wir mit mentalen Prozessen zu tun haben. Viele Naturwissenschaftler tun sich schwer damit, wenn es um den menschlichen Geist geht - das reicht über die Biologie bis in die Medizin. Die meisten Neurobiologen vertreten die Ansicht, dass das Gehirngewebe den Geist erzeugt, oder dass der Geist eine Begleiterscheinung des Gehirns, ein sog. Epiphänomen ist oder gar sich von selbst ergibt, wenn die Dinge komplex genug sind.
Neuromorphe Systeme
Wenn man unter Bewusstsein die Summe des subjektiven Erlebens aller mentalen Zustände und Prozesse einer Person versteht, fällt die Vorstellung schwer, wie eine Maschine, ein Computer auch nur in die Nähe dieses Phänomens gelangen könnte.
Ralf Otte sieht einen ersten Schritt in Richtung Maschinenbewusstsein in einem Ersatz der rein mathematischen Modelle der Welt durch eine physikalische Lösung in sog. neuromorphen Systemen. Im menschlichen Gehirn sind physikalische Objekte, die Neurone und Synapsen an seiner Leistung entscheidend beteiligt. KI-Computer dagegen müssen heute noch alles durch Software simulieren.
Es geht bei diesen neuen Hardware-Elementen darum, elektronische Bauelemente zu entwickeln, die neuronale Vorgänge im Gehirn durch Widerstände, Spulen, Kondensatoren und Transistoren nachbauen, sog. Memristoren. Es sollen Bauelemente mit Gedächtnis werden, denn die besonders gebauten Widerstände können sich relativ schnell in Abhängigkeit von der elektrischen Ladung verändern und die zeitlichen Veränderungen dieser Zustände berücksichtigen. Die Funktion der Synapsen wäre dann statt als Speicherung von Verbindungswerten direkt in der Hardware realisiert. Solcherart Sensoren könnten z.B. in neuromorphen Kameras verwendet werden. Die Welt müsste in diesen neuromorphen Systemen nicht mehr errechnet werden. Die Bauteile dieser Systeme sind also nicht nur Software, die Gehirnzellen simulieren, sondern Hardware, in denen echte physikalische Größen verarbeitet werden. Auf der Stufenleiter Wahrnehmung - Empfindung - Bewusstsein wären wir der maschinellen autonomen Wahrnehmung einen ersten Schritt näher.
Ralf Otte stellt die Frage, wo in unserem Gehirn die messbaren elektrochemischen Impuse in der Großhirnrinde in Empfindungen umgesetzt werden. Neurologen können den ganzen Weg nachzeichnen, den ein Reiz auf der Netzhaut, seine Umwandlung in elektrische Impulse, die Weiterleitung über den Thalamus zum primären visuellen Cortex der Großhirnrinde und dann an den vetralen und dorsalen Pfad. Aber kein Neurologe kann sagen, wo die Empfindungen zu dem Gesehenen entstehen oder gespeichert sind.
Prof. Otte widerspricht der Mainstream-Meinung, dass das Hirngewebe den Geist erzeugt und nimmt an, dass diesen mentalen Prozessen neben den nachweisbaren elektrischen und chemischen Prozessen im Gehirn eine eigene Existenz zukommt, allerdings mit deutlich anderen Eigenschaften:
- Mentale Prozesse sind grundsätzlich nicht beobachtbar.
- Sie sind energielos.
- Sie haben keine räumliche Ausdehnung.
- Sie speichern mentale Zustände wie Empfindungen und Gefühle in komplexen Wellenfunktionen.
- Sie können mit den physikalischen Prozessen wechselwirken, der Geist kann die Physik beeinflussen.
Ausflug in die Mathematik
Die Fortschritte der Naturwissenschaften und unserer Technik verdanken wir entscheidend der Mathematik. Alle Berechnungen der klassischen Physik lassen sich mit Variablen durchführen, deren Werte in reellen Zahlen darstellbar sind. Bei der Quantenphysik trifft das schon nicht mehr zu. Ihre rätselhaften Phänomene wie die Dualität zwischen Wellenchcharakter und Verhalten als Teilchen lassen sich nur mit komplexen Funktionen darstellen, deren Werte reelle und imaginäre Zahlen umfassen.
Das Verhalten der Elementarteilchen lässt sich nur imaginär beschreiben, sozusagen als Wahrscheinlichkeitswelle für das Auftreten ihrer Eigenschaften. Erst durch Experimente, sprich durch Beobachtung, kann man herausfinden, was wirklich ist, z.B. wo sich ein Elektron befindet. Diese „Beobachtung“ verändert aber die Welt; sie ist eine Wechselwirkung zwischen dem beobachtenden System (das aus Apparatur und den experimentierenden Wissenschaftlern besteht). Das alles beschreiben die Wellenfunktionen der Quantenphysik.
Prof. Otte und Kollegen haben die Mathematik der komplexen Wellenfunktionen um zwei weitere imaginäre Dimensionen erweitert und meinen damit die Grundlagen geschaffen zu haben für die Beschreibung geistiger Prozesse. Wenn man nun beweisen könnte, dass es eine Möglichkeit von Wechselwirkungen gibt zwischen diesen hyperkomplexen Funktionen und den Funktionen, die unsere beobachtbare Physik beschreiben, wären wir dem Ziel, Maschinen mit Bewusstsein bauen zu können, einen weiteren Schritt näher. Doch hier stehen wir noch vor einem nicht gelösten Problem.
Detailliertere Informationen finden Sie
hier.
Blick in die Zukunft
Dieses Maschinenbewusstsein wäre ein völlig anderes Bewusstsein als wir es von uns oder von Tieren kennen, denen unsere Biologen ebenfalls ein Bewusstsein zubilligen. Neuromorphe Maschinen mit Bewusstsein wären weder willens- noch leidensfähig. Wenn man davon ausgeht, dass Gefühle sowohl den Geist als auch den Körper betreffen, so kann man den neuromorphen Systemen keine Gefühlsfähigkeit zusprechen. Dazu müssten die Systeme ihre Wahrnehmung auch bewerten können. Neuromorphe Computer bleiben aber unbelebte Materie und haben keine Option, Handlungen aktiv auszuführen. Sie werden niemals etwas aus sich selbst heraus wollen können. Wenn sie die Welt beherrschen wollten, müsste ihnen dies ein superkluges Programmiererteam schon eingegeben haben. Aus sich heraus können sie keine Entscheidungen treffen.
Wenn wir davon ausgehen, dass Bewusstsein nur von lebenden Wesen ausgebildet werden kann, zeichnet sich die Richtung einer möglichen weiteren Entwicklung ab. Schon seit längerer Zeit werden organische Materialien in der Computertechnik verwendet.
Ein weiterer Schritt stellt die Kombination Neuronaler Netze mit lebenden Zellen dar. In der Biosensorik werden solche Verbindungen schon länger angewendet, um z.B. chemische oder physikalische Veränderungen in der Umwelt zu erkennen oder Organoide, um menschliche Organfunktionen nachzubilden. Auch mit DNA-Molekülen zur Speicherung von Informationen und Durchführung komplexer Rechenfunktionen wurden bereits vielversprechende Erfahrungen gemacht. Doch auch diese Systeme sind nicht in der Lage, ihre erweiterten Wahrnehmungen zu bewerten. Sie können also keine Gefühle entwickeln. Für diese Verschmelzung biologischer und technologischer Komponenten hat sich schon der Fachbegriff Transorganismen durchgesetzt.
Ralf Otte teilt die Meinung, dass die Verknüpfung von biologischen Zellen mit KI-Systemen viele Chancen eröffnen kann und nennt als Beispiel das maschinelle Sehen. Eine Verschmelzung von technischen Systemen mit biologischen Systemen in sog. Transorganismen ist heute noch Spekulation, doch dann könnten möglicherweise KI-Systeme von lebenden, gefühlsfähigen Zellen gesteuert werden. Durch die mögliche Leidensfähigkeit biologischer Zellen ergäben sich unkalkulierbare Konsequenzen beim Einsatz in Kombination mit KI-Systemen. Schon bei sehr einfachen Ausprägungen wie der gefühlsmäßigen Entscheidungsmöglichkeit zwischen positiv und negativ wären die Systeme in der Lage, auch autonom handeln zu können und könnten alle Hebel in Bewegung setzen, um für sie negative Wahrnehmungen zu vermeiden. Wir hätten es dann mit Computern mit eingebauten Willensprozessen zu tun. Niemand kann vorhersagen, was passieren würde, wenn man ein paar hunderttausend solcher willensfähiger Elemente zusammenschaltet, so dass sie miteinander interagieren können.
Man hat schon Ende 2020 mit sog. Xenobots experimentiert. Diese syntetischen biologischen Roboter, aus Stammzellen des afrikanischen Krallenfroschs (Xenopus lauvis - daher der Name Xenobots) gebildet, wurden mit Mikrowerkzeugen kombiniert und brauchen nur noch in nächster Stufe mit KI-Systemen zusammengeschlossen zu werden, um zu echten Transorganismen zu werden. Ralf Otte spricht sich wegen der völligen Unkalkulierbarkeit der Folgen bereits jetzt für ein prophylaktisches Verbot der Herstellung solcher Systeme aus. Jedweder Einsatz von biologischen Zellen sollte bis zum Beweis des Gegenteils als kritische angesehen werden.
Heute übliche Neuronale Netze sind schon kaum noch fähig, transparent darzustellen, wie sie zu ihren Ergebnissen kommen. Haben wir mit Systemen zu tun, die biologische Elemente mit der Fähigkeit zu mentalen Prozessen enthalten, bewegen wir uns im Bereich der grundsätzlichen Unmöglichkeit, den Ablauf dieser Prozesse zu beobachten oder gar zu messen.
Die nächste Stufe ist der Transhumanismus, die Aufrüstung des menschlichen Gehirns mit KI-Technik. Elon Musk mit seiner Firma NeuraLinks propagiert Gehirnimplantate, begründet u.a. mit dem Argument, sie würden allein schon deshalb erforderlich, damit Menschen mit immer leistungsfähiger werdender Technik Schritt halten könnten um konkurrenzfähig zu bleiben.
Für Brain-to-Computer-Interfaces dagegen zeichnen sich im medizinischen Bereich nützliche Anwendungen ab, Vorsicht sei aber geboten, sie in beliebigen anderen Bereichen einzusetzen. Wirklich gefährlich wird es, wenn lebende Zellen in KI-Systeme integriert werden. Damit würden unkalkulierbare Risiken eingegangen, der Weg zur Erschaffung von Mensch-Maschine-Monstern wäre offen.
Erwartungen an die Politik
Zum Schluss des Buchs stellt der Autor die Frage, was konkret zu tun sei, um die Risiken der KI mit Bewusstsein zu beschränken und die Gefahren für die Menschheit zu reduzieren. Die Ratschläge:
- Klare gesetzliche Regelungen, national und international, mit Durchsetzungskraft
- die Macht der BigTech-Konzerne begrenzen
- Kritische Geschäftsfelder verbieten, v.a. im Bereich der Vollautomatisierung (Flugzeuge, Waffen) und für alle Geschäftsfelder, die das Potenzial haben, Menschen zu schädigen und zu töten
- Selbsbeschränkung für Entwickler, nicht alles zu tun, was technisch machbar ist
- Besondere Beobachtung der Verbindung von KI mit Biologie
- Staatlicher TÜV für Maschinenbewusstsein und regelmäßige Überprüfung der Herstellerangebote
- Refornm des Bildungswesens für besseres Verständnis der Technik und
- Verpflichtung der Medien zur Aufklärung über die Gefahren und Risiken.
Das alles ist gut und richtig und - sehr allgemein. Die im Schlusskapitel namentlich erwähnten Personen, Springer-Chef Mathias Döpfner und EU-Kommissionspräsidentin Ursula von der Leyen muss man sicher nicht als die Lichtgestalten ansehen, von denen hilfreiche Unterstützung zu erwarten ist, Ethik-Räte mit ihren Kommissionsphilosophen auch nicht und erst recht nicht die Medien, die sich freiwillig dem Mainstream der Meinungen unterworfen haben. So bleiben wir im Regen stehen, uns bleibt - auch wenn Ralf Otte diesen Pessimismus nicht teilt - nur die Hoffnung auf besseres Wetter:
- Die führenden KI-Firmen setzen auf immer mehr BigData. Das wird schnell zu teuer, die Aufwand-Ertrag-Bilanz wird immer schräger, keiner will das mehr bezahlen.
- Schnell groß gewordene und immer größer werdende Unternehmen verlieren deutlich ihre Innovationskraft. Vampierartig einverleiben sie sich Kreativität durch Auffressen von kleinen neuen Firmen (meist StartUps).
- Vielleicht schafft es die Politik doch noch, die Macht der zu groß gewordenen Konzerne zu verkleinern.
- Hoffnung auf die Überlegenheit einer neuen KI-Technik, die mit vergleichsweise geringen Datenmengen auskommt und bezahlbar ist, vielleicht mit neuromorphen Computern.