Kurzfassung

Hier geht es um das Hard Problem of Conciousness: Wie entstehen Empfindungen aus wahrgenommenen Signalen? Die verschiedenen theoretischen Ansätze der Bewusstseinsforschung werden dargestellt: Neuronale Korrelate, die Global Neuronal Workplace-Theorie, die Integratet Information Theory und der Panpsychismus einschließlich einer kurzen Erörterung, ob und wie weit quantenphysikalische Prozesse eine Rolle spielen. Es bleibt die Frage, was die Technik der Künstlichen Intelligenz mit diesen Erkenntnissen anfangen kann.


Theoretische Hintergründe zum Thema Bewusstsein


Quelle: ChatGPT

Wir sind nochnnicht weit gekommen, um das Problem unseres Bewusstseins so zu vertehen, dass wir gemäß dem Anspruch der Künstlichen Intelligenz eine Maschine bauen können, die annähernd Ähnliches leisten kann wie unser Geist (Dartmouth Summer Reseach-Projekt von 1956).

Der nicht gefundene Stein der Weisen ist die fehlende Antwort auf die Frage nach dem Hard Problem of Consciousness (David Chalmers), der Frage, warum und wie physikalische Prozesse im Gehirn subjektives Erleben („Qualia“) erzeugen. Manche Neurowissenschaftler meinen zwar, die physikalischen Vorgänge bei einfachen Problemen (Easy Problems) wie Wahrnehmung, Aufmerksamkeit und Gedächtnis erklären zu können, aber nicht das Erleben des Wahrgenommenen.

Neuronale Korrelate (NNC)

In diesem Zusammenhang ist oft die Rede von neuronalen Korrelaten (NCC). Mit den NCC sind die teilweise messbaren, mit bildgebenden Verfahren der Neurologie (fMRT- und EEG-Scans) sichtbar machbaren Aktivitätsmuster in bestimmten Hirnarealen gemeint. Sie zeigen, wo Gehirnprozesse bei bewusster Wahrnehmung, beim Nachdenken und bei Gefühlen stattfinden. Sie können aber nicht erklären, warum sie subjektives Erleben erzeugen. Dennoch meinen manche Hirnforscher, dass diese Korrelate in direkter Verbindung mit Bewusstsein stehen und man eines schönen Tages Bewusstsein vollständig durch physikalische Prozessse erklären kann.

Global Neuronal Workplace (GNW)


J.P. Changeux und S. Dehaene

Nicht ganz so weit geht die Global Neuronal-Workplace-Theorie (GNW). Diese sehr verbreitete Theorie geht auf den französichen Molekulatbiologen Jean-Pierre Changeux und Neurobiologen Stanislas Dehaene zurück. Sie behauptet, dass Bewusstsein sich aus der Komplexität der Informationsverarbeitung in vernetzten Gehirnregionen ergibt und so das Erleben des Wahrgenommenen ermöglicht. Die in verschiedenen Regionen massiv parallel verarbeiteten und verbreiteten Informationen stünden in einem permanenten Wettbewerb mitreinander. Nur wenige, die am stäkstenaktivierten Reize gewinnen die Aufmerksamkeit. Sie sind so wichtig, dass sie es in den von dieser Theorie erfundenen "globalen Neuronalen Workspace" schaffen. Jetzt werden sie über das stark vernetzte Netzwerk von Neuronen über verschiedene Gehirnregionen verbreitet und sollen nun für kognitive Prozesse verfügbar sein, also für Sprache, Gedächtnis, Entscheidungsfindung und vor allem bewusste Wahrnehmung.

Bewusstsein ist damit zwar nicht erklärt, auch nicht, wie die Selektion der Informationen nach Wichtigkeit erfolgt. Aber immerhin meinen die Vertreter dieser Theorie, einen Beitrag für die Lösung des Easy Problem of Conciousness geleistet zu haben. Beweis dafür seien die messbaren elektromagnetischen Wellen mit einer Frequenz um 40 Herz, die sog. Gamma-Oszillationen. Diese werden durch synchronisierte Feuer-Muster der masssenhaft aktivierten Neurone bei verstärkter Hirnaktivität erzeugt.

Wir sehen: noch reichlich Nebel beim Stapfen durch das Wattenmeer.

Die Integrated Information Theorie (ITT)


Giulio Tononi

Der von dem Psychiatrie-Professor Giulio Tononi entwickelte Theorie liegt die Annahme zugrunde, dass Bewusstsein eine intrinsische Eigenschaft komplexer Informationssysteme sei. Nach dieser Theorie entsteht Bewusstsein nur, wenn Teile eines Systems so miteinander verbunden sind, dass sie nicht unabhängig voneinander existieren können und die in einem System enthaltene Information mehr ist als die Summe seiner einzelnen Teile. Dafür hat Tononi auch gleich eine Metrik entwickelt, die er mit dem griechischen Buchstaben Phi (Φ) bezeichnet hat. Dieses Phi soll den Grad integrierter Information eines Systems angeben, also den Anteil, der über die Summe der Einzelteil-Informationen hinaus geht. Bewusstsein ist nicht ein Attribut, eine Eigenschaft von irgendwas, sondern existiert für sich selbst und ist, so Tononi, nicht an biologische Systeme wie unser Gehirn gebunden. Der integrierte Informationsanteil eines Systems ist dann ein Maß für Bewusstsein. So gibt es Dinge, wie z.B. ein Stein mit sehr geringem oder keinem Φ, eine Ameise mit einem kleinen Φ und damit einem geringen Bewusstsein und das menschliche Gehirn mit einem superhohen Φ.

Die mathematische Formulierbarkeit des Phi lässt natürlich das Herz der Softwareingenieure höher schlagen:

  • Bewusstsein ist nicht auf bestimmte Materialien beschränkt,
  • hängt vom Komplexitätsgrad der Informationsverarbeitung ab und
  • dem Integrationsgrad der Information in das System.

So bestünde die Aussicht, dass bei immer komplexer werdenden Modellen der Künstlichen Intelligenz eine zukünftige KI mit hohem Φ eine Art von Bewusstsein erlangen könnte und damit raus wäre aus dem Vorwurfskeller, doch nur Simulation von Bewussstsein zu sein.

Leider kann man das Φ nicht messen, sondern nur berechnen oder doch nur schätzen, weil für größere Systeme diese Prozedur zu schnell zu komplex würde. Das Hard Problem of Conciousmess bleibt auch hier ungelöst.

Panpsychismus

Einen gewagten Schritt weiter geht die Theorie des Panpsychismus. Nach dieser Theorie ist Bewusstsein eine grundlegende Eigenschaft der Elemente des Universums, so wie Raum, Zeit, Masse oder elektrische Ladung Attribute von Materie sind. Demnach hätten nicht nur Menschen, Tiere und Pflanzen, sondern auch simple Dinge wie Steine, Moleküle, Atome und Elementarteilchen, sogar das Universum selbst eine Form von Bewusstsein, allerding in sehr unterschiedlichem Ausmaß.

Die Theorie hat den Vorteil, dass sie nicht erklären muss, wie Bewusstsein entsteht, weil es immer schon da war. Sie kann der Integrated Information Theory bei der Schließung einiger ihrer Erklärungslücken helfen, weil sie annimmt, dass jeder Informationseinheit schon ein Bewusstsein innewohnt. Bewusstsein müsse also nicht mehr entstehen, sondern war schon immer da und müsse nur noch sozusagen organisiert werden, um in Erscheinung zu treten. Dies geschehe vor allem durch die Art, wie mit Information umgegangen wird. Die Frage, wie aus vielen Mini-Bewusstseinen ein großes einheitliches Bewusstsein entstehen kann, bleibt allerdings unbeantwortet.

Unterstützung für panpsychistischen Theorien kann man auch in der Quantenphysik finden. Wenn man sich auf die Suche nach den elementarsten Bausteinen des Universums begibt und feststellen durfte, dass es nach dem Atom, dem „Unteilbaren“, immer noch weiter geht, bis dann auf einmal nichts mehr da ist, nichts Materielles mehr, bestenfalls Schwingungen, Wahrscheinlichkeiten, oder Beziehungen, jedenfalls nichts Greífbares mehr. Man findet nur noch eine nicht-materielle Basis, eigentlich auch keine Basis, denn alles ändert sich ständig. Uns fehlt die Sprache, um zu beschreiben, wo wir hier gelandet sind, jedenfalls etwas, das sich bestenfalls als Information oder als geistige Struktur verstehen lässt. Materie und Geist erscheinen als Aspekte einer tieferen Realität.


Ob quantenphysikalische Prozesse eine Rolle für das Verständnis von Bewusstsein spielen, ist unter Wissenschaftlern umstritten. Die Frage findet aber immer mehr Interesse. Die Proteinstrukturen im Zytoskelett der Neurone, die sog. Neurotubuli haben eine Größenordnung, die Quantenprozesse ermöglichen könnte.


Roger Penrose

Der umtriebigen Physiker Roger Penrose und sein Kollege Stuart Hameroff haben daraus gleich eine Theorie gemacht, die sie dazu bewog, über eine auf Quantenkohärenz beruhende nicht-klassische Informationsverarbeitung nachzudenken, die sie dann in Zusammenhang mit dem Bewusstsein brachten, die Orchestrated Object Reduction-Theorie (OrchOr). Die Theorie der beiden Wissenschaftler verspricht, einen Einstieg zu bieten, wie quantenphysikalische Prozesse Bewusstseinsprozesse auslösen konnen. Mehr dazu erfordert einen kleinen Ausflug in die Quantenphysik, dafür hier klicken.

Bewussstsein und Quantenprozesse

Penrose und Hameroff vertreten die Auffassung, dass Bewusstsein durch Quantenprozesse in den Microtubuli entstehen kann. Diese Microtubuli sind zylinderförmige Proteinstrukturen im Zytoskelett der Neurone. Die hohe Ordnung und Synchronisiertheit ihrer Moleküle macht sie zu Kandidaten für eine Quantenkohärenz. Kohärenz meint hier die synchrone Verbundenheit mehrerer Quantenobjekte (Teilchen oder Wellen), die dann als einziges überlagertes System reagieren. Die Größe der Moleküle liegt im Nano-Bereich, in dem solche Prozesse möglich sind. Die hier stattfindende, nicht mit Hilfe der klassischen Physik beschreiibbare Informationsverarbeitung kann Quantenwellen hervorbringen, die dann „orchestriert“ kollabieren und dabei - so nach der Orch-Or-Theorie, subjektives Bewusstsein erscheinen lassen.

Die Wellenfunktion der Quantenphysik ist eine imaginäre Funktion, die z.B. beschreibt, wo sich ein Quantenobjekt mit welcher Wahrscheinlichkeit befinden kann. Diese Teilchen können gleichzeitig verschiedene Zustände haben, was man sich in der von uns beobachtbaren Welt nur schwer vorstellen kann. Dieser Sachverhalt nennt sich Superposition. Mehrere solcher Wahrscheinlichkeitswellen können sich auch in einer Interferenz überlagen. Noch ist nichts real, alles nur imaginär, und das entspricht noch einem unbewussten Zustand.

Nach der Quantenphysik tritt Realität erst dann ein, wenn man in das Geschehen eingreift oder etwas geschiet, was die seltsame Informationswelle stört, z.B. eine Messung oder ein sonstiger Vorgang. Jetzt „kollabiert“ die Wellenfunktion und liefert ein reelles Ergebni (In den Laborexperimenten war das z.B. der vor der Messung unbestimmte Ort elines Elektrons, der dann durch die Messung erst reell wurde, also wirklich beobachtet und damit bekannt). Mathematisch wird dieser Vorgang der Kollabierung durch die Quadratbildung der Wellenfunktion beschrieben, und das Ergebnis ist dann in der Tat eine reelle Zahl, z.B. der tatsächliche Zustand des betroffenen Objekts, nach Berechnung aus der Wellenfunktion.

Die Natur „rechnet“ natürlich nicht. Das alles ist nur unsere Beschreibung dessen, was real passiert, mit Hilfe der Mathematik..

Kritiker der Theorie wenden ein, dass die kohärenten Zustände für längere Zeiten aufrecht erhalten werden müssten und halten das für unrealistisch. Die Orch-Or-Theorie hat aber rege Forschungsaktivitäten ausgelöst. Studien aus dem Jahr 2022 liefern Hinweise, dass Quantenprozesse in biologischen Systemen tatsächlich stattfinden. Schon länger bekannt ist die Photosynthese in Pflanzen, die ohne quantenphysikalische Prozesse nicht möglich wäre. Die britischen Wissenschaftler Jim al-Khalili (Quantenphysiker) und Johnjoe McFadden (Molekulargenetiker) beschreiben in ihrem Buch Der Quantenbeat des Lebens mehrere Beispiele aus der noch jungen Wissenschaftsdisziplin der Quantenbiologie.

Die quantenphysikalische Betrachtung hat noch mehr seltsame Phänomene in ihrem Köcher. Da ist vor allem die Quantenverschränkung, die beschreibt, dass zwei oder mehr Quantenobjekte (z.B. Elektronen oder Moleküle) miteinander verbunden bleiben können, egal wie weit sie voneinander entfernt sind. Wenn der Zustand eines verschränkten Objekts verändert wird, tun das die Zusatände aller anderen verschränkten Objekte auch, und zwar exakt sofort, egal wie groß die Entfernung ist. Entscheidend daran ist aber, dass es sich hier um eine nicht-lokale Verbindung handelt. Es gibt also offensichtlich Prozesse, die außerhalb der uns bekannten Dimensionen Zeit und Ort ablaufen.

Die innere Struktur der Proteinmoleküle des Skeletts der Neurone bietet günstige Voraussetzungen für solche Quantenverschränkungen.

Quanteneffekte werden mit imaginären Wahrscheinlichkeitsfunktionen beschrieben und gelten als nicht-deterministisch. Das ist interessant, wenn man eines schönen Tages sich einer Erklärung des freien Willens nähern will.


David Chalmers
Panpsychistische Ideen sind nicht neu. Schon Thales von Milet (624-546 v.Chr.) betrachtete das Universum als von Geist durchdrungen. Ähnliche Vorstellungen findet man bei weiteren Philosophen des Altertums und des Mittelalters bis zu zahlreichen Wissenschaftlern in unserer Zeit. Wenn man unbedingt einen Namen nennen will, dann vielleicht David Chalmers, der mit einem vielbeachteten Vortrag auf der Toward a Science of Conciousness Conference 1995 in Arizona mit der Frage nach dem Hard Problem of Conciousness die Bewusstseinsforschung entscheidend angetrieben hat.

 

Künstliche Intelligenz

Erst mit den Neuronalen Netzwerken hat die KI-Idee, eine Maschine zu bauen, die wie menschliches Denken funktioniert, einen entscheidenden Schub bekommen. Die dahinter stehende Idee ist keineswegs neu. Schon in der wissenschaftlichen Literatur aus dem 18. Jahrhundert fimdet man erste Vorstellungen, dass menschliches Denken auf Netzwerkstrukturen beruht (z.B. William James 1869). Erste technische Ansätze gab es dann 1949 mit Donald Hebb, dem wir die Hebbsche Regel verdanken. Das erste trainierbare Neuronale Netz war das Perceptron von Frank Rosenblatt (1958).

Dann folgte eine lange Zeit der Stagnation, bis Geoffrey Hinton und andere mit der Einführung des Backpropagation-Algorithmus die Möglichkeit schufen, in mehrstufigen Netzwerken komplexe Muster zu erkennen. Hinton und sein Team legten zu Beginn unseres Jahrhunderts die Grundlagen für trainierbare Deap Learning-Netzwerke.

Danach nahm die Entwicklung einen rasend schnetten Lauf, befördert durch immer leistungsfähigere Rechner und Big Data, bis zu den Large Language Models, die inzwischen multimedial geworden sind und mit den auf ihnen aufsetzenden Chatbots (ChatGPT, Gemini und die chinesische Antwort auf des US-amerikanische DeepSeek) buchstäblich die ganze Welt eroberten.

Die heutigen Systeme können im Vergleich mit dem menschlichen Denken Neurone simulieren und eine massive Parallelverarbeitung nachbauen. Die elektrochemischen Prozesse in den Synapsen werden in millionen- bis billionenfach wiederholten Trainingsschritten als Verbindungswerte nachgebaut, wodurch die Stärke der Signalübertragung zwischen den Neuronen simuliert wird.

Greift man die Terminologie der Bewusstseinsforschung auf, so kann man gutwillig konstatieren, dass man das Easy Problem of Conciousness gelöst, aber keinen Schritt auch nur in die Nähe der Lösung des Hard Problem of Conciousness geschafft hat.

• Karl Schmitz Februar 2025