Kurzfassung

Erleben und Erfahren sind die Quellen der natürlichen Intelligenz, Computersysteme dagegen brauchen digitalen Input, den man ihnen verabreichen muss. Die KI-Leistungen bestehen aus der Kombination von Musterkennung auf der Grundlage von Statistik und Wahrscheinlichkeitsrechnung. Im Unterschied zur natürlichen Intelligenz „verstehen“ die KI-Systeme nichts, sie liefern auf der Basis riesig großer Datenmengen nur errechnete Ergebnisse.

Der folgende Text enthält zahlreiche Links, die Fenster mit ausführlicheren Erklärungen öffnen.


Das „Verstehen“ der Künstlichen Intelligenz

Menschen lernen durch Erleben und Erfahren. Das geschieht spätestens ab dem siebten Lebensjahr mit tatkräftiger Unterstützung des Bewusstseins. Computer „lernen“ durch eingespeiste Daten. Diese können sie sich nicht aus eigenem Antrieb verschaffen.

Das Geheimnis der großen Sprachmodelle

Die Chatbots, allen voran OpenAIs Vorprechen mit ChatGPT (am 30.11.2022) haben einer breiten Öffentlichkeit das Erlebnis beschert, einem Computersystem in normaler Sprache beliebige Fragen stellen zu können und eine verständliche Antwort zu erhalten. Voilà angekommen bei der Künstlichen Intelligenz. Wir können den Systemen Fragen stellen, sie Texte zusammenfassen lassen, die Lösung einfacher Aufgaben planen oder Texte in eine andere Sprache übersetzen zu lassen. Was geschieht hier eigentlich?

  • Das System braucht eine Benutzeranforderung, ein sog. Prompt, als Text oder gesprochenes Wort, das dann vom System in Text transkribiert wird.
  • Der Text wird in kleine Sinneinheiten, sog. token, zerklopft. Ein Aufmerksamkeits-Algorithmus sorgt dafür, dass in dem Benutzertext die sinntragenden Elemmente erkannt werden und sich das System nicht in Füllwörtern oder weniger wichtigen Beschreibungen verirrt.
  • Das weitere Verfahren lässt sich am einfachsten anhand eines Übersetzungsprogramms erklären. Das System „versteht“ überhaupt nicht, was die Benutzerin oder der Benutzer eingegeben hat, sondern fragt ganz einfach, was z.B. ist die wahrscheinlichste englische Übersetzung zu einem deutschen Text. Ähnlich läuft das bei anderen Aufgaben, z.B. was ist die wahrscheinlichste „richtige“ Antwort zu einer gestellten Frage, die nützlichste Zusammenfassung eines dem System verabreichten Textes usw.
  • „Richtig“ und „wahr“ sind keine Begriffe, an denen sich die Systeme wirklich orientieren. Es geht in erster Linie um Nützlichkeit für die Benutzerin oder den Benutzer.
  • Dieses Vorgehen ist nur möglich und sinnvoll auf der Basis ungeheuer großer Datenmengen (Big Data), mit denen das System „trainiert“ wurde. Dazu braucht es Milliarden, besser Billionen und Billiarden Datensätze, gerne Daten, die in möglichst vielen verschiedensprachigen Quellen vorliegen. Von einem Teil dieser Trainingsdaten kennt man die richtigen Ergebnisse und ordnet sie als Output dem jeweiligen Input zu. Jetzt lässt man das System raten, was zu einem bestimmten Input harauskommen soll. Das ist am Anfang natürlich falsch oder grottenschlecht. Aber im Laufe sehr vieler Wiederholungen der Trainingsstufen ändert sich das schnell. Das kann durchaus einige Millionen bis Milliarden Mal geschehen.
  • Die KI-Systeme, die sog. Neuronalen Netze, sind dem menschlichen Gehirn mit seinen rund 100 Milliarden Nervenzellen der Großhirnrinde, den natürlichen Neuronen, nachgebaut. Diese besonderen Zellen können sehr viele, in Grenzfällen bis zu zehntausend Verbindungen zu anderen Neuronen aufbauen, wobei die Verbindungsstärke durch elektrochemische Prozesse in den sog. Synapsen bestimmt wird. Auf diese Weise wird gesteuert, dass und wie wir uns erinnern können.
  • KI-Systeme haben keine wirklichen Neurone. Sie simulieren sie softwaretechnisch, mit Empfangs-, Verarbeitungs- und Ausgabefunktionen. Die Verbindungen der Neurone wird auch simuliert, durch die sog. Netztopologie. Die Synapsen in unserem Gehirn entwickeln sich durch unser Erleben und unsere Erfahrungen. Wenn ein Kleinkind auf die heiße Herdplatte greift, ändert sich tatsächlich etwas in Gehirn und bewirkt, dass dies so schnell sich nicht mehr wiederholt. Ein KI-System muss diesen Vorgang in Software simulieren. Der „Leitungswiderstand“ in den künstlichen Synapsen wird mit jedem kleinen Trainingsschritt ein klein wenig in Richtung richtiges oder besser nützliches Ergebnis verändert. Dieser Vorgang wird durch Algorithmen gesteuert, durch eine sog. Fehler- oder Loss-Funktion.
  • Wenn dieser Trainingsvorgang ein paar Millionen, besser Milliarden Mal wiederholt wurde und die Fehlerrate bei den Ergebnissen unter eine vorgegebene Grenze abgesunken ist, wird das Training abgebrochen. Man hat jetzt ein vortrainiertes System (das GPT in ChatGPT bedeutet Generative Pre-trained Transformer). Und dieses System kann man jetzt mit dem Rest der Trainingsdaten einer Generalprobe unterziehen. Erhält man hier auch brauchbare Ergbnisse, kann man das System auf den Rest der Welt loslassen. Da es ja während seines Trainings schon fleißig interpoliert hat, darf man guten Mutes annehmen, dass diese Interpolation auch außerhalb der Trainingsdaten funktioniert.

Für viele der genannten Begriffe gibt es sehr unterschiedliche Verfahren, je nach Verwendungszweck des jeweiligen KI-Systems. Dies betrifft den Aufbau der simulierten Neurone, die Architektur der Netzwerke, die Zahl der Verbindusgswerte, die sog. Parameter, die Trainingsmethoden und verwendeten Fehlerprozeduren. Hier tut sich ein schnell wachsendes Wissenschaftsgebiet auf.

Bisher wurde die „reine Lehre“ der Neuronalen Netze bzw. Sprachmodelle geschildert. Davon entfernt sich die Praxis immer mehr und immer schneller. Längst sind die KI-Systeme mit Algorithmen überlagert, die das Ergebnis für die Benutzer „korrigieren“, zum Beispiel dafür sorgen, dass hate speech verhindert wird, die Ergebnisse in einer Form von political correctness wiedergegeben werden oder auch schlicht und ergreifend politische Zensur erfolgt.

Die Unterschiede

Vergleicht man die Leistungen der Künstlichen Intelligenz mit unserer natürlichen Intelligenz, so sind es besonders folgende Unterschiede, die man im Gedächtnis behalten sollte:

  • Die Leistungen der Neuronalen Netze beruhen auf Mustererkennung auf der Grundlage von Statistik und Wahrscheinlichkeitsrechnung, alles auf der Basis sehr großer Datenmengen, den Trainingsdaten.
  • Die KI-Systeme „verstehen“ nicht, was man von ihnen will. Sie haben keine Empfindungen und können Emotionen nur aufgrund von internen durch ihr Training vermittelten Modellen erkennen, emotionale Reaktionen nur simulieren. Sie verfügen über kein mit uns vergleichbares Bewusstsein.
  • Ihr durch ihre Trainingsdaten und ihre vielen Verbindunswerte (sog. Parameter) repräsentiertes „Wissen“ ist ein universell einheitliches Wissen, das nicht wie bei uns Menschen durch subjektives Erfahren und Erleben geprägt ist, main stream sozusagen, ohne individuelle „Verzerrungen“ - nützlich bei Informationen, die sich auf anerkannt reines Faktenwissen beziehen.
  • Die verlässliche Aktualität der Daten ist nur so gut wie die Aktualität der Trainingsdaten. Um aktuell zu bleiben, müssen die Systeme immer wieder mit neuen Daten nachtrainiert werden. Dabei darf man sich nicht davon täuschen lassen, dass man den Systemen inzwischen beigebracht hat, bei Fragen jenseits íhrer Aktualität einfach Suchprozesse im Internet zu starten und diese Ergebnisse dann als eigene Zusammenfassungen zu präsentieren.
  • Die Systeme tun sich schwer, ihre Leistungsgrenzen zu erkennen und verhalten sich jenseits dieser Grenzen wie in sicher geglaubtem Terrain. Hier entsteht die Gefahr, dass Ergebnisse halluziniert sind.
  • Die Systeme liefern keine verifizierten wahren Ergebnisse. Alles hängt von der Repräsentativität der Trainingsdaten ab. In diesen Daten enthaltene systematische Fehler, die sog. Bias, finden sich auch in den von den Systemen gelieferten Ergbenissen.
  • Die KI-Systeme können nur Input verarbeiten, der digitalisiert wurde bzw. sich digitalisieren lässt. Das Wahrnehmungsspektrum ist daher im Vergleich zu uns stark verengt.
  • Die den meisten Systemen überlagerten und nicht transparent gestalteten Algorithmen sorgen dafür, dass die mit der Methodik der Neuronalen Netze gefundenen Ergebnisse weiter verändert werden. Die Vermutung einer Manipulation der Ergebnisse bis hin zur politischen Zensur kann daher nicht mehr als unberechtigt beiseite geschoben werden.

Der DeepSeek-Schock hat gezeigt, dass Größe der Systeme nicht der alleinseligmachende Faktor ist. Immer mehr Daten, immer mehr Rechner-Power und Ressourcebverbrauch scheint nicht der Königsweg zu sein.

Es ist zu beachten, dass heute, 2025 schon eine wachsende Flut von via Internet verfügbarer Daten durch KI erzeugt sind. Für Trainings bedienen sich zumindest die Systeme der Allgemeinen Generativen KI wie die Chatbots bevorzugt an den Datenbeständen der Suchmaschinen. Dies kann schnell zu einer Art Wiederkau-Effekt führen. So haben wir für die Zukunft eher eine sinkende Ergebnisqualität mit Trend zu einem einheitlicher werdenden main stream zu erwarten.

Karl Schmitz • März 2025