Behütetes Denken

Um es vorweg zu sagen: Man kann mit den Chatbots und anderen Instrumenten der Generativen Künstlichen Intelligenz gut arbeiten. Aber die Chancen stehen schlecht, dass das so bleibt. Doch die Hoffnung stirbt bekanntlich zuletzt.

Der Hype hat seinen Höhepunkt überschritten. Die Tools werden immer schlechter. Alles auf den ersten Blick noch ganz nett. Aber man weiß ja: Nett ist die kleine Schwester von Sch...

Schon seit Anfang des Jahres (2024) ist es unübersehbar: Der Tiefgang der Ergebnisse geht zunehmend verloren. Will man etwas genauer wissen, gerät man ins kurze Gras. Die Infos werden dürftiger, plätschern um die Oberfläche herum, haben unverholenen Trend zu Wiederholungen. Und auf die Richtigkeit der Ergebnisse kann man sich auch nicht verlassen. Fatal, wenn man darauf angewiesen ist. Aber immer noch gut zum Einstieg, wenn man etwas recherchieren will, brauchbar für unaufgeregte Zusammenfassungen und Smalltalk mit sich selbst.

Qualitätsverlust

Die Gen-AI-Produkte, sie beruhen auf vortrainierten großen Sprachmodellen. Gretchenfrage: Womit werden sie trainiert? garbage in - garbage out - eine alte Programmierer-Weisheit. OpenAIs Strategie: Immer größere Modelle, noch mehr Milliarden oder besser Billionen Parameter, noch mehr Rechnerpower. Verträge mit Institutionen des Qualitätsjournalismus, so rühmt besagte OpenAI ihr Abkommen mit Axel Springer, die Bild-Zeitung als neuer Qualitätsmarker. Am Puls der Zeit, also her mit den Posts aus den Sozialen Medien, verkauft als nah aqm realen Leben.

Prognose zweifelhaft. Immer mehr Internet-Inhalte werdeen künstlich erzeugt, Produkte eben dieser hochgerühmten Künstlichen Intelligenz selber. So beißt sich die Katze in den Schwanz. Oder medizinisch korrekter: Die Systeme fangen an, sich im Kreis zu drehen. Von ihnen selbst erzeugte Inhalte werden ihr als neues Input verfüttert, Tendenz schnell zunehmend. Flankiert von den politisch gesetzten Qualitätsmarkern für den Niedergang der wissenschaftlichen Inhalte: die nach Exzellenz-Kriterien der EU bewerteten Hochschulen produzieren immer mehr Publikationen ähnlichen Inhalts, zitieren sich selbst und gelten als tüchtig, wenn sie viele Drittmittel einwerben.

Bleibt als Hoffnung, dass die Sprachmodelle in Zukunft besser lernen, nicht Fragen nach differenzierten Inhalten mit Antworten aus ihrem verflachten Vokabular zu mixen.

Denken für die Kundschaft

Unten angekommen sagt man der Kundschaft am besten gleich was sie finden soll. Fragt man Googles Gemini etwas, so bestätigt es einem aufmunternd, dass man eine spannende Frage gestellt hat. Nach der aus dem dünnflüssiger gewordenen Informationsbrei herausgefischten Antwort schlägt es gleich vor, was man als nächstes fragen soll. Und die Seichtwasserfahrt wird mit vielen Wiederhoschleifen fortgesetzt.

Das alles wird Unternehmen wenig daran hindern, Systeme der Generativen KI weiter einzusetzen. Sie glauben fest daran, dass sich die Chatbots zu hochqualifizierten Agenten entwickeln und komplexe, kontextabhängige Gespräche führen können, ja sogar strategische Aufgaben lösen können und - dank emotionaler Intelligenz - dabei sogar die Absicht und Gefühlslage von Kunden verstehen. Problematisch nur, wenn es in zwei bis drei Jahren kaum noch hochwertige Daten für das Training der Sprachmodelle geben wird.

tse • Karl Schmitz September 2024