Künstliche Intelligenz

Eine ausführliche Darstellung finden Sie in dem Dokument Intro Künstliche Intelligenz.

Die folgenden Kapitelüberschriften sind mit einem kleinen roten Dreieck ()versehen. Mit dessen Hilfe kann man die Texte „aufklappen“ und wieder „zuklappen“.

Eine kurze Historie
 

Das Dartmouth Summer Reseach-Projekt von 1956: Die Stanford- und Harvard-Professoren John McCarthy und Marvin Minsky und versammelte junge Wissenschaftler: Der Anspruch, eine Maschine zu bauen, die Sprache verwenden, abstrahieren, Begriffe bilden und Probleme lösen kann, Dinge, die bisher nur menschlicher Intelligenz zugänglich waren.

Expertensysteme in den 1970er und 1980er Jahren.

Erste Neuronale Netze.

Phase großer Enttäuschungen: Die Eiszeit -

Wiederbelebung durch Big Data, der Hype um die Chatbots.

 

Ein Ausflug in die Biologie: Das menschliche Gehirn
 

Zusammenspiel von Millionen, manchmal sogar Milliarden sogenannter Neurone. Gehirn: schätzungsweise siebzig bis hundert Milliarden (ca.1011).

Skizze eines biologischen Neurons und einer seiner Verbindungen

Diese Informationsübertragung zwischen den Neuronen ist ein komplizierter elektrochemischer Prozess. Dabei spielen die Synapsen eine entscheidende Rolle.

Elektrische und chemische Synapsen: Erstere sind für schnelle, meist unwillkürliche Reizübertragungen zuständig. Chemischen Synapsen sind zuständig für alle komplexeren Vorgänge. Das Ende eines Axonsenthält eine Verdickung mit Vesikeln:

Reizübertragung durch den Synaptischen Spalt

kleine Bläschen, die chemische Botenstoffe enthalten, die Neurotransmitter. Kommt ein elektrischer Impuls am Ende eines Axons an, so werden solche Neurotransmitter ausgeschüttet.

Es gibt davon über hundert verschiedene. Sie überqueren den wenige Nanometer breiten sogenannten Synaptischen Spalt und können von Rezeptoren auf der Oberfläche eines Dendriten aufgenommen werden. Geschieht dies, so wird im Neuron das Aktionspotenzial ausgelöst, und es „feuert“, d.h. es sendet einen elektrischen Impuls aus. Dieses Feuern kann durch bildgebende Verfahren sichtbar gemacht werden.

Das Neuron ist elektrisch negativ geladen. Dies wird durch den unterschiedlichen Mix von positiven und negativen Ionen im Inneren des Neurons verursacht. Hauptsächlich handelt es sich dabei um Kalium-Ionen und Natrium-Ionen. Die elektrische Ladung des Neurons kann man messen.

Eine raffinierte Einrichtung, die sogenannte Natrium-Kalium-Pumpe. Sie sorgt dafür, dass diese Spannung im Ruhezustand erhalten bleibt. Ankommender Reiz öffnet die Natriumkanäle in der Zellmembran. Drei (positiv geladene) Natrium-Ionen strömen aus der Zelle heraus und zwei (ebenfalls positiv geladene) Natrium-Ionen hinein. Durch diesen Verlust einer positiven Ladung wird die Ladung des Neurons negativer.

Sobald ein Schwellenwert von -55 mV erreicht ist, werden ganz viele weitere Natriumkanäle geöffnet. Jetzt strömen viele positiv geladene Natrium-Ionen in die Zelle ein, und ihre elektrische Ladung wächst schnell bis ca. + 30 mV und kommt dann zum Stillstand. Das Neuron hat bereits vorher beim Überschreiten des Schwellenwertes einen starken elektrischen Impuls erhalten und über seine Nervenleitungen an alle mit ihm verbundenen anderen Neurone gesendet. Die Phase der schnellen Ladungszunahme nennt sich Depolarisierung.

Danach kehrt sich der Prozess um: Repolarisierung: Die Natriumkanäle werden geschlossen, die Kalium-Kanäle geöffnet. Positive Kalium-Ionen verlassen die Zelle, deren Ladung jetzt schnell wieder negativer wird. Die Natrium- und Kaliumkanäle werden dann wieder geschlossen. Dabei sind die Kalium-Kanäle träger als die Natrium-Kanäle, und die Ladung der Zelle schießt unter das Ruhepotenzial ins Negative. In diesen ein bis zwei Millisekunden, der sogenannten Hyperpolarisierung, darf die Zelle sich „erholen“, bis sie ihr Ruhepotenzial wieder erreicht hat. Erst jetzt ist das Neuron erneut in der Lage, Reize aufzunehmen und wieder zu "feuern". Der gesamte Vorgang dauert nur wenige Millisekunden und ist in der folgenden Abbildung schematisch wiedergegeben.

Auslösung eines Aktionspotenzials

Ein „erregtes“ Neuron kann seinen Impuls über viele Axone weiterleiten. Dabei sind immer Tausende bis Zehntausende Neurone aktiv. Die Stärke und Art eines übertragenen Reizes hängt von der Zahl der aufgenommenen Neurotransmitter ab. Diese

Neurotransmitter
 

Wichtige Neurotransmitter sind z.B. Glutamat, Dopamin, Noredralin, Serotonin, Histamin und Oxytocin. Sie sorgen dafür, dass so unterschiedliche Dinge wie Lernen, Gedächtnis, Motivierung, Stimmung, Liebe, Vertrauen, Aufmerksamkeit, Wachsamkeit, Stress, Schlaf, Appetit und vieles mehr gesteuert werden.

können verschiedene und unterschiedlich starke Wirkungen auslösen.

Die Synapsen verändern sich durch ihre Nutzung: Neubildung, Verstärkung oder Abschwächung - wichtig für das Lernen.

Dies beschreibt nur die „Basisprozesse“ im menschlichen Gehirn und ist noch in weiter Ferne, um die gigantische Gesamtleistung des Gehirns zu verstehen: Wahrnehmung, Gedächtnis, sich Erinnern, Lernen, Gefühle. Noch ungeklärt wie logisches oder assoziatives Denken oder Kreativität funktioniert.

Im Unterschied zu Computern verändert sich die „Hardware“ unseres durch unsere Erfahrungen, unser Denken und unsere Gefühle ständig. Gefühle sind eine mächtige Form der Codierung.

Alles dies macht deutlich, wie ambitioniert das Dartmouth-Projekt 1956 war, den Anstoß dafür zu geben, eine Maschine zu bauen, die das leisten soll, zu was der menschliche Geist fähig ist.

Künstliche Neurone
 

Neuronale Netze versuchen, die Basisprozesse unseres Gehirns technisch zu simulieren.

Das Neuron der künstlichen Intelligenz ist ein softwaretechnisches Objekt, dem verschiedene Funktionen bzw. Methoden „anprogrammiert“ werden. Sie bestimmen, was das Neuron leisten kann. Die wichtigsten Funktionen sind:

  • die Aktivierungsfunktion: Sie berechnet aus jedem Input des Neurons, was es entsprechend seinen besonderen Eigenschaften und Aufgaben tun kann bzw. soll.
  • die Propagierungsfunktion: Sie fasst die Ergebnisse der Aktivierungsfunktion für die einzelnen Inputs zu einer Größe zusammen und berechnet somit, wie stark es die eingesammelten Impulse weitergibt, abschwächt oder ob das Neuron überhaupt nichts tut.
  • Die Ausgabefunktion: Sie ist die Endstation für alles, was das Neuron verarbeitet hat. Sie kann die von der Aktivierungsfunktion berechnete Ausgabe nochmals verarbeiten oder das bisher erreichte Ergebnis einfach weiterleiten. Sie gibt das Ergebnis an die mit ihm verbundenen anderen Neurone weiter.

Es gibt unzählige verschiedene Methoden für die einzelnen der drei genannten Funktionen.

Die Signalverarbeitung durch ein Neuron

Dahinter steckt eine für den Laien komplizierte Mathematik (Vektor-Multiplikation, Schwellenwertfunktion usw). Beschrieben in zahlreichen Lehrbüchern desw Maschinellen Lernens.

Netztopologien
 

Die Verbindungen der Neurone werden softwaretechnisch simuliert. Ihre Stärke wird durch sogenannte Gewichte angegeben und stellen sozusagen das Gedächtnis des Neuronalen Netzes dar.

Zur Erinnerung: Der Vergleich mit der Biologie zeigt, wie dramatisch vereinfacht die technische Simulation ist. Der Vielzahl der unterschiedlichen von den Vesikeln am Ende der Axone infolge des dort ankommenden Reizes ausgeschütteten Neurotransmitter und ihren sehr unterschiedliche Wirkungen, die sie auslösen können, dem Übertragungsvorgang durch den synaptischen Spalt und dessen Veränderungen durch die Aktivität des Gehirns infolge des Erlebens, der Erfahrungen oder schlicht des Nachdenkens entsprechen im Modell des Neuronalen Netzes mathematische Funktionen und die Speicherung der Verbindungsgewichte. Unseren Erfahrungen entsprechen bei den Neuronalen Netzen oft zu wiederholende Trainings. Hier sehen wir deutlich, wie grob die technische Vereinfachung der biologischen Abläufe ausfällt.

Diese Gewichte sorgen dafür, wie stark ein Neuron seinen Output an ein anderes Neuron weitergibt. Das Netz selbst hat einen prinzipiell sehr einfachen Aufbau:

  • eine Eingabeschicht: Hier enthält das Programm die zur Lösung seiner Aufgabe erforderlichen Informationen (Bild, Anweisung, Anfrage usw). Der Eingabeschicht kann ein besonderes Stück Hardware vorgeschaltet sein, beispielsweise ein Kamerasensor, ein Mikrofon oder ganz einfach eine Tastatur.
  • eine oder mehrere verborgene Verarbeitungsschichten, die sogenannten hidden layers für die eigentliche Verarbeitung der empfangenen Impulse. Das Neuron bedient sich dabei seiner oben genannten Funktionen und gibt nach getaner Arbeit sein Ergebnis an die anderen, mit ihm verbundenen Neurone weiter.
  • eine Ausgabeschicht für die Darstellung des gewünschten Ergebnisses.

Die folgende Abbildung zeigt schematisch ein Neuronales Netz mit zwei verborgenen inneren Verarbeitungsschichten. Je nach Bauart des Netzes gibt es verschidene Möglichkeiten, wie die Neurone miteinander verbunden sind, nur wie in der Abbildung vorwärts in eine Richtung oder auch zurück zu vorliegenden Schichten oder erneut zu sich selbst, um die bisher verarbeitete Information nochmals zu verarbeiten.

Schematischer Aufbau eines einfachen Neuronalen Netzes

mit zwei Eingabeneuronen (E), zwei hidden layers (L) mit je vier Neuronen und einem Ausgabeneuron (A).

Die Eingabeneuronen sind mit allen Neuronen der ersten Verarbeitungsschicht verbunden. Die Neuronen L11, L12 und L14 sind mit je einem Neuron, das Neuron N13 mit allen Neuronen der nachfolgenden Verarbeitungsschicht verbunden.

Im Laufe der Zeit wurden unterschiedliche Topologien Neuronaler Netze entwickelt. Die Neurone können sparsame Verbindungen zu einzelnen spezialisierten Neuronen haben oder - im Extremfall - alle mit allen verbunden sein.

Large Language Models und Chatbots
 

LLMs sind nur ein kleiner Teil der KI-Landschaft, aber die Grundlage der Chatbots. Sie profitieren von den Methoden der Natürlichen Sprachverabeitung und sind Teil des Maschinellen Lernens, dem sog. Deep Learnig, bei dem viele verborgene Schichten eines Neuronalen Netzwerks verwendet werden. Dadurch sollen auch komplexe Muster in den für die Antworten verwendeten Daten erkannt werden.

Im Unterschied zu den Expertensystemen sind es bei den Neuronalen Netzen nicht Algorithmen, die das „richtige“ Ergebnis finden. Ähnlich wie Menschen durch Erfahrung und insbesondere soziale Interaktion lernen, muss einem solchen KI-System durch Training beigebracht werden, was als richtig zu gelten hat.

Hier geht es nicht um Wahrheit, sondern um Nützlichkeit: „Wahr“ in diesem Sinne ist alles, womit die Nutzer zufrieden sind. Dafür wird eine Toleranzgrenze definiert. Diese beschreibt in Form einer Fehlergrenze die Genauigkeit, mit der das Netz arbeiten soll. Das Ergebnis resultiert also aus Statistik auf der Basis sehr großer Datenmengen (Big Data) und Wahrscheinlichkeitsrechnung.

Die Grundstruktur dieses Verfahrens ist recht einfach. Am Beispiel eines zu bearbeitenden Textes heißt das: Suche zu einem Wort das wahrscheinlichste nächste Wort, das dem gerade bearbeiteten Wort folgen kann. Dieser Wahrscheinlichkeitsberechnung steht der ganze Big Data-Pool mit wenn es sein darf Billionen und aber Billionen Wörtern zur Verfügung. Das ließe sich so fortsetzen, aber dann kämen recht bedeutungslose Sätze heraus. Also wird die Wahrscheinlichkeitssuche fortgesetzt mit der Suche, was am wahrscheinlichsten auf den gesamten bisher erzeugten Satz folgen könnte. Was mit einzelnen Wörtern funktioniert, geht natürlich auch mit Satzteilen oder ganzen Sätzen und in ähnlicher Form auch mit Bildern. Die Frage lautet dann: Was ist der mit höchster Wahrscheinlichkeit auf den bisherigen Satzteil folgende weitere Satzteil?

Das funktioniert nur, weil dem System ein Sprachmodell zugrunde liegt,das Large Language Model. In einem vieldimensionalen sogenannten Semantischen Raum wird jedes Wort durch einen Ort repräsentiert, auf den der Bedeutungsvektor des Wortes zeigt.

Im Jahr 217 hat Google zuerst den Mechanismus vorgestellt, der dem ganzen Spiel zugrunde liegt, das Gererative Pretrained Transformer Model, abgekürzt GPT. Generative steht für erzeugen, Pretrained ganz einfach für vortrainiert und Transformer für die Transformation, aus jedem Ausdruck per Statistik den wahrscheinlichsten Nachfolgeausdruck zu finden. Der dahinter steckende „Aufmerksamkeitsalgorithmus“ sorgt dafür, dass gefundenen Ausdrücken in dem Maße besondere Gewichte zuzgeordnet werden, in dem sie häufiger in der Nachbarschaft anderer Ausdrücke gefunden werden.

Alles erfolgt maschinell, durch Auswertung der Häufigkeit gemeinsamen Vorkommens. So wird erreicht, dass die Orte in dem Semantischen Raum, auf die die Bedeutungsvektoren von Wörtern mit ähnlichen Bedeutungen zeigen, nahe beieinander liegen. Alles basiert auf Wahrscheinlichkeitsrechnung mit Zugriff auf very Big Data.

Obwohl Google sich zuschreiben kann, den Algorithmus „erfunden“ zu haben, hat es zu lange gebraucht, mit einem darauf fußenden Produkt auf dem Markt zu erscheinen, angeblich wegen Sicherheitsbedenken. Das System lieferte noch zu oft falsche Ergebnisse, ein Effekt, der später unter dem Begriff Halluzination verniedlicht wurde.

Ganz anders die kalifornische Firma OpenAI, die ihr Pretrained Model schnell zu GPT-4 bis Ende 2022 weiterentwickelt und mit einer Zehn-Milliarde-Dollar-Spritze von Microsoft Anfang 2023 ihr ChatGPT auf den Markt gebracht und den Markt dann in atemberaubender Geschwindigkeit erobert hat. Googles war mit Bard, später umbenannt in Gemini, zu spät dran.

Weil diese immensen Datenmengen lange nicht zur Verfügung standen, musste die Technik der neuronalen Netze Jahrzehnte auf ihren Durchbruch warten. Heute, Anfang 2024, gibt es eine Vielzahl von Large Language Models und darauf aufbauender Produkte.

Training
 

Die Neuronalen Netze müssen mit riesigen Datenmengen trainiert werden. Das Verfahren läuft in den meisten Fällen folgendermaßen ab:

  • Festlegung des Aufgaben- bzw. Anwendungsbereichs. Was soll das System leisten? Welche Fragen sollen beantwortet werden?
  • Auswahl einer geeigneten Datenmenge als Test-Domain: soll repräsentativ für den gesamten Datenbestand und groß genug sein. Eine Reihe riesiger Datenpools stehen öffentlich zur Verfügung. Weitere spezielle Daten für den Anwendungsbereich müssen ergänzt werden.
  • Überprüfung und Fehlerbereinigung der Trainingsdaten.
  • Ein Teilbereich der Test-Domain wird als Input für das Training ausgewählt (Trainings-Domain). Diese Daten müssen für des verwendete LLM in eine verarbeitbare Form gebracht werden (Vektor-Datenbanken o.ä.).
  • Erstellung von Fragen oder Aufgabenstellungen mit für diese als richtig geltenden Antworten. Der Abgleich von vorbereiteten Fragen und Antworten ist nur eine (zwar häufige) von vielen Möglichkeiten des maschinellen Trainings..
  • Abgleich der vorbereiteten Fragen mit den „richtigen“ Antworten (maschinell oder durch Testpersonen). Wiederholung der kompletten Prozedur solange, bis die Abweichungen der Antworten von den „richtigen“ Antworten die vorher festgelegte Fehler- oder Ungenauigkeitstoleranz unterschreiten.
  • Anpassung der Verbindungsgewichte (Parameter): Bei jedem der oft millionen- bis milliardenfach wiederholten Trainingsdurchläufe werden die Gewichte ein klein wenig verändert. Diese Gewichte legen fest, wie stark der an dem künstlichen Neuron ankommende elektrische Reiz weitergeleitet oder abgeschwächt wird. Eine besondere Lern-Funktion legt die Berechnung dieser Gewichte fest. Der Vorgang wird so oft wiederholt, bis man mit dem Ergebnis zufrieden ist. Dauer: Dieses Verfahren kann bei großen Systemen oft wochenlang dauern.
  • Nach diesem Basistraining findet eine Überarbeitung der Daten mit besonderen Filterprogrammen statt, um z.B. verletzende, Gewalt verherrlichende, zu Gewalttaten auffordernde oder ganz allgemein unerwünschte Ergebnisse zu unterdrücken.

Der Erfolg der Systeme ist neben der angewandten Technik wesentlich durch die Masse der Trainingsdaten bedingt. Mit ihrer Hilfe werden die Wahrscheinlichkeiten berechnet, welche Wörter oder Wortsequenzen als response auf einen user request erfolgen, unter Berücksichtigung des jeweiligen Kontextes. Dafür sorgt ein sog. Aufmerksamkeits-Algorithmus. Da für das System alles nur digitale tokens sind, funktioniert das Verfahren nicht nur für Texte, sondern auch für Bilder.

Nach Abschluss des Trainings kann das System mit den Daten der gesamten Trainings-Domain ausprobiert werden. Ist man mit den Ergebnissen zufrieden, wird das System der vorgesehenen Kundschaft zur Verfügung gestellt, in der Annahme, dass es jetzt auch für ähnliche Fragen und Aufgaben außerhalb der Trainingsdaten einigermaßen „richtige“ Ergebnisse liefert.

Um aktuell zu bleiben, muss das System dann in geeigneten Abständen nachtrainiert werden.

Weitere Details zum Trainingsablauf und v.a. über die unterschiedlichen Trainingsmethoden, das Nachtrainieren und die Trainingsrisiken
Leistungsgrenzen
 

Es ist wichtig, sich mit der Technik der KI-Systeme auseinanderzusetzen, um ihre Leistungsmöglichkeiten, aber auch ihre Leistungsgrenzen realisitisch einzuschätzen dazu ausführlich

Grenzen der KI

  • Digitalisierung: Alles, was KI-Systeme verarbeiten können, muss in digitalisierter Form vorliegen oder in eine solche Form gebracht werden können.
  • Keine autonome Wahrnehmung: Den Systemen muss alles präsentiert werden. Sie können ihre Welt nur als Modell behandeln. Sie können keine eigene Initiative entwickeln. Sie können zwar Gefühle anhand von Indikatoren erkennen aber nur als Simulation wiedergeben.
  • Keine Fähigkeit zum Verstehen: Ergebnisse nur per Statistik und Wahrscheinlichkeitsrechnung.
  • Gefahr der „Halluzination“. Kein Erkennen der Grenzen eigener Leistungsfähigkeit.
  • Keine autonome Entscheidungsfähigkeit: Entscheidungen nur auf der Basis von Algorithmen und Workflows.
Einrichtung einer KI-Anwendung
 

Wenn ma eine eigene KI-Anwendung aufbaut, ist eine wichtige Voraussetzung, dass alle Beteiligten (im Sinne eines Stakeholder-Konzepts ind dies das Topmanagement, die Führungskräfte der Anwendungsbereiche und der IT, zumindest ausgewählte Endbenutzer und die Arbeitnehmer-Interessenvertretung) die Technik kennen und eine realistische Vorstellung der Leistungsmöglichkeiten und -grenzen haben.

Ein mögliches Vorgehen:
  • Bestimmung des Geschäftsmodells: Auswahl eines Anwendungsbereicht mit klar definiertem Ziel auf der Grundlage einer positiven Erfolgsabschätzung
  • Entscheidung über die Architektur: Eigene Lösung( on premise), Cloud oder gemischte Lösung(hybrid)
  • Analyse der für die Anwendung benötigten Daten und ihrer Qualität, unternehmensinterne Verfügbarkeit, externe Beschaffbarkeit, Abschätzung der Schwierigkeiten und Kosten.
  • Auswahl der Software: Geeignetes Language Model, Entwicklunsumgebung, Tools für die Aufbereitung der Daten, Großes GenAI-Tool oder kleines erweiterbares Modell. Klärung der Sicherheitsanforderungen. Bewertung der Abhängigkeit von den Softwarelieferanten und der Anwendungsrisiken.
  • Erstellung eines Trainingskonzepts für das System, Durchführung des Basistrainings, Verfahren für die laufende Aktualisierung.
  • Erarbeitung eines Schulungskonzepts für die Benutzerinnen und Benutzer.
  • Test des Systems in ausgewählten Bereichen, evtl. Pilotierung, Etablierung eines Prozesses zum Erfahrungsaustausch unter angemessener Beteiligung der Stakeholder, Benutzerschulung.
Es ist nicht empfehlenswert, zahlreiche Parallelprojekte zu betreiben. Hohes Entwicklunstempo der Technik im Auge behalten. Deshalb keine zu frühenund zu weitreichenden Entscheidungen, Vermeidung von Abhängigkeiten.
Folgenabschätzung
 

Was immer man in einem Unternehmen tut, man sollte sich neben den wirtschaftlichen Erfolgsabsichten der Folgen für die Beschäftigten bewusst sein und einen die Projekte begleitenden Erfahrungsaustausch organisieren.

Erfahrungen v.a. von Unternehmensberatungen zeigen, dass mit deutlicher Mehrheit die Managementerwartungen bei Produktivitätssteigerungen vor allem im Personaleinsatz liegen.

Insbesondere die mentalen Folgen für die Menschen, die mit den KI-Systemen umgehen, bleiben in den veröffentlichten Diskussionen eher Randthemen.

Microsoft Copilot
 

Microsoft hat als erster Softwareanbieter angekündigt, die ChatGPT-Technik systematisch in alle Büroanwendungen und seine weiteren Produkte (z.B. CRP-System Dynamics) einzubauen und bietet mit Copilot für Microsoft 365 eine vorgefertigte Lösung.

Der Leistungsumfang gestaltet sich eher bescheiden. Sozusagen als Einstiegsdroge werden die Kosten noch überschaubar gehalten. Die geschickte Einführungsstrategie Microsofts dient vor allem seiner Marktabsicherung und verspricht hochgesteckte Erwartungen.

Wenn sich ein Unternehmen auf einen Pilotversuch einlässt, sollten die Ziele klar definiert werden, z.B.:

  • Wie gut passt Copilot in die IT-Landschaft des Unternehmens?
  • Erweist sich die Technik schon als ausgereift genug, oder hat man noch mit zu vielen Kinderkrankheiten zu tun?
  • Welche Produktivitätsfortschritte sind angestrebt, und wie kann man diese Fortschritte messen?
  • Sind Kosteneinsparungen zu erwarten?
  • Ändert sich die Qualität der Arbeit für die einzelnen Personen und wen ja, worin besteht diese Qualitätsänderung?
  • Ändert sich die Zusammenarbeit der Mitarbeiterinnen und Mitarbeiter?
  • Ergeben sich Konsequenzen für die Qualifizierung der Mitarbeiterinnen und Mitarbeiter?
  • Stimmt die These, dass durch Automatisierung von Routine- und Wiederholungstätigkeiten mehr Zeit für dispositive und kreative Aufgaben verfügbar wird, und wie wird diese gewonnene Arbeitszeit genutzt?
  • Hat der Einsatz Auswirkungen auf die Unternehmenskultur?

Der Blick auf mögliche Auswirkungen auf die Arbeit ist dabei von besonderem Interesse. Besonderes Augenmerk verdienen auch die Auswahl des Einsatzbereiches und der Testpersonen.

Karl Schmitz April 2024