Ein Paradigmenwechsel
Als ob das Leben nicht schon komplex genug wäre, können wir also seit November 2022 eine neue unbekannte, viel versprechende, jedoch gewagte Beziehung eingehen. Generative Pre-trained Transformers (GPT) sind im Markt angekommen und warten auf Gesprächspartner:innen. 100 Millionen haben zwei Monate nach dem Launch von ChatGPT das Angebot angenommen, was bisher kein anderes Tool schaffte. Instagram zum Beispiel brauchte 2,5 Jahre dafür. Der freie Zugang zu KI war wohl sehr reizvoll, aber die neue, noch nie zuvor erlebte Art der möglichen Interaktion mit Maschinen spielt dabei wohl eine größere Rolle.
Jakob Nielsen, der sich seit über 30 Jahren mit Benutzer:innen-Schnittstellen zwischen Mensch und Computer beschäftigt, beschreibt einen spannenden Unterschied in der Interaktion mit Large Language Models (LLMs), die Grundlage für alle GPTs sind, zu herkömmlichen Systemen. Auf die bisherigen befehlsbasierten Eingaben folgen nun die absichtsbasierten Ergebnisspezifikationen, bei der Menschen dem Computer sagen, was sie wollen, und was nicht, wie er es tun soll, worauf er achten soll, ob er Fragen dazu hat, usw.
Algorithmen sind schon länger Teil unseres Lebens, im Hintergrund, eingebaut in vielen Software-Tools. Doch nun seit Ende 2022 können wir mit Maschinen in einer Art kommunizieren, die über das Geben von Befehlen weit hinaus geht. Large Language Models können automatisiert Sprache und Schrift generieren, indem sie statistische Beziehungen zwischen kleinsten Textteilen erkennen. Damit antworten sie, fassen zusammen und es entsteht der Eindruck, als würden sie auf das Gegenüber eingehen, also wie ein Gesprächspartner Dinge verstehen.
Das ist ein Paradigmenwechsel in der Beziehungsgestaltung von Mensch und Maschine. Die bisher mächtigsten Medien, wie die Sprache an sich, die Schrift, der Buchdruck, der Kopierer oder das Smartphone haben Kommunikation enorm transformiert. Die großen Sprachmodelle und andere auf Algorithmen basierende Systeme reihen sich hier nun ein. Nun gibt es neue Möglichkeiten des Erlebens, des Handelns, der sinnhaften Verarbeitung unseres Lebens, wie es Dirk Baecker als Soziologe ausdrückt. Wir müssen lernen damit umzugehen und haben keine Ahnung, welche genauen Auswirkung dies auf uns und unsere Gesellschaft haben wird. Genauso wie die Menschen im 15. Jahrhundert wohl nicht wussten, dass mit der Erfindung der Druckerpresse die Wissensgesellschaft ihren Anfang nehmen wird.
»Jetzt treffen wir, die wir von Natur aus unberechenbar sind, auf unberechenbare Maschinen. Wer glaubt noch daran, dass Maschinen unser Leben vereinfachen?«
Nun könnte man meinen, das wäre einfach der immerwährende technologische Wandel. Allerdings gibt es etwas Besonderes an der jetzigen Situation. Wir Menschen versuchen seit jeher die Dinge zu durchschauen, auf Kausalitäten herunterzubrechen. Während Chester Carlson, 1959 Erfinder des ersten Kopierers, seine Maschine noch gänzlich durchschaut hat, behaupten dies die Entwickler von Sprachmodellen nicht mehr. Diese Maschinen, die unvorstellbar große Datenmengen verarbeiten und mit Hilfe erkannter Muster neu kombinieren, zusätzlich laufend (teil)autonom dazulernen, sind nicht mehr gänzlich durchschaubar.
Jetzt treffen wir, die wir von Natur aus unberechenbar sind, auf unberechenbare Maschinen. Ein Punkt, an dem nach Dirk Baecker Komplexität die Vernunft ablöst. Wer glaubt noch daran, dass Maschinen unser Leben vereinfachen?
Und es wird noch schlimmer
Bislang simulieren LLMs die menschliche Realität. Desto mehr herausgearbeitet wird, was uns besonders macht und von Maschinen unterscheidet, desto schneller werden LLMs diese Fähigkeiten lernen und immer menschlicher werden. Und zugleich durch autonome Lernprozesse die Beschreibung der Realität immer weiter verändern und eine eigene Realität schaffen. Dann wird es spannend wer in Zukunft wen spiegeln bzw. replizieren wird. «We shape our tools and thereafter our tools shape us,« meinte John Culkin, Professor of Communication an der Fordham University in New York schon 1967 treffend.
Wir steuern auf eine Welt von Polyrealitäten zu, ein Netz vieler paralleler, voneinander abhängiger Realitäten, die sich gegenseitig beeinflussen, wobei die Grenzen zwischen ihnen immer mehr verschwimmen. Ich befürchte menschliche Überforderung, Überwältigtsein, Ohnmachtsgefühle und den reflexartigen Ruf nach einfachen Lösungen samt trivialer Erklärungen in dieser zunehmenden Komplexität. Um dies zu bewältigen, werden sich viele in ihre eigenen kleinen Realitäten zurückziehen und sich eine halbwegs überschaubare Welt in der Welt schaffen, in der sie Informationen einholen, ihre Beziehungen pflegen, sich selbst und den Sinn ihres Lebens spüren.
Zwei Thesen, die zugleich Chancen sein können
Neben diesen, für manche wohl düsteren Aussichten, möchte ich zwei Arbeitsthesen beschreiben, die zugleich Chancen zur Komplexitätsbewältigung in der jetzigen Situation aufzeigen.
These 1: »In der Auseinandersetzung mit Maschinen lernen wir Wesentliches über uns Menschen und haben die Chance wieder Mensch zu werden.«
Wenn Maschinen, wie LLMs, erstmals in diesem Ausmaß mit uns in Konkurrenz treten, sind wir gezwungen, sich mit dem eigenen Sein auseinanderzusetzen. Dabei halten uns Maschinen einen Spiegel vor. So finden wir überraschende Gemeinsamkeiten, genauso wie Unterschiede.
Je mehr wir Maschinen beim Denken zuschauen, desto mehr entdecken wir das Maschinelle an unserem Denken. In der Vergangenheit, als Maschinen noch durchschaubar waren, unterwarfen sich Menschen gewissen Normen und Formen, die ihr Verhalten ebenso berechenbar machten. Arbeiter:innen am Fließband sind ein klassisches Beispiel dafür. Je besser Menschen sich wie Maschinen verhielten, desto zufriedener waren klassische Managementsysteme. Auch bei Large Language Models gibt es genügend Prozesse, die den menschlichen sehr ähnlich sind. Beide greifen auf in der Vergangenheit Gelerntes zurück, um Gegenwärtiges einzuschätzen bzw. zu prognostizieren. Was manchmal hilfreich, manchmal gefährlich sein kann. Beide neigen zu systematischen Verzerrungen bei Entscheidungen.
Die gegenseitige Konfrontation der beiden Systeme verdeutlicht aber auch die jeweiligen Besonderheiten, Stärken und Unzulänglichkeiten. In der Klarheit, was die beiden voneinander unterscheidet, liegen wohl die größten Synergien. Wir können viel voneinander lernen.
Wenn Sie wieder mal eine der lästigen Captcha-Aufgabe lösen müssen, weil das Programm prüft, ob es sich um einen Menschen oder einen Bot handelt, können Sie gut erkennen, was Menschen noch immer besser können – zum Beispiel Chihuahuaköpfe und Blaubeermuffins voneinander unterscheiden. LLMs können wiederum schneller, genauer, umfassender Daten und dessen Muster analysieren, allerdings sind sie kontextblind, was in vielen Situationen zu unangemessenen Entscheidungen führt. Jedoch ist Kontextblindheit beim Diagnostizieren von Melanomen (bösartiger Hautkrebs) wiederum ein Vorteil, weil treffsicherer, wie sich gezeigt hat.
LLMs simulieren Verstehen, ohne die Fähigkeit, den tieferen Sinn ihres Handelns zu erfassen. Menschliches Verstehen heißt etwas in einen beschreibbaren Kontext zu setzen und damit Sinn zu generieren. Somit verstehen LLMs nicht, oder besser gesagt, kennen den Sinn ihres Handelns nicht. Sie reagieren auf das Gegenüber und simulieren Verständnis bzw. das Erkennen, was das Gegenüber möchte – was mich wiederum an so manche Menschen erinnert.
Einer meiner Selbstversuche
In einem Selbstversuch habe ich mit ChatGPT eine gegenseitigen Erwartungsklärung für eine zukünftige Zusammenarbeit ausprobiert. Im Sinne von Rollenklarheit mache ich das immer mit neuen Kolleg:innen. Es sprengt den Rahmen hier in die Tiefe zu gehen. Amüsiert haben mich Aussagen zu unserer konsistenten Zusammenarbeit, wie «I will never get tired, bored, or distracted.« Und was erwartet sich ein ChatGPT von mir? »Clearly articulate your thoughts, questions, and prompts so that I can understand what you’re looking for, a willingness to consider alternative viewpoints for more enriching discussions, treat our interaction with respect, patience allows for a smoother flow of conversation, feel free to provide feedback,…« Da konnte ich nur »vice versa« antworten.
Typisch menschlich
Durch Kommunikation mit LLMs lernen wir Gespräche mit Menschen neu einzuschätzen. Durch Eintauchen in virtuelle Realitäten lernen wir analoge Realitäten neu zu erleben. Es gibt Qualitäten, die tief im Mensch-Sein verwurzelt sind – Liebe, Sinnlichkeit, Leidenschaft – deren Bedeutungen nun im Kontext von Arbeit neu definiert werden muss. Auch Zuschreibungen wie Verspieltheit oder der Mut zur Verweigerung, die in der Arbeitswelt traditionell wenig geschätzt wurden, können nun als wesentliche Differenzierungsmerkmale des Menschlichen gegenüber dem Maschinellen neu bewertet werden. Auch das (un)beabsichtigte Missachten von Regeln hat schon die eine oder andere Innovation hervorgebracht. Es ist diese klare Differenzierung, die das Potenzial für Synergien birgt, die weit über das hinausgehen, was jede Seite für sich allein leisten könnte.
Wo wir wieder an der Schnittstelle oder besser beim Zusammenspiel wären. In der Kommunikation mit LLMs erkennen wir, dass die Art, wie man mit LLMs spricht, genauso eine Kunst ist wie die zwischenmenschliche Kommunikation – beides wird oft unterschätzt und Verantwortung für Fehler meist beim Gegenüber verortet. Wenn sich jemand über eine unzureichende Antwort von ChatGPT ärgert, denkt er selten darüber nach, wie unzureichend seine Frage war.
Schließlich sind Erkenntnisse aus diesem Dialog mit Maschinen immer nur Momentaufnahmen. Sobald eine Seite dazulernt, werden die Karten wieder neu gemischt. Desto mehr wir zum Beispiel herausarbeiten, was uns als Menschen ausmacht, desto schneller werden LLMs in der Lage sein, diese scheinbar einzigartigen Fähigkeiten selbst anzunehmen.
These 2: »Der entscheidende Aspekt liegt im Zusammenspiel im Treffen von Entscheidungen. Nicht ein Entweder Mensch oder Maschine, sondern ein fein justiertes Sowohl – Als auch wird ausschlaggebend sein, ob der Mensch im Zentrum bleibt.«
Eine weitere Möglichkeit diese Komplexität zu bewältigen, ist Klarheit über den Entscheidungsrahmen zu schaffen. Dafür braucht es ein Verständnis, wie wir selbst bzw. Maschinen Entscheidungen treffen und wer hier was beitragen kann, damit am Ende eine gute Entscheidung herauskommt.
Kognitive Entscheidungsprozesse basieren auf rationalen und emotionalen Logiken, wobei die Rolle der Vernunft meist überschätzt wird. Stärkeren steuernden Einfluss haben meist Emotionen, was per se weder gut noch schlecht ist – uns aber auf jeden Fall von Maschinen unterscheidet. Es mag überraschen, aber auch menschliche Entscheidungen sind weitgehend automatisiert. Unsere Gehirne neigen dabei zu systematischen Verzerrungen (Bias). Maschinen, wie LLMs wiederum lernen von Produkten unserer Gehirne und übernehmen diese Verzerrungen. Wieder ein Beispiel, das aufzeigt, wie wir Täter und Opfer zugleich sind. Wenn wir Transparenz, auf welchen Grundlagen Maschinen Entscheidungen treffen, einfordern, sollten wir uns genauso der Kriterien und Dynamiken bewusst sein, aufgrund dessen wir Menschen Entscheidungen fällen.
Wir treffen immer Entscheidungen in sozialen, ethischen und anderen Kontexten – beeinflusst von Glaubenssätzen, Werten, Prinzipien, Narrativen – bewusst wie unbewusst. Durch die Kontextblindheit der Maschinen braucht es Menschen, um den jeweilig relevanten Kontext in die Entscheidungsfindung mit einzubeziehen. Zumindest solange die Maschine diese Fähigkeit noch nicht gelernt hat.
Eine Dreierbeziehung
Im Kontext von Organisationen wird aus dieser Zweier- eine Dreierbeziehung: Mensch – Maschine – Organisation. Hier braucht es Klarheit über die Rolle von Maschinen in den Entscheidungsstrukturen und -prozessen. Dazu müssen Menschen mit neuen Kompetenzen, wie z.B. Prompt Writing ausgestattet werden, die dann in neuen Rollen mit spezifisch ausgewählten Algorithmen-basierenden Technologien zusammenarbeiten und verantwortlich den Output dieser Kooperation in den entsprechenden Organisationskontext setzen und selbst entscheiden oder entscheiden lassen.
Und dabei laufend – teilweise wieder mit Hilfe der Technologie – die Wirkung reflektieren. Eine zukünftig herausfordernde Aufgabe für Organisationen. Allerdings hat maschinelle Datenfundierung und Mustererkennung kombiniert mit menschlicher Einsicht und Kontextsetzung großes Potential die Qualität von Entscheidungen eindrucksvoll zu erhöhen.
Noch einer meiner Selbstversuche
Ich beobachte als Selbstversuch laufend mein Zusammenspiel in Entscheidungsfindungsprozessen mit autonomen Systemen, die über Algorithmen selbständig Entscheidungen treffen wollen. Nehmen wir eine Fahrt in meinem Fahrzeug, das unterschiedliche (teil)autonome Systeme eingebaut hat, als simples Beispiel, wer hier welche Entscheidungen trifft. Ich entscheide, wohin es gehen soll, mein Navi welchen Weg wir nehmen. Es hat eindeutig mehr (Verkehrs)daten dafür als Grundlage. Bei guten Ortskenntnissen halte ich mich manchmal nicht daran. Dann bin ich stolz, wenn es schneller geht, aber meistens bereue ich es. Ich habe gelernt, dass mein Fahrzeug in vielen Situationen besser die Spur halten kann, verlässlicher das Fernlicht abblendet, konstanter die Geschwindigkeit hält und oft schneller Gefahren erkennt.
«We shape our tools and thereafter our tools shape us.«
John Culkin
Unsere Kooperation in der Steuerung wird immer besser, indem immer klarer wird, wer was entscheiden darf, wann die Steuerungsübergaben sind, wann ich mich nur beraten lasse, wann ich die Entscheidung abgebe, aber informiert werden will und was wir besser »gemeinsam« entscheiden. Größere Diskussionen haben wir noch, wenn es bei längeren Fahrten behauptet, ich wäre müde und sollte eine Pause einlegen. Das streite ich dann ab. Aber wenn ich ganz ehrlich zu mir bin, erkennt es das System besser und schneller als ich selbst.
Zur Klarstellung
Der Versuch diesen Artikel von einem LLM schreiben zu lassen ist grandios gescheitert – zu langweilig, zu wenig pointiert. Dafür durfte der DALL.E Imagine Generator für die visuelle Unterstützung sorgen.
Thomas Schöller, forscht seit Jahren zur Zukunft der Arbeit und veröffentlichte 2019 seinen ersten Artikel zum Verhältnis Mensch-Maschine. Er ist Impulsgeber und Organisationsdesigner zur Neuausrichtung & Neugestaltung sinnerfüllter Organisationen.