Zum Abschluss dieses inspirierenden Tages überwiegen bei mir mehr offene Fragen als gefundene Antworten – ein Zustand, den ich durchaus positiv bewerte. Das Gottlieb Duttweiler Institut (GDI) schafft es, mit seinem Programm und der sorgfältigen Auswahl der Referierenden einen Diskurs zu eröffnen, der lange in Erinnerung bleibt. Dieser Diskurs wird bereits zu Beginn eindrucksvoll durch Daron Acemoglu, einem weltweit anerkannten Ökonomen des Massachusetts Institute of Technology (MIT), eingeleitet. Er wirft grundlegende Fragen auf: Wer zieht den Nutzen aus technologischem Fortschritt und wer trifft eigentlich die Entscheidungen darüber?
Die Welt im Spannungsfeld zweier konkurrierender Visionen
Daron Acemoglu skizziert zwei divergierende gesellschaftliche Visionen, deren Ursprünge bis in die 1960er Jahre zurückreichen. Zum einen die Vision der »intelligenten Maschine«, die sich auf die Pionierarbeit von Alan Turing1 stützt. Turing prägte den Ansatz, dass Maschinen menschliche Fähigkeiten nicht nur nachahmen, sondern diese in zunehmend komplexeren Kontexten übertreffen sollen. Dem entgegen steht das Konzept einer »menschenzentrierten« Zukunft, die er auf die Arbeiten von Norbert Wiener2 bzw. J.C.R. Licklider und Douglas Engelbarts Werk3 «human-machine symbiosis« zurückführt. In dieser Zukunftsvision sollen Maschinen menschliche Fähigkeiten nicht ersetzen, sondern ergänzen und erweitern.
Die Verbindung der zuvor beschriebenen Visionen mit einer makroökonomischen Perspektive war für mich neu. Daron Acemoglu hinterfragt kritisch, in welchem der beiden Szenarien, welche Art von Produktivitätsgewinnen entstehen, wer von diesen Fortschritten profitiert und welches Gesellschaftsmodell letztendlich gefördert wird. Seine Analyse historischer Entwicklungen verdeutlicht, dass es kein automatisches Korrektiv gibt, welches breite gesellschaftliche Prosperität garantiert.
Im Zusammenhang mit aktuellen KI-Technologien, insbesondere generativen KI-Systemen und Large Language Models (LLMs), identifiziert Acemoglu vier zentrale Herausforderungen, die adressiert werden müssen, um den Weg hin zu einer menschenzentrierten Zukunft zu ebnen. Er betont, dass aus früheren Digitalisierungswellen sowie der industriellen Revolution wertvolle Lehren gezogen werden können, die für die Bewältigung dieser Herausforderungen von Bedeutung sind.
1. Übertriebene Automatisierung: Hier liegt der Fokus zu stark auf der Automatisierung, ohne menschliche Entscheidungs- und Arbeitsprozesse ausreichend zu unterstützen. Dies führt nicht nur zu einer Zunahme gesellschaftlicher Ungleichheiten, sondern lässt auch Produktivitätspotenziale ungenutzt, insbesondere durch Pseudo-Automatisierung, bei der Menschen trivialisiert werden oder in Jobs enden, in denen sie wie Maschinen behandelt werden.
2. Verlust von Informations-Diversität: Die Automatisierung menschlicher Interaktionen oder die Nutzung von Daten aus Maschine-zu-Maschine-Interaktionen für die Weiterentwicklung von KI-Modellen könnte zu einer schleichenden Qualitätsverschlechterung führen bzw. die Skalierung von KI-Technologien verlangsamen – ein Prozess, den Acemoglu als »KI, die ihr eigenes Grab schaufelt«, beschreibt.
3. Notwendigkeit adäquater menschlicher Fähigkeiten: Die KI-basierte Unterstützung menschlicher Entscheidungsprozesse erfordert angemessene menschliche Fähigkeiten zur Interpretation. Aktuelle Forschungen zeigen, dass es je nach Kontext zu erheblichen Fehleinschätzungen und Missinterpretationen kommen kann, sowohl in Form von Überbewertung als auch von Misstrauen gegenüber von KI generierten Empfehlungen.
4. Monopolisierung von Informationen: Die aktuellen KI-Technologien erhöhen das Potential für Falschinformationen und Manipulation erheblich. Mittelfristig ist mit einem Anstieg zu rechnen, der die Gesellschaft weiter polarisiert. Acemoglu zitiert Hannah Arendt, um die gravierenden Konsequenzen dieser Entwicklung zu unterstreichen: »Wenn jeder lügt, ist die Konsequenz nicht, dass du den Lügen
glaubst, sondern dass niemand mehr irgendetwas glaubt.«

Diese Herausforderungen verdeutlichen die Notwendigkeit einer bewussten und ethisch fundierten Herangehensweise an die Entwicklung und Implementierung von KI-Technologien, um eine Zukunft zu gestalten, die den Menschen in den Mittelpunkt stellt und gleichzeitig die Potenziale der Technologie nutzt. Daron Acemoglu schließt seine Analyse mit einem starken Re-Design-Appell. Er betont die Notwendigkeit einer Neuausrichtung in Wissenschaft und Forschung hin zu Fragen der sozialen Gerechtigkeit, der Demokratisierung von Informationen und einem verstärkten Fokus auf die Qualität von KI-Modellen. Diese Empfehlungen zielen darauf ab, KI so zu gestalten, dass sie den Menschen dient und gesellschaftlichen Fortschritt fördert, anstatt Ungleichheiten zu verstärken.
Zusätzlich zur wissenschaftlichen und forschungsorientierten Neuausrichtung sieht Acemoglu eine entscheidende Rolle für die politische Gestaltung. Er unterstreicht die dringende Notwendigkeit einer Regulierung von KI-Technologien. Darüber hinaus plädiert er für die Stärkung zivilgesellschaftlicher Bewegungen.
Ein weiterer zentraler Aspekt seiner Empfehlungen ist die Reform der Steuer- und Förderpolitik. Acemoglu argumentiert, dass durch eine gezielte Anpassung dieser politischen Instrumente Asymmetrien, die durch den Einsatz von KI entstehen oder verstärkt werden, effektiv adressiert werden müssen. Zudem sollen solche Reformen die Entwicklung neuer Daten-Geschäftsmodelle unterstützen, die ethische Grundsätze und sozialen Nutzen in den Vordergrund stellen.
Daron Acemoglu hebt sich von anderen Referenten ab, indem er überzeugend mit wissenschaftlicher Evidenz darlegt, dass substanzielle Hürden überwunden werden müssen. Gleichzeitig zeigt er sich trotz der herausfordernden Perspektive zuversichtlich:
»Good news: It is possible. Bad news: This is not where we are heading:«
Für eine tiefere Einsicht in die makroökonomischen Auswirkungen dieser Entwicklungen empfehle ich das Webinar 4 zu Daron Acemoglus Buch »Power and Progress.«
Wie wir im Zeitalter der Maschinen menschlich bleiben
Hannah Frey, Mathematikprofessorin am University College London und Autorin von »The Mathematics of Love« sowie »Hello World: How to be Human in the Age of the Machine«, greift die Frage auf, welches Zukunftsszenario aktuell Gestalt annimmt. Mit einem erfrischenden Maß an Humor und treffend ausgewählten Beispielen verdeutlicht sie die Komplexität und potenzielle Fallstricke im Zusammenspiel von Mensch, Maschine, Mathematik, Technologie und Gesellschaft. Ihre Ausführungen betonen, dass selbst gut gemeinte technologische Lösungen bei genauerer Betrachtung der sozialen Wechselwirkungen nicht mehr so eindeutig erscheinen. Besonders im Kontext von Anwendungen wie der Kriminalitätsbekämpfung oder medizinischen Diagnosen durch Algorithmen illustriert Frey, wie essenziell die sorgfältige Abwägung von Designentscheidungen ist.
Frey untermauert die Bedeutung ihres Arguments mit dem anschaulichen Beispiel eines Mietautos, das halb im Meer versunken ist, nachdem der Fahrer den Anweisungen von Google Maps bis zum bitteren Ende gefolgt war – trotz der offensichtlichen Präsenz einer Autofähre im Hintergrund, die eigentlich zur gewünschten Touristendestination führen sollte. Der am meisten unterschätzte Faktor bei der Gestaltung intelligenter Maschinen, bleibt die menschliche Variabilität und Unvorhersehbarkeit, so Frey. Ihre Ausführungen werfen ein Licht darauf, wie wichtig es ist, den menschlichen Faktor in die Entwicklung und Implementierung von Technologien miteinzubeziehen, um derartige Missverständnisse und Fehlinterpretationen zu vermeiden.
Zur Vertiefung empfehle ich die großartige künstlerische Bearbeitung des Themas von Superflux mit ihrem Projekt Uninvited Guests, sowie das Projekt digitalhumanism.at
Die Zukunft sozialer Beziehungen
Das Gottlieb Duttweiler Institut (GDI) hat es mit der Auswahl seiner Sprecher:innen geschafft, ein umfassendes Spektrum an Themen rund um die Auswirkungen von KI auf die Gestaltung zwischenmenschlicher Beziehungen abzudecken. Besonders interessant ist der Fokus auf die Bereiche Freundschaft, Vertrauen, persönliche Ratgeber und Führung, die ich hier näher beleuchten möchte.
Petter Bae Brandtzaeg von der Universität Oslo illustriert mit Studienergebnissen5 zur Mediennutzung und Emotionsforschung sowie Interviews mit Nutzer:innen des digitalen Begleiters Replika6, wie sich soziale Beziehungen und das Verständnis von Freundschaft wandeln. Die Entwicklung geht von der reinen Vernetzung und technologiegestützten Interaktion zwischen Menschen hin zu einer direkten Kommunikation zwischen Mensch und Maschine, die zu »echten« Chat-Bot-Freundschaften führen kann. Nutzer:innen von Replika berichten von tiefen emotionalen Bindungen und einem Gefühl des Verstandenwerdens, das ihnen hilft, Zuversicht und Selbstvertrauen für die harte Realität der menschlichen Beziehungswelt zurückzugewinnen.

Alison Darcy, Gründerin von Woebot Health7, zeigt auf, wie KI bereits heute erfolgreich im verhaltenstherapeutischen Kontext eingesetzt wird, um psychische Probleme zu mindern und zum menschlichen Wohlbefinden beizutragen. Die Argumente Skalierbarkeit und Verfügbarkeit sowie die unmittelbare Nähe von Problem und Hilfe lassen sich auch auf den Business-Kontext, wie etwa Echtzeit-Coaching und organisationale Trainings, übertragen, so Darcy.
Nils Köbis von der Universität Duisburg-Essen beleuchtet, wie Künstliche Intelligenz unsere moralischen Entscheidungen beeinflussen kann und welche regulativen Maßnahmen dagegen helfen könnten. Als Grundlage für seine Forschung argumentiert er, dass etablierte sozialwissenschaftliche Methoden auch für die Beobachtung von »Maschinen Verhalten« bzw. »Mensch-Maschine-Interaktion« anwendbar sind. Seine Forschungsfragen, sind vor dem Hintergrund des starken Anstiegs Maschinen-generierter Empfehlungen hoch relevant. Auch die Themen, zu denen wir uns in Zukunft Rat von Algorithmen holen, unterliegen einem radikalen Wandel. Folgt man der Vision von Amazon werden wir Alexa in Zukunft nicht nur nach dem aktuellen Wetterbericht oder dem Weg von A nach B fragen, sondern ob wir unseren Job wechseln sollen oder Beziehungen fortführen oder beenden sollen.
Sein Vortrag zeigt, wie stark unser moralsicherer Kompass durch Empfehlungen beeinflussbar ist8. Nils Köbis betont auch, dass es dabei gar keinen großen Unterschied macht, ob diese Empfehlungen von Menschen oder Algorithmen kommen. Die aktuelle Diskussion um eine Kennzeichnung von KI-generierten Inhalten reicht dabei nicht aus, um die Integrität unserer Entscheidungsfindung zu schützen. Köbis hebt hervor, dass die Arbeit am EU AI Act auf wissenschaftlicher Evidenz basiert, betont aber auch, dass die Regulierung mit der rasanten technologischen Entwicklung Schritt kaum mithalten kann.
Die Vorträge dieser Experten zeigen eindrucksvoll, wie KI die Landschaft menschlicher Beziehungen neu formt und welche Herausforderungen und Chancen dies mit sich bringt. Sie unterstreichen die Notwendigkeit einer reflektierten und verantwortungsvollen Herangehensweise an die Integration von KI in unser soziales Gefüge.
Bot Boss: Der Aufstieg digitaler Führungskräfte
Niels Van Quaquebeke von der Kühne Logistics University stellte auf der Konferenz eine visionäre Perspektive auf die Zukunft der Führung vor. Van Quaquebeke nutzt Geschichten, um das Publikum auf eine Reise mitzunehmen, welche die herkömmliche Vorstellung von Führung in Frage stellen.
»Sie denken vielleicht, dass echte Führung immer eine Aufgabe für Menschen sein wird – für Menschen wie Sie selbst. Wenn Sie sich da mal nicht täuschen: KI wird die Führung, wie wir sie kennen, übernehmen und verändern …«
Eine seiner Studien zu einer digital-first Textilfabrik, in der das mittlere Management durch Algorithmen, Tablets und Monitore ersetzt wurde, zeigt auf den ersten Blick ein dystopisch anmutendes Szenario. Doch die Ergebnisse der qualitativen Interviews mit den dort Arbeitenden sprechen von spürbaren Verbesserungen, gerechter Arbeitsverteilung und einem neuen Gefühl der Teamzugehörigkeit. Und er geht einen Schritt weiter: Wie sieht es mit Leadershipfragen wie Sinnstiftung, emotionaler Bindung und der Entfaltung von Potentialen in einer zunehmend von KI geprägten Arbeitswelt aus? Van Quaquebeke argumentiert, dass die emotionalen Bindungen, die im privaten Kontext mit digitalen Begleitern wie Replika oder in der verhaltenstherapeutischen Unterstützung durch Woebot Health entstehen, auch auf den organisationalen Kontext übertragbar sind.

Es geht im Vortrag nicht um regelbasierte starre Arbeitszuteilung eines betrieblichen Optimierungsalgorithmus. Das Bild, das Van Quaquebeke zeichnet, ist ein Mensch-Maschine Dialog über mögliche Aufgaben und Lösungswege, der neben organisationalen Aspekten auch persönliche Bedürfnisse und Kontext-Information in eine gemeinsam mit der Maschine getroffene Entscheidung einfließen lässt. Am Ende dieser Mensch-Maschine Interkation steht eine vom Menschen getroffene Entscheidung, die durch AI unterstützt wird. Auch Entwicklungsaspekte wären integrierbar. Viele nutzen heute schon Devices wie Fitbit oder Smart-Watches zum Trainieren. Wir messen unsere Leistung und lassen uns durch Algorithmen Trainingspläne maßschneidern. Die Vorstellung etwas Vergleichbares im Dialog über Aufgaben und Lösungswege einfließen zu lassen, ist gar nicht so weit weg.
Der Vortrag beschreibt eine Maschine, die mich in der Arbeit dabei unterstützt in den Flow-Zustand zu kommen. » … und wenn sie mal schlecht drauf sind, weil ihr Hamster gestorben ist, hört ihnen ihre KI-Führungskraft zu und im Unterschied zu ihrem Chef, weiß sie noch, wie ihr Hamster heißt«.
Van Quaquebeke beschreibt eine Art Open-Door-Policy, nur beliebig skalierbar, immer verfügbar und befreit von Selbstzensureffekten. So wird es möglich, ohne Hürden Dinge anzusprechen oder Fragen zu stellen. Sparring, Coaching oder einfach nur Zuhören, je nach Kontext. Dazu kommen noch Transparenz, Verfügbarkeit und Zugänglichkeit zu allen für die Arbeit relevanten Informationen. Könnte das nicht zu mehr Bindung, Sinn und Freude an der Arbeit führen?
Die Idee klingt spannend, gleichzeitig klingt bei mir sofort Hannah Frey an und ich sehe hier bei all den guten Absichten, ein Minenfeld von trickreichen Designentscheidungen aufgehen. Als Change-Experte arbeitet mein Hirn schon gedanklich an der Frage, wie wir zukünftig Entwicklungsprozesse und Leadership Development in solchen Kontexten gestalten werden. Dürfen Mitarbeiter:innen bei der Frage KI-unterstützter Führung mitentscheiden? Auf welche neuen Daten werden wir in qualitativen Organisations-Analysen zurückgreifen können? Werden wir diese Daten dann auch AI-unterstützt auswerten?
Am Ende bleiben bei mir gemischte Gefühle. Inspiration, Faszination über neue Entwicklungen und hohe Zustimmung zur Kernaussage der Eröffnungskeynote: eine menschen-zentrierte Entwicklung ist möglich, braucht aber Korrekturen der aktuellen Entwicklung. Ich hoffe dieser Artikel kann ein kleines Stück dazu beitragen eine zentrale Forderung von Daron Acemoglus zu unterstützen:
»We need to change the narrative from the hubris of techno-optimism.«
Die Entscheidung des Gottlieb Duttweiler Instituts (GDI), auch einen Blick auf die menschliche Kreativität zu lenken, bietet einen notwendigen und erfrischenden Kontrast zu den technologiezentrierten Diskussionen der Konferenz. Die Performance von Loczniki9 mit dem Titel »NPC1010-Girlfriend« ist ein faszinierendes Beispiel dafür, wie Kunst und Technologie ineinandergreifen können, um tiefe menschliche Erfahrungen und Emotionen zu reflektieren. Hier versucht der Mensch die Maschine zu imitieren und gleichzeitig setzen die beiden ihre Performance spielerisch und humorvoll in einen zutiefst menschlichen Kontext: die Liebe.
Der Artikel wurde mit Hilfe von ChatGTP4 recherchiert und überarbeitet, um ihn dann nochmal zu überarbeiten. 🙂
Linksammlung
Daron Acemoglu | Professor für Wirtschaftswissenschaften Massachusetts Institute of Technology MIT |
Hannah Fry | Professorin für Mathematik der Städte University College London UCL Grossbritannien |
Stefano Puntoni | Professor für Marketing The Wharton School of the University of Pennsylvania |
Alison Darcy | Gründerin und Präsidentin Woebot Health |
Michael Musandu | Mitgründer und CEO Lalaland Niederlande |
Petter Bae Brandtzaeg | Professor für Medieninnovation University of Oslo Norwegen |
Niels Van Quaquebeke | Professor für Leadership und Organizational Behavior Kühne Logistics University Deutschland |
Nils Köbis | Professor for the Human Understanding of Algorithms and Machines Universität Duisburg-Essen Deutschland |
Oskar Szymkowski und Nicole Hoff | Performance-Künstler Loczniki Polen |
Karin Frick | Principal Researcher Gottlieb Duttweiler Institute Schweiz |
replika.ai | The AI companion who cares |
woebothealth.com | Behavioral health, at scale |
Lalaland.ai | AI powered digital model studio for digital designers |
- Alan Turing – Wikipedia ↩︎
- Norbert Wiener – Wikipedia ↩︎
- Man-Computer Symbiosis ↩︎
- Webinar zu Power and Progress ↩︎
- My AI Friend: How Users of a Social Chatbot Understand Their Human-Ai Firendship, April 2022, Human Communication Research 48 (12) ↩︎
- replika.ai – The AI companion who cares ↩︎
- www.woebothealth.com ↩︎
- Op-Ed: How AI’s growing influence can make humans less moral ↩︎
- www.loczniki.com ↩︎
- Bezeichnung für »Non Playing Character« in Computerspielen ↩︎