Wie bestimmt KI unsere soziale Praxis? Gestern unterhielt ich mich mit einer Mutter, die zutiefst verärgert über die Ungleichbehandlung ihres Sohnes war. In einem Schulaufsatz wurde ihr Sohn, den ich persönlich kenne und dem ich eine hohe Intelligenz zuschreibe, signifikant schlechter bewertet als der Aufsatz eines Klassenkameraden, der dafür bekannt ist, seine Hausaufgaben mit KI zu erledigen. Offensichtlich, so meine erste Vermutung, ist die zugrundeliegende Prüfungsform und deren Bewertung auf das Schreiben von glattgebügelten Texten ausgerichtet. Individualität wird zum Störfaktor; damit gewinnt der KI-Text haushoch.

Die Informationsgesellschaft lagert ihre Epistemologie an nichtmenschliche Systeme aus

Es gibt sehr viele Dinge, die insbesondere Large Language Models (LLMs) nicht leisten können, wie z.B. Kontexte und ihre Semantik verstehen, Begründungszusammenhänge argumentieren oder relevante von weniger relevanten oder irrelevanten Beispielen unterscheiden zu können. KI kann weder fühlen noch denken. Würde der oben genannte Aufsatz eine epistemologische Genese erfordern, d.h. eine Dokumentation seiner Entstehung, das wahrhaftige linguistische Ringen mit dem Text, sähe der sich selbst betrügende Mitschüler ziemlich alt aus. Überkommene Prüfungsformen werden ihrer Formelhaftigkeit überführt.

Im Gegensatz zum Problembasierten Lernen (PBL), das neues Wissen generiert, basiert KI auf altem Wissen, Trainingsdatensätzen, einem Remix aus Wahrscheinlichkeiten, der vorgibt, zukunftsrelevante Ergebnisse vorhersagen zu können. LLMs werden derzeit von den digitalen Overlords des Silicon Valley, die auf prall-gefüllten Geldreserven sitzen, in einem beispiellosen Wettlauf vorangetrieben. Ihre Modelle treiben einerseits einen frivolen Raubbau am kulturellen Erbe der Menschheit voran (ohne freilich dessen geistige Eigentümer*innen zu entschädigen), andererseits normieren sie die Erwartung, wie menschliche Sprach-, Bild-, oder Musikhorizonte auszusehen haben. Würde KI nach den Maßstäben eines human-centred design entwickelt, sähen die Produkte der KI-Entwickler anders aus. Derzeit werden uns die Modelle von Microsoft, Alphabet, Nvidia, Meta u.v.a.m. übergestülpt, ob wir es wollen oder nicht.

Die Kolonialisierung unserer Zukünfte

In einer Zeit, in der wir von postkolonialen Diskursen sprechen, entgeht uns völlig, dass die nächste große Kolonialgeschichte, die Kolonialisierung unserer Zukunft bzw. Zukünfte durch die Normierung der Sprache durch LLMs, längst in vollem Gange ist. Nach der Ausbeutung der äußeren, physischen Welt ist die Treibjagd zur Ausbeutung der inneren, emotional-kognitiven Welt eröffnet, und ich würde mich nicht wundern, wenn diese eines Tages in einem ähnlich desolaten Zustand zurückgelassen wird wie unsere planetare Ökosphäre. Aber wen kümmert’s? Die scheinbar gottgegebenen Argumente der Effizienz- und Produktivitätssteigerung rechtfertigen so ziemlich alles. Was dabei mit der Kultur, der Gesellschaft, mit uns selbst passiert, ist zweitrangig.

Oder so: Wo wäre OpenAI heute, wenn Ilya Sutskever und Jan Leike die Entwicklung vorantreiben würden? Wie Leike auf ‚X‘ äußerte: “I believe much more of our bandwidth should be spent getting ready for the next generations of models, on security, monitoring, preparedness, safety, adversarial robustness, (super)alignment, confidentiality, societal impact, and related topics. These problems are quite hard to get right, and I am concerned we aren’t on a trajectory to get there.”

Ich sorge mich weniger um die großartigen bis gruseligen technologischen Neuerungen, die uns täglich präsentiert werden, als vielmehr um die Entkoppelung der kulturellen von der technologischen Entwicklung, insofern eine starke Kultur und Zivilgesellschaft Fehlentwicklungen leichter korrigieren kann.

An Nebelkerzenwerfern, die das verhindern wollen, mangelt es nicht. Als Elon Musk und tausend andere KI-Experten im März 2023 ein Moratorium für die Entwicklung gefordert hatten, erhofften sie sich insgeheim nichts anderes als einen Vorsprung für ihre eigenen Unternehmen. Denn nichts lähmt die technologische Entwicklung der lieben Konkurrenz effektiver als öffentlich-instrumentalisierte moralische Bedenken.

Wenn der Digital Divide zur unüberbrückbaren Schlucht wird : die KI-Autonomie Schwelle

Ich würde das neue Phänomen der menschlichen Entmachtung als Autonomie-Schwelle bezeichnen. Es bedeutet, dass Menschen mit einer hinreichenden Bildung generell in der Lage sind, mit den neuen Werkzeugen halbwegs umzugehen, da sie diese tatsächlich als Werkzeuge und Spielzeuge begreifen und nicht als Gedankenverstärker à la Daniel Düsentrieb oder als Ersatz für mangelnde Vorstellungskraft. Diese Eliten, zu denen die meisten von uns gehören, schöpfen aus einer privilegierten Bildungssozialisation. Sie/ wir agieren oberhalb des ‚AI-autonomy threshold‘.

Für alle anderen, die nicht ausreichend lesen, schreiben und rechnen können – laut IGLU-Studie ein großer Teil aller Grundschulkinder – wird KI zu einer lebenslangen Krücke, wobei Unternehmen ein kommerzielles Interesse daran haben, ihre Kund*innen in lebenslanger Konsumabhängigkeit zu halten. Von der Reiseplanung über finanzielle Entscheidungen, Übersetzungen, Online-Shopping, E-Learning-Angebote, Projektplanung, Restaurantauswahl, Fitness- und Lifestyleberatung, E-Mails und Chatnachrichten, Bewerbungsschreiben bis hin zur Partnersuche wird das individuelle wie soziale Leben an KI-Systeme ausgelagert. Menschen können damit weitgehend auf den Erwerb äquivalenter Kompetenzen verzichten. Sie benötigen lediglich eine KI, die ihnen die nächsten Schritte plausibel und überzeugend genug vorgibt. Experten nennen dieses psychologische Einschmeicheln ‚Alpha Persuade‘.

Am Ende steht ein fremdbestimmer optimierter Lebensentwurf mit größtmöglichster Sicherheit, Vorhersagbarkeit und wenigen Überraschungen, jedenfalls keinen unangenehmen. Auch diese werden in profilbasierten Kontextfenstern wohlwollend dosiert.

Bedrängende Geschichtlichkeit, befreiende Geschichtlichkeit

Oh nein, bitte an dieser Stelle keine verstörenden Geschichten und Narrative mit Untertiteln! Sich auf andere Menschen einzulassen, bedeutet Beziehungsarbeit zu leisten, d.h. dazu bereit zu sein, andere Menschen einzuladen, ihnen die Hand zu reichen und sie in ihrer Andersheit anzunehmen; den Menschen im Menschen wiederzufinden.

In der Geschichtlichkeit gibt es keinen Trost. Geschichtlichkeit äußert sich in individuellen wie kollektiven Leidens- und Erfolgsgeschichten, in Widersprüchen, Paradoxien, Krisen und existenziellen Unsicherheiten, die nicht in die Gewichtung eines KI-Systems passen. Das geschichtliche Leben ist einmalig: Nur einmal sind wir Kind, nur einmal erleben wir die Jugend, nur einmal durchlaufen wir die Stationen des Erwachsenenlebens. Auch Gesellschaften durchlaufen einmalige, nicht wiederholbare Phasen. Einmaligkeit ist durch unser Handeln beeinflussbar und zum Teil abschätzbar (Daniel Kahnemann & Amos Tversky), aber niemals vollkommen berechenbar. Geschichtlichkeit als unabschließbarer Prozess widersetzt sich in Hegelscher Dialektik der Steuerbarkeit, der Funktionalisier- und Finalisierbarkeit.

Insofern halte ich nicht viel von postapokalyptischen Visionen, in denen eine oder mehrere KIs, wie in der großartigen ‚Matrix‘-Filmreihe, die Menschheit tatsächlich vollständig kontrollieren. Was ich jedoch als eine bereits realisierte Variante ausmache, ist der relative Freiheitsverlust, ganz im Sinne Kants, durch die Abtretung einer offenen Selbstbestimmung an externe Systeme. Schließlich konstituiert die Fähigkeit, uns eigenständig Gesetze zu geben, denen wir als Vernunftwesen zustimmen können, unsere Definition von Freiheit – als Freie unter Freien. Das Problem der Verantwortung, also wer am Ende die Verantwortung übernimmt, wenn die Dinge fürchterlich schieflaufen, Mensch oder Maschine, stellt sich in Folge.

Spätestens an dieser Stelle wird deutlich, dass wir uns in einer hyperkomplexen Welt in einem Dilemma befinden: Einerseits benötigen wir KI-Systeme, um die Komplexität unserer Welt besser navigieren zu können, andererseits gilt es, unsere Menschlichkeit zu bewahren, indem Menschen niemals Systemen untergeordnet werden dürfen. Mehr noch – dass ihre Bedürfnisse und Wünsche die KI-Systeme leiten und informieren. Dies gestaltet sich als eine ultimativ-schwierige Aushandlung.

Es geht nicht immer in Richtung Zukunft. Geschichtlichkeit entfaltet in ihren unabschließbaren Verständnishorizonten, ihrer lebendigen Unmittelbarkeit, eine faszinierende Kraft, die sich nicht in das Korsett funktionaler Formeln und Bullet-Points zwängen lässt. In unserer Geschichtlichkeit liegen ungeahnte emanzipatorische Potenziale, denn wir wissen um die Zerbrechlichkeit von Freiheit. Wir wissen um die menschliche Verletzlichkeit und dass es keinen Automatismus, keinen zwangsläufig-fortschreitenden Weltgeist für eine bessere Zukunft gibt. Ganz im Gegenteil, muss Freiheit mit jeder Generation neu gewonnen, erlebt, demokratisch gelebt (John Dewey) und neu erfunden werden. Freiheit ist keine Sonntagsrede.

Und der soziale Klebstoff? Zur neuen Einsamkeit.

Am Ende, worauf mich eine Schulleiterin neulich hinwies, steht hinter der fremdbestimmten Sprachnormierung unglaublich viel Einsamkeit. Trotz ultimativer digitaler Vernetzung, von Tik Tok über WhatsApp bis Instagram, fühlen sich viele Jugendliche einsam bzw. vereinsamt. Soziale Medien bringen Menschen zwar zusammen, aber vermögen nicht diese permanent auf tieferer emotionaler Ebene zu verbinden. Obendrein ist Dissens meist einfacher als Konsens, was Kommunikation enorm kompliziert (früher hätten wir gesagt ‘entfremdet’), denn welche Erwartung haben wir an die Erwartung? Wir müssen stets mit der Absage, der Aufkündigung von Kommunikation durch andere im digitalen Raum rechnen. Ein solches Erwartungsmanagement kostet Kraft.

Uns ist, vereinfacht gesagt, der soziale Klebstoff ausgegangen. Menschliche Emotionen werden als medial inszenierte Mikrosensationen inszeniert. Soziale Resonanz kommt im Wunschformat. Und während das allsehende digitale Auge die Welt entzaubert, den letzten Winkel per Drohnenkamera vermessen hat, wird selbst der Ökozid zum langweiligen Störevent. Die Desintegration sozialer Beziehungen, der mit dem Siegeszug der sozialen Medien begann, setzt sich im Zeitalter der KI-Systeme fort. Wer es nicht glaubt, googele kurz nach ‚AI Girlfriend’: Die Personalisierung von Sprachassistenten wie aktuell bei ChatGPT 4o, katapultiert Anthropomorphismus in eine hohe Umlaufbahn. Die jüngste Generation der Digital Natives wächst in der Illusion auf, mit Quasi-Menschen zu sprechen. Der Turing Test lässt grüßen und wie Schrödingers Katze fühlen wir uns, ohne das Grundvertrauen in andere Menschen, gleichzeitig halb lebendig und halb tot. Oder eben sehr einsam.

Dort, wo keine genuine soziale Resonanz mehr benötigt wird, um mit Hartmut Rosa zu sprechen, bedarf es logischerweise keiner Entwicklung von Beziehungsfähigkeit. Die Gewissheit der Unabhängigkeit von anderen durch digitale Ressourcen bekommt im Versprechen der Rationalisierung persönlicher Wahlfreiheit einen höheren Stellenwert zugeschrieben als die Entwicklung glücklicher Welt-, Freundschafts-, Gemeinschafts- oder Liebesbeziehungen. Unternehmen kapitalisieren ein Hikikomori für alle: Die neue Angst vor analogen sozialen Begegnungen und der Gesellschaft kann durch entsprechende Produkte sowohl ad infinitum erzeugt als auch besänftigt werden – ein erfolgreiches wie perfides Geschäftsmodell.

Bin ich nicht furchtbar pessimistisch?

Ich bin medienkritisch und realistisch, gewiss nicht pessimistisch, denn wir wissen aus unserer Forschung und Erfahrung, wie wir zeitgemäße Lernsettings so konzipieren können, dass menschlicher Freiheit, Kreativität und persönlicher Entwicklung der notwendige Raum gegeben werden kann. Ich schließe daher mit dem schönen Gedanken Hegels, dass Freiheit die Einsicht in die Notwendigkeit ist.

In unserem Fall bedeutet das: Um die menschliche Freiheit zur selbstbestimmten Gestaltung der einzigartigen menschlichen Geschichtlichkeit weiterhin zu bewahren, bedarf es der Einsicht, dass wir einerseits auf Technologien wie KI, Quantencomputing, CRISPR und viele andere angewiesen sind, andererseits aber Entwickler nicht nur (a) die Karten in Bezug persönliche, soziale wie gesellschaftliche Konsequenzen und Effekte offenlegen müssen, sondern (b) Nutzer*innen ebenso wie indirekt Betroffene in die Entwicklung solcher Systeme – einschließlich ihrer Risikoabschätzung – partizipativ miteinbeziehen müssen.

Von einer solchen Co-Creation sind wir meilenweit entfernt.

Postskriptum: Community-basierte KI und Dekolonialisierung

Das, was wir als Bildungsgestalter*innen anstreben, sind neue, angstfreie und inklusive Lern- und Innovationsräume. Die Entwicklung von Teams spielt dabei eine zentrale Rolle. Wer die neuesten Entwicklungen mitverfolgt hat, zum Beispiel die Präsentationen auf der letzten Google I/O, erkennt schnell, wie ein Monopol einiger weniger Tech-Unternehmen die klare globale (Daten-)Dominanz durch KI anstrebt. Alles wird zu KI, vor allem Dienstleistungen. Es gibt keine App, keine Datenbank, die nicht mit KI verknüpft ist. Dem steht die Idee selbstbestimmter Gemeinschaften gegenüber, die selbst darüber entscheiden, welche Technologien sie für ihre Lebenswelt als wünschenswert erachten.

Heute Morgen bin ich über den erhellenden Podcast ‚How to bridge gaps‘ mit dem senegalesischen Philosophen Souleymane Bachir Diagne gestolpert. Tatsächlich bin ich glücklich gestolpert, weil Diagne sehr prägnant auf die Defizite des nicht-inklusiven Universalismus der Aufklärung aus afrikanischer Sicht hinweist. Kant und Hegel folgten der Maxime, dass alle Menschen gleich seien, es sei denn, sie hätten eine andere Hautfarbe. Der noblen reinen und praktischen Vernunft Kants stehen eine Geographie und Anthropologie gegenüber, die nicht unter den Teppich gekehrt werden können.

Ein exklusiver technologischer Universalismus besagt: “‚Lasst uns Technologie in unserer Sprache und unseren Regeln entwickeln, die sich besser für eine Weiterverbreitung eignen, mit einem überlegenen Ansatz und mit Ressourcen, die lokale und regionale Gemeinschaften gar nicht aufbringen können. Überlasst uns die Ordnung und die Organisation der Welt.” Das ist digitaler Neokolonialismus pur.

Diagne ergänzt den westlichen Universalismus durch das afrikanische Konzept des Ubuntu. ‘Ubuntu’ ist ein schwer zu übersetzender Begriff und bedeutet soviel wie Gemeinschaft, soziale Verbundenheit, Brüder- und Schwesternschaft, d.h. wir müssen nicht nur mit dem Verstand, sondern auch mit dem Herzen verbunden sein, wenn nachhaltige Gemeinschaften gelingen sollen. Ein solcher Ansatz ist grundlegend für die Entwicklung der Ausbildung im Technologiebereich. Für mich gehört ebenso die Idee eines ‘Ownership’, der technologischen Souveränität dazu, insoweit wir uns über das verbinden, was wir gemeinsam erschaffen. Menschen sind stolz darauf, was sie aus eigener Anstrengung erschaffen. Es geht sowohl um die Stärkung lokaler und regionaler Wertschöpfung wie auch um die Vernetzung zu globalen Communities im Technologiebereich, quasi als ‘glokaler’ (lokaler plus globaler) sozialer Knotenpunkt.

Die Frage, die wir uns neben der Teamentwicklung stellen, ist daher, wie wir solche neuen, gemeinschaftsorientierten, lokalen Social Hubs nachhaltig aufbauen können und wie die Werkzeuge aussehen können, die eine genuine Community-Co-Creation ermutigen und fördern.

Leider ist Zeit nicht auf unserer Seite.


3 thoughts on “Die Kolonialisierung der Zukunft
  1. [like] Schuhladen Isabelle reacted to your message: ________________________________

Leave a comment