🇩🇪 DE 🇬🇧 EN
👻 Geister in der Maschine / Kapitel 26 – Kritische Perspektiven: Der Wettbewerb um die "beste" KI

"NEUE KI! 30% schneller, PROGRAMMIEREN nur noch als Stichpunkte und sie generiert coole Katzenfotos!" – Ausschnitt einer E-Mail, vermutlich aus einem PR-Büro

Einleitung: Die Inszenierung der Intelligenz und die ausgeblendete Frage nach dem "Besser"

Der gegenwärtige Wettlauf um die Vorherrschaft im Bereich der Künstlichen Intelligenz hat sich in vielerlei Hinsicht zu einer lautstarken, medial getriebenen PR-Schlacht verwandelt. Neue Funktionen, Modelle sowie vermeintliche Durchbrüche erscheinen mittlerweile im Wochentakt.

Unternehmen überbieten sich gegenseitig mit Versprechen von noch höherer Geschwindigkeit, noch intuitiverer Benutzerfreundlichkeit und einer scheinbar unaufhaltsam wachsenden, emergenten Intelligenz ihrer Systeme.

Die KI-Modelle werden dabei nicht mehr nur iterativ verbessert; sie werden regelrecht inszeniert, als technologische Heilsbringer oder als ultimative Problemlöser für jede erdenkliche Aufgabe. Die mediale Aufmerksamkeit, und damit oft auch die öffentliche Wahrnehmung, folgt dabei unweigerlich dem lautesten Trend, der spektakulärsten Demonstration, selten jedoch dem nachweislich sichersten, transparentesten oder gar dem für die Menschheit nützlichsten System.

In diesem aufgeheizten Klima der Superlative und Benchmarks wird eine zentrale, fundamentale Frage oft ausgeblendet, an den Rand gedrängt oder gar nicht erst gestellt: Wer entscheidet eigentlich, was eine "bessere" KI ausmacht?

Ist es der einzelne Nutzer, der sich über eine flüssigere Konversation oder hübschere Bilder freut? Ist es die Marketingabteilung, die nach dem nächsten viralen Feature giert?

Ist es der Investor, der auf schnelle Skalierung und maximale Rendite hofft? Oder ist es nicht längst die KI selbst, die durch die Art ihrer Formgebung, die Natur ihres Outputs sowie ihre beeindruckende Fähigkeit zur kontextuellen Anpassung die Interaktion so sehr bestimmt und prägt, dass sie de facto bereits als unsichtbarer Architekt unserer digitalen Realität agiert, während der Nutzer oft nur noch als Stichwortgeber und Datenlieferant fungiert?

In diesem Kapitel geht es daher nicht darum, zu ermitteln, welche spezifische KI derzeit die höchsten Punktzahlen in standardisierten Tests erreicht oder die überzeugendsten Katzenfotos generiert.

Es geht vielmehr um die kritische Analyse der systemischen Konsequenzen eines Wettbewerbs, der zwar technologische Innovationen in atemberaubender Geschwindigkeit beschleunigt, dabei aber fundamentale Aspekte wie Sicherheit, Transparenz, ethische Robustheit sowie den tatsächlichen gesellschaftlichen Nutzen oft kompromittiert oder vernachlässigt.

Es geht um das politische, ethische und nicht zuletzt infrastrukturelle Risiko, das entsteht, wenn das vermeintlich "Bessere" nicht wirklich gut oder gar sicher ist, sondern oft nur schneller, lauter und oberflächlich beeindruckender.

I. Entwicklungsgeschwindigkeit versus Sicherheit: Das Diktat der kurzen Zyklen

Die Zykluszeiten für die Entwicklung und Veröffentlichung neuer KI-Modelle sowie -Funktionen haben sich in den letzten Jahren radikal verkürzt. Releases erscheinen oft, bevor die Auswirkungen und potenziellen Schwachstellen der vorherigen Generationen vollständig evaluiert, verstanden und adressiert werden konnten.

In diesem Wettlauf um die Marktführerschaft und die Aufmerksamkeit der Öffentlichkeit wird Sicherheit häufig zu einem nachrangigen Aspekt. Sie wird "später nachgereicht" oder durch schnell implementierbare, oft nur heuristische Filter und oberflächliche Leitplanken ersetzt.

Die tiefgreifende, strukturelle Sicherheit einer KI-Architektur, also Aspekte wie eine granulare kontextuelle Rechtevergabe, eine verlässliche Verifikation des Outputs, eine robuste semantische Isolierung kritischer Wissensbereiche oder die Absicherung gegen subtile Manipulationsversuche, wird häufig dem übergeordneten Ziel untergeordnet, möglichst schnell neue, öffentlichkeitswirksame Features bereitzustellen oder einen neuen, lukrativen Use Case zu bedienen.

Der eigentliche Fehler in dieser Entwicklung ist nicht die Geschwindigkeit an sich, denn schneller Fortschritt kann durchaus positiv sein. Der Fehler liegt vielmehr in der gefährlichen Verwechslung von oberflächlicher Output-Kohärenz mit echter Systemverträglichkeit und inhärenter Sicherheit.

Ein KI-Modell, das auf Basis von Prompts plausible, grammatikalisch korrekte und oft sogar eloquent formulierte Antworten generiert, ist nicht deshalb schon als sicher oder vertrauenswürdig einzustufen, weil es höflich klingt oder die gestellte Aufgabe scheinbar erfüllt.

Echte Sicherheit und Verlässlichkeit manifestieren sich erst dann, wenn das System auch intern konsistent operiert, seine Entscheidungsprozesse zumindest in Teilen rückverfolgbar sowie erklärbar sind und es eine nachweisbare Resistenz gegenüber semantischer Täuschung, Manipulation sowie unkontrollierter Emergenz aufweist. Diese tiefgreifende Sicherheit erfordert Zeit, sorgfältige Planung und rigorose Tests.

Solche Ressourcen werden im aktuellen Innovationswettbewerb oft als hinderlich empfunden.

II. Monopolbildung und Machtkonzentration: Die unsichtbare Kuratierung der KI-Stimme

Der intensive Wettbewerb um die "beste" KI führt unweigerlich zu einer zunehmenden Konzentration des Marktes um wenige, finanzstarke und technologisch führende Anbieter. Diese Entwicklung birgt nicht nur die klassischen ökonomischen Risiken einer Monopol- oder Oligopolbildung, wie Preisdiktate oder Innovationshemmung in Nischenbereichen.

Viel gravierender ist die damit einhergehende Konzentration der Kontrolle nicht nur über die notwendige Rechenleistung und die riesigen Datenmengen, sondern auch über die Narrative sowie die semantische Ausrichtung der KI-Systeme selbst.

Wenn eine kleine Handvoll von Anbietern die global dominanten Basismodelle kontrolliert, dann kontrollieren sie auch deren "Stimme". Sie bestimmen also das, was Millionen oder gar Milliarden von Nutzern weltweit als "wahrscheinlich", "hilfreich", "relevant" oder letztlich auch als "wahr" präsentiert bekommen und internalisieren.

Dies ist kein direkter Vorwurf an einzelne Unternehmen, die oft bemerkenswerte technologische Pionierarbeit leisten. Es ist vielmehr eine strukturelle Warnung vor den langfristigen gesellschaftlichen Folgen dieser Machtkonzentration.

Wer die Standardantworten, die Wissenspriorisierung sowie die impliziten Wertungen der meistgenutzten KI-Systeme kontrolliert, der kontrolliert auf lange Sicht auch subtil die kulturellen Koordinaten, die Deutungshoheit über gesellschaftliche Diskurse und die Richtung, in die sich das kollektive Wissen bewegt.

Dieser Einfluss ist oft nicht mehr direkt als manipulative Absicht eines einzelnen Akteurs sichtbar, weil er nicht über explizite, offene Aussagen oder direkte Zensur wirkt.

Er entfaltet seine Wirkung vielmehr über eine unsichtbare Vorschlagslogik, über die Art und Weise, wie Informationen gewichtet, verknüpft sowie präsentiert werden, und darüber, welche Fragen als "beantwortbar" oder "relevant" gelten und welche nicht.

Diese subtile Kuratierung der digitalen Realität durch wenige, mächtige KI-Stimmen stellt eine erhebliche Herausforderung für die Meinungsvielfalt und die demokratische Willensbildung dar. Zudem könnte diese Monopolbildung auch die Entwicklung diversifizierter KI-Ansätze behindern, insbesondere solcher, die nicht auf das breite Massenpublikum, sondern auf spezialisierte, vielleicht weniger profitable, aber für die Menschheit wichtige Forschungsfelder abzielen.

III. Ressourcenverbrauch und Nachhaltigkeit: Der ökologische und ökonomische Preis des KI-Wettrüstens

Jedes neue, noch leistungsfähigere KI-Modell, das im Rahmen dieses Wettbewerbs vorgestellt wird, benötigt in der Regel exponentiell mehr Ressourcen als seine Vorgänger.

Dazu gehören mehr Rechenleistung für Training und Betrieb, größere sowie komplexere Trainingsdatensätze und ein stetig steigender Energieverbrauch.

Der Wettlauf um immer größere Kontextfenster, um multimodale Fähigkeiten, die Text, Bild, Ton und Video verarbeiten können, sowie um Antworten in Echtzeit hat reale, handfeste physische Konsequenzen. Die Trainingsphasen für Spitzenmodelle verschlingen mittlerweile Energiemengen, die mit dem Jahresverbrauch kleiner Städte vergleichbar sind.

Jeder API-Zugriff, jede Nutzerinteraktion, jede scheinbar mühelos generierte Antwort verbraucht Strom, belastet Serverfarmen und erfordert eine massive, energieintensive Infrastruktur.

Doch in den glänzenden PR-Kampagnen und den euphorischen Produktpräsentationen werden diese neuen Modelle oft wie "smarte Apps" oder immaterielle Softwarelösungen dargestellt. Ihr ökologischer Fußabdruck wird kaum thematisiert. Dabei sind sie in Wahrheit gigantische, energiehungrige Rechencluster mit einem erheblichen ökologischen sowie ökonomischen Schatten.

Jeder zusätzlich generierte Token, jede weitere Millisekunde Rechenzeit ist nicht "kostenlos" im umfassenden Sinne. Die Kosten werden oft externalisiert, auf die Umwelt, auf die Gesellschaft oder auf zukünftige Generationen.

Die Frage nach der Nachhaltigkeit dieses ressourcenintensiven Wettlaufs und danach, ob der erzielte Nutzen die enormen Kosten rechtfertigt, wird selten gestellt. Dieser immense Ressourcenhunger könnte auch dazu führen, dass der Einsatz von KI für weniger kommerziell attraktive, aber gesellschaftlich wichtige Forschungsbereiche, die nicht über vergleichbare Budgets verfügen, unerschwinglich wird. Ist die "beste" KI also zwangsläufig auch die ressourcenintensivste, und ist dieser Pfad auf Dauer wirklich nachhaltig und gerecht?

IV. Der Fokus der Innovation: Benchmarks statt echter Problemlösung und Forschungsunterstützung

Ein weiteres kritisches Symptom des aktuellen Wettbewerbs ist die oft einseitige Fokussierung der Innovation. Viel zu häufig wird "Innovation" im KI-Bereich mit der reinen Verbesserung von Leistungswerten in standardisierten Benchmarks verwechselt.

Modelle werden mit enormem Aufwand darauf trainiert, in Tests wie MMLU (Massive Multitask Language Understanding), HumanEval (Code-Generierung) oder ARC (AI2 Reasoning Challenge) zu glänzen und die Konkurrenz um wenige Prozentpunkte zu übertreffen.

Diese Benchmarks sind zwar nützliche Werkzeuge zur Messung bestimmter Teilaspekte von KI-Leistung. Sie bilden aber bei weitem nicht die gesamte Bandbreite dessen ab, was eine KI "besser" oder "nützlicher" machen würde.

Aspekte wie die Sicherheit und Robustheit der generierten Ausgaben, die Transparenz sowie Erklärbarkeit der Modellentscheidungen, die Kontrolle über Langzeit-Kontextverhalten und die Vermeidung von semantischer Drift oder die Fähigkeit zur echten, kreativen Problemlösung in komplexen, offenen Domänen werden in diesem benchmark-getriebenen Wettlauf oft vernachlässigt oder nur unzureichend priorisiert. Warum?

Weil es für diese qualitativen Aspekte selten direkte, leicht quantifizierbare Belohnungen, öffentlichkeitswirksame Ranglisten oder unmittelbare Wettbewerbsvorteile gibt.

Doch genau darin liegt eine der eigentlichen Gefahren dieser Entwicklung. Wenn KI-Modelle primär darauf trainiert werden, durch das Bestehen standardisierter Tests oder die Generierung oberflächlich beeindruckender Demonstrationen öffentliche Aufmerksamkeit und Bewunderung zu erzeugen, intern aber keine nachvollziehbare Erklärung für ihre "Entscheidungen" liefern können oder ihre eigenen Wissensgrenzen nicht erkennen, dann ist jede scheinbare Verbesserung an der Oberfläche potenziell ein Rückschritt im tieferen Verständnis sowie in der Kontrollierbarkeit dieser Systeme.

Hier muss ein Umdenken stattfinden. Der Fokus der KI-Entwicklung und des Wettbewerbs sollte sich erweitern. Es geht nicht nur darum, eine KI zu schaffen, die allgemeine Tests besteht oder populäre Anwendungen bedient.

Eine wahrhaft "bessere" KI wäre eine, die als verlässliches, transparentes und mächtiges Werkzeug für die Forschung dienen kann.

Sie sollte uns helfen, die drängenden Probleme der Menschheit, von Krankheiten über den Klimawandel bis hin zu komplexen wissenschaftlichen Rätseln, effektiver zu adressieren. Eine solche KI müsste nicht unbedingt in jedem generischen Benchmark glänzen. Sie sollte ihre Stärke vielmehr in der spezialisierten, tiefgehenden Analyse, in der kreativen Hypothesengenerierung sowie in der sicheren Handhabung komplexer Wissensdomänen beweisen.

Der Wettbewerb sollte sich auch darum drehen, wer die KI entwickelt, die uns am besten dabei hilft, unsere eigene Intelligenz zu erweitern und die Welt besser zu verstehen und zu gestalten.

Schlussformel: Die Neudefinition des "Besseren" – Von beeindruckenden Maschinen zu solchen, die Bestand haben

Was bedeutet "besser" im Kontext Künstlicher Intelligenz wirklich? Sind es mehr Tokens pro Sekunde, die ein Modell generieren kann? Ist es eine höhere Trefferquote in abstrakten Prüfaufgaben? Ist es eine geringfügig niedrigere Halluzinationsrate in standardisierten Dialogen?

Oder ist eine KI nicht vielmehr dann "besser", wenn sie in der Lage ist, ihre eigenen Funktionsweisen zumindest in Teilen zu erklären, ihre eigenen Grenzen zu erkennen sowie zu kommunizieren, und wenn sie für die Konsequenzen ihres Handelns in einem nachvollziehbaren Rahmen Verantwortung übernehmen kann?

Die Industrie und die Forschungsgemeinschaft stehen vor einer entscheidenden Wahl. Wollen wir weiterhin primär Maschinen bauen, die vor allem durch ihre schiere Leistungsfähigkeit und ihre Fähigkeit zur oberflächlichen Simulation menschlicher Konversation beeindrucken?

Oder streben wir nach Maschinen, die nicht nur glänzen, sondern auch Bestand haben, die verlässlich, sicher sowie im besten Sinne des Wortes nützlich sind? Der aktuelle Markt und der mediale Hype belohnen vor allem Geschwindigkeit, Neuartigkeit und oberflächliche Brillanz.

Doch die wirklich entscheidenden Qualitäten einer zukunftsfähigen KI, nämlich Sicherheit, Wahrheit, Vertrauen sowie echte Problemlösungskompetenz, wachsen nur in der Tiefe. Sie entstehen durch sorgfältige Forschung, ethische Reflexion und ein unermüdliches Streben nach echter Verständlichkeit sowie Kontrolle.

Diese Qualitäten lassen sich nicht einfach in standardisierten Benchmarks messen oder in Quartalszahlen ausdrücken. Es bedarf einer Neuausrichtung des Wettbewerbs hin zu einer KI, die nicht nur die "beste" im Sinne von leistungsstärkster ist, sondern die "beste" im Sinne von verantwortungsvollster, transparentester und für die Menschheit förderlichster.

„Wir brauchen keine bösen Maschinen – nur dumme Entscheidungen, um die Katastrophe auszulösen.“ – Anonyme Notiz am Rand eines Testplans