EU-Kommission prüft KI Grok: Neue DSA-Untersuchung gegen X

Am 26. Januar 2026 hat die Europäische Kommission in Brüssel die Einleitung eines neuen förmlichen Prüfverfahrens gegen die Plattform X bekannt gegeben. Im Zentrum der Untersuchung stehen die KI-Funktionen von Grok sowie die damit verbundenen Empfehlungssysteme, wobei die Kommission insbesondere prüft, ob X seinen gesetzlichen Verpflichtungen zum Risikomanagement nach dem Gesetz über digitale Dienste (Digital Services Act – DSA) nachkommt.

Grok als systemisches Risiko unter dem DSA

Die neue Untersuchung der EU-Kommission bewertet primär, ob X die systemischen Risiken bei der Einführung der Grok-Funktionen in der EU angemessen ermittelt und minimiert hat. Besonders kritisch betrachtet die Kommission dabei die mögliche Verbreitung illegaler Inhalte wie sexuelle Deepfakes von Frauen und Kindern sowie negative Auswirkungen auf das körperliche und geistige Wohlbefinden der Bürger. Da X als sehr große Online-Plattform (VLOP) eingestuft ist, unterliegt das Unternehmen strengen Auflagen zur Identifizierung und Abwehr solcher Gefahren, die durch das Design oder die Funktion seiner Dienste entstehen können.

Generative KI im Spannungsfeld der digitalen Regulierung

Dieser Schritt der Kommission fügt sich in eine Reihe von Maßnahmen ein, welche die regulatorische Kontrolle von generativer KI in Europa massiv verstärken. Ebenso stehen KI-Anwendungen wie Googles AI Overviews aufgrund von Transparenzmängeln und Verstößen gegen Wettbewerbsregeln im Fokus von Beschwerden und Untersuchungen der EU. Der aktuelle Fall verdeutlicht zudem die enge Verzahnung von DSA und DSGVO, da Empfehlungssysteme oft auf sensiblen Profiling-Mechanismen basieren, die einer strikten datenschutzrechtlichen Kontrolle bedürfen.

Geldbuße in Höhe von 120 Millionen Euro gegen X

Parallel zum neuen Verfahren hat die Kommission eine bereits seit Dezember 2023 laufende Untersuchung verlängert. Diese hat die Prüfung eines Wechsels zu einem auf Grok basierenden Empfehlungssystem zum Gegenstand. Desweiteren wurde X erst kürzlich wegen mangelnder Transparenz zu einer Geldbuße von 120 Millionen Euro verurteilt. Ein klares Zeichen für die Entschlossenheit der EU, auch gegenüber globalen Tech-Konzernen die Einhaltung europäischer Standards durchzusetzen. Sollten die aktuellen Versäumnisse nachgewiesen werden, drohen X weitere empfindliche Sanktionen wegen Verstößen gegen zentrale Transparenz- und Sorgfaltspflichten des DSA.

X haftete bereits für KI-Falschaussagen

Bereits vor dem Eingreifen der EU-Kommission wurde X gerichtlich in die Verantwortung genommen. Das Landgericht Hamburg erließ im September 2025 eine einstweilige Verfügung gegen X.AI, nachdem Grok fälschlich behauptet hatte, Campact e.V. werde staatlich finanziert. Das Gericht stellte klar, dass Betreiber für öffentlich zugängliche KI-generierte Falschaussagen haften, da Nutzer diese als Tatsachenbehauptungen verstehen. Pauschale Disclaimer bieten keinen ausreichenden Schutz vor rechtlichen Konsequenzen.

Schlussfolgerungen für Unternehmen

Die aktuellen Verfahren gegen X verdeutlichen drei zentrale Handlungsfelder, die Unternehmen bei Einsatz oder Bereitstellung von KI-Systemen im Risikomanagement berücksichtigen sollten.

  • Integrierte DSA- und DSGVO-Compliance: DSA-Pflichten und Datenschutzrecht greifen eng ineinander. Empfehlungs- und Moderationssysteme verarbeiten regelmäßig personenbezogene Daten und müssen DSGVO-konform ausgestaltet sein. Unternehmen sollten Transparenz-, Risiko- und Datenschutzanforderungen organisatorisch verzahnen, um erhebliche Bußgelder und Reputationsrisiken zu vermeiden.
  • Schutz eigener Daten und Inhalte vor KI-Training: Hochwertige Inhalte – wie z.B. journalistische Inhalte – können durch unkontrollierte Nutzung für KI-Training wirtschaftlich entwertet werden. Unternehmen sollten daher technische und lizenzrechtliche Maßnahmen zur Steuerung der Datennutzung prüfen, etwa Opt-out-Mechanismen oder Vergütungsmodelle. Dabei sind die Grundsätze der Datenminimierung und des „Privacy by Design“ zu wahren.
  • Haftung für KI-generierte Inhalte: Unternehmen haften für öffentlich zugängliche KI-Ausgaben wie für eigene Aussagen. Das LG Hamburg stellt klar, dass KI-Halluzinationen als Tatsachenbehauptungen gewertet werden, wenn Nutzer sie als verlässlich wahrnehmen. Pauschale Disclaimer reichen nicht aus. Erforderlich sind technische Kontrollmechanismen sowie klare Governance- und Verantwortungsstrukturen zur Begrenzung von Haftungs- und Sanktionsrisiken.

Fazit

Das Vorgehen der EU-Kommission verdeutlicht die Entschiedenheit der EU die Vorschriften des Digital Services Act wie auch der DSGVO und der KI-VO durchzusetzen. Zudem zeigt es, dass technologische Innovationen keinen Freifahrtschein für die Missachtung europäischer Grundrechte darstellen. Für Unternehmen bedeutet dies, dass die laufenden Verfahren aufmerksam zu verfolgen sind. Die Ergebnisse werden maßgeblich die künftigen Haftungsmaßstäbe und Transparenzanforderungen im digitalen Binnenmarkt prägen. Bei offenen Fragen zum DSA oder anderem Beratungsbedarf unterstützen wir Unternehmen gern bei der rechtlichen Einordnung sowie bei der Ausgestaltung von KI-, Daten- und Compliance-Strukturen.

KI-Compliance aus einer Hand

Künstliche Intelligenz rechtssicher nutzen & entwickeln
  • KINAST KI-Beratung 
  • KINAST externer KI-Beauftragter
  • KINAST KI-Kompetenz-Schulungen
Jetzt unverbindliches Angebot anfordern