Skip to content

ChatGPT & Datenschutz: Gericht zwingt OpenAI zur Speicherung

Im Mai 2025 hat ein US-Gericht einen Beschluss erlassen, der weltweit für Aufsehen sorgt – besonders bei allen, die ChatGPT nutzen. OpenAI, der Betreiber des beliebten KI-Chatbots, darf ab sofort Nutzerdaten und Chat-Verläufe nicht mehr löschen, auch wenn Nutzer*innen dies wünschen. Was steckt hinter dieser Entscheidung? Und was bedeutet das für den Datenschutz in Europa?


Warum musste das Gericht eingreifen?

Hintergrund ist eine Klage der New York Times gegen OpenAI und Microsoft. Der Vorwurf: ChatGPT wurde mit urheberrechtlich geschützten Inhalten der Zeitung trainiert. Die New York Times verlangt deshalb, dass OpenAI sämtliche Chatprotokolle – auch bereits gelöschte – als mögliche Beweise aufbewahren muss. Das zuständige Gericht gab diesem Antrag statt: OpenAI darf bis auf Weiteres keine ChatGPT-Konversationen endgültig löschen.


Wer ist von der Speicherung betroffen?

Das Urteil betrifft fast alle ChatGPT-Nutzer*innen weltweit:

Nicht betroffen sind:

In diesen professionellen Varianten werden gelöschte Daten wie gewohnt nach 30 Tagen entfernt.


Was bedeutet das für dich als Nutzer*in?

Wenn du ChatGPT privat oder im Team nutzt, bleiben deine gelöschten Chats weiterhin gespeichert, auch wenn sie aus deiner Oberfläche verschwunden sind. OpenAI muss die Daten aufbewahren, bis das Gericht anders entscheidet – wie lange das dauert, ist noch völlig offen.


Datenschutz: Was sagen Experten?

Viele Datenschützer und OpenAI selbst kritisieren die Anordnung scharf. Sie sehen einen gefährlichen Präzedenzfall, da die Privatsphäre der Nutzer*innen massiv eingeschränkt wird. Die Angst: Weitere Gerichte könnten sich dem Beispiel anschließen und dauerhaft die Vorratsspeicherung von KI-Daten fordern. OpenAI hat angekündigt, den Beschluss anzufechten.


Was kannst du tun?


Fazit

Der Gerichtsbeschluss zwingt OpenAI, auch vermeintlich gelöschte ChatGPT-Chats weiter zu speichern. Das sorgt für Unsicherheit beim Datenschutz und zeigt, wie wichtig transparente KI-Regulierung wird – besonders für Nutzer*innen in Europa. Bis zur Klärung gilt: Teile besser keine vertraulichen Informationen über die Standard-ChatGPT-Versionen und prüfe, ob es für deine Zwecke sichere Alternativen gibt.