Tichys Einblick
Künstliche Intelligenz

Ethikrat und Bundesdatenschutz debattieren Blockade von ChatGPT

Die Technologiebremser Green in Aktion. Die Ethikrat-Chefin will ein Moratorium für Künstliche Intelligenzentwicklung und der Bundesdatenschutzbeauftragte lässt sich schon aus Italien informieren, wo ChatGPT ausgesetzt wurde.

Deutschland bereitet sich offenbar darauf vor, eine der zentralen Entwicklungen auf dem Gebiet der Künstlichen Intelligenz im eigenen Land abzuwürgen.

Die Vorsitzende des Deutschen Ethikrates, Alena Buyx, hält es für sinnvoll, die Entwicklung von Künstlicher Intelligenz mit einem Moratorium einzubremsen, weil damit Risiken verbunden wären, sagte sie dem Radiosender MDR Aktuell. Auch wenn man nicht alles und jeden aufhalten könne, hätten die „großen, seriösen Player“ ein Interesse an einer Klärung der Risiken. Bereits jetzt brächten die vorhandenen Systeme Probleme mit sich, zum Beispiel in sozialen Medien. Buyx sprach in diesen Zusammenhang von „Desinformationsmaschinen“. Sie fügte hinzu, dass diese Entwicklung „natürlich gefährlich“ sei.

Konkret geht es derzeit vor allem um die Software ChatGPT des amerikanischen Unternehmens Open AI, die Texte verfassen kann. Die Nutzung könnte wie in Italien aufgrund von Datenschutzbedenken auch in Deutschland vorübergehend ausgesetzt werden. „Grundsätzlich ist ein entsprechendes Vorgehen auch in Deutschland möglich“, sagte eine Sprecherin des Bundesbeauftragten für den Datenschutz, Ulrich Kelber, dem Handelsblatt. Dies fiele jedoch in den Zuständigkeitsbereich der Landesdatenschutzbehörden.

Trotzdem hat Kelbers Behörde die italienische Datenschutzaufsichtsbehörde bereits um „weiterführende Informationen“ zur Sperrung von ChatGPT gebeten. Diese würden dann an die zuständigen Landesdatenschutzaufsichtsbehörden und Landesmedienanstalten weitergegeben, sagte die Sprecherin. Die italienische Datenschutzbehörde hatte am Freitag die vorläufige Sperrung von ChatGPT angeordnet. Nun darf Open AI die Daten italienischer Nutzer nur noch eingeschränkt verarbeiten. ChatGPT habe sich nicht an Regeln zum Daten- und Jugendschutz gehalten. Kritisiert wird vor allem, dass Open AI keine Rechtsgrundlage für das massenhafte Sammeln und Speichern personenbezogener Daten besitze.

Der frühere Datenschutzbeauftragte von Baden-Württemberg, Stefan Brink, kritisierte das italienische Vorgehen: „Zwar nutzt KI regelmäßig auch personenbezogene Daten zu Trainingszwecken“, sagte der Direktor des wissenschaftlichen Instituts für die Digitalisierung der Arbeitswelt (Wida) dem Handelsblatt, soweit die Daten allerdings aus dem Internet bezogen würden, „überwiegen regelmäßig die berechtigten Interessen der Entwickler gegenüber Schutzbedürfnissen von Betroffenen“. Brink riet den deutschen Aufsichtsbehörden, die Entwicklung zu beobachten, aber nicht wie in Italien „effekthaschend und öffentlichkeitswirksam vorsorgliche Gegenpositionen aufbauen“. Es sei nicht die Aufgabe von Aufsichtsbehörden, neue Technologien der Digitalisierung aufzuhalten. „Aufklärung hilft sicherlich, aber nicht Bedenkenträgerei.“

Anzeige