Italiens Datenschutzbehörde stoppt ChatGPT

dpa-AFX · Uhr
Quelle: Quelle: dpa-AFX

Software

Rom (dpa) - Italiens Datenschutzbehörde hat den populären Text-Automaten ChatGPT im Land vorläufig gesperrt. Sie verwies am Freitag unter anderem darauf, dass der Betreiber OpenAI nicht ausreichend über die Verwendung von Daten informiere. Auch gebe es keine Filter, die verhinderten, dass Kinder im Alter unter 13 Jahren für sie «absolut unangebrachte» Informationen angezeigt bekämen. Es seien Ermittlungen eingeleitet worden.

Die Behörde verbot zugleich vorsorglich die Verarbeitung von Daten von Nutzern aus Italien - ChatGPT ist damit in dem Land nicht mehr anwendbar. OpenAI bekam 20 Tage Zeit, Maßnahmen gegen die Vorwürfe zu präsentieren. Danach droht eine Strafe bis zu 20 Millionen Euro oder vier Prozent des weltweiten Umsatzes.

Massenhaft personenbezogene Daten gesammelt

Die Datenschutzbehörde verwies auch auf eine jüngst bekanntgewordene Datenpanne. Dabei hatten Nutzer von ChatGPT zum Teil Informationen aus fremden Profilen zu sehen bekommen. Das Problem ging laut OpenAI auf einen Fehler in einer für ChatGPT verwendeten Software zurück.

ChatGPT basiert darauf, dass die Software enorme Mengen von Texten erfasst. Sie kann auf dieser Basis Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. Dabei schätzt das Programm, welche Worte als nächstes in einem Satz folgen könnten. Dieses Grundprinzip birgt unter anderem das Risiko, dass die Software «Fakten halluziniert», wie OpenAI es nennt - falsche Informationen als korrekt wiedergibt.

Die italienischen Datenschützer sehen auch ein grundsätzliches Problem darin, wie ChatGPT trainiert wurde. Es gebe keine rechtliche Grundlage für die massenhafte Sammlung und Speicherung personenbezogener Daten zum Trainieren der Algorithmen.

Verbreitung von falschen Informationen

Die Behörde war im Februar bereits auf ähnliche Weise gegen einen anderen Chatbot mit dem Namen Replika vorgegangen. Dabei ging es vor allem darum, dass Kinder im Alter unter 13 Jahren ungenügend geschützt würden.

ChatGPT hatte in den vergangenen Monaten damit beeindruckt, wie gut die Software menschliche Sprache imitieren kann. Zugleich gibt es Sorgen, dass solche Technik auf Basis künstlicher Intelligenz zum Beispiel für die Verbreitung falscher Informationen missbraucht werden könnte.

onvista Premium-Artikel

Verluste nach Zoll-Schock ausgeglichen
Kann man den Aktienmärkten wieder trauen? Fünf Experten antwortengestern, 14:00 Uhr · onvista
Ein Aktienkurs ist vor einem Dollar-Schein zu sehen.
onvista Trading-Impuls
Bayer-Aktie mit Freudensprung - wieder nur ein Strohfeuer?13. Mai · onvista
Bayer-Aktie mit Freudensprung - wieder nur ein Strohfeuer?
Bitcoin, Ethereum und Co.
Sechs Mythen zu Steuern bei Kryptos12. Mai · onvista-Partners
Sechs Mythen zu Steuern bei Kryptos