7 Sicherheitslücken in ChatGPT entdeckt: Wie sich der Chatbot von Hackern austricksen lässt
ChatGPT hat einige Sicherheitslücken, die jetzt durch Forscher offenbart wurden. Über Tricks wie Prompt-Injection lässt sich der Chatbot täuschen und dazu bewegen, private Informationen von Nutzer:innen zu offenbaren. Wie OpenAI auf die Entdeckung reagiert.

