ChatGPT tinha falha de segurança bizarra que vazava dados pessoais

Pesquisadores de várias instituições internacionais descobriram uma forma bizarra de extrair dados pessoais do ChatGPT. A descoberta foi documentada na terça-feira (28) e já foi corrigida no chatbot da OpenAI.

A análise partiu de cientistas de múltiplas instituições, incluindo Google DeepMind, Universidade de Washington, Cornell, CMU, UC Berkeley e ETH Zurich.

Leia mais...



Fonte: Novidades do TecMundo https://ift.tt/oMSJKNW

Comentários

Postagens mais visitadas deste blog

Godzilla Vs. Kong aprovou? Confira as primeiras críticas do filme

Malware já roubou senhas de mais de 100 mil usuários do Android