ChatGPT tinha falha de segurança bizarra que vazava dados pessoais
Pesquisadores de várias instituições internacionais descobriram uma forma bizarra de extrair dados pessoais do ChatGPT. A descoberta foi documentada na terça-feira (28) e já foi corrigida no chatbot da OpenAI.
A análise partiu de cientistas de múltiplas instituições, incluindo Google DeepMind, Universidade de Washington, Cornell, CMU, UC Berkeley e ETH Zurich.
Fonte: Novidades do TecMundo https://ift.tt/oMSJKNW
Comentários
Postar um comentário