rngd | | Geen reacties
Ingebouwde veiligheidsmaatregelen in chatbots als ChatGPT, Google Gemini en Claude kunnen omzeild worden door prompts in de vorm van ASCII-kunst in te geven. Dat blijkt uit een Amerikaanse studie.
Lees meer op: BRIGHT.NL
advertentie
Geef een reactie