BLOG | AI
rngd | 13-03-2024 | Geen reacties
Ingebouwde veiligheidsmaatregelen in chatbots als ChatGPT, Google Gemini en Claude kunnen omzeild worden door prompts in de vorm van ASCII-kunst in te geven. Dat blijkt uit een Amerikaanse studie.
Lees meer op: BRIGHT.NL
rngd
Geef een reactie Reactie annulerenHet e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *Reactie * Naam * E-mail * Site Mijn naam, e-mail en site bewaren in deze browser voor de volgende keer wanneer ik een reactie plaats.
Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *
Reactie *
Naam *
E-mail *
Site
Mijn naam, e-mail en site bewaren in deze browser voor de volgende keer wanneer ik een reactie plaats.
advertentie
Geef een reactie