Skip to content

BLOG |

bron: bright.nl

Deze nieuwe hack laat AI dingen zien die er niet zijn

rngd | | Geen reacties

De techniek werd ontwikkeld door onderzoekers aan de North Carolina State University. Het werkt door minuscule aanpassingen te maken aan digitale afbeeldingen. Voor het menselijk oog zijn deze veranderingen onzichtbaar, maar ze zorgen ervoor dat AI-systemen compleet andere dingen waarnemen dan wat er werkelijk afgebeeld is. De onderzoekers testten hun aanpak op vier verschillende AI-systemen die veel gebruikt worden voor beeldherkenning. In alle gevallen lukte het om de computers te misleiden. Dat laten zij weten in een persbericht . De studie waarin de techniek wordt beschreven, wordt op 15 juli gepubliceerd.  Gevaar voor zelfrijdende auto’s De ontdekking heeft belangrijke gevolgen voor de veiligheid van zelfrijdende voertuigen. Als hackers deze methode zouden toepassen, kunnen ze zelfrijdende auto’s laten denken dat er verkeerslichten, voetgangers of andere auto’s zijn waar die helemaal niet staan. Maar het probleem reikt verder dan alleen het verkeer. De techniek kan ook medische apparaten beïnvloeden die gebruikmaken van AI voor het analyseren van röntgenfoto’s of andere beelden. Een kwaadwillende persoon zou dan verkeerde diagnoses kunnen veroorzaken. De wetenschappers onderzoeken nu of dezelfde aanpak ook werkt bij andere typen AI, zoals grote taalmodellen die tekst verwerken. Het doel is goedaardig, namelijk om verdedigingsmechanismen te ontwikkelen die misbruik kunnen tegenhouden. Lees meer  over wetenschap  en mis niets met  de Bright-app .

Lees meer op: BRIGHT.NL


advertentie

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *