Nieuwe manier om AI te trainen moet beter beschermen tegen hacker

ANP | 13 juli 2020 | 15:48 | Foto: ©ANP Nieuwe manier om AI te trainen moet beter beschermen tegen hacker

Een groot risico van kunstmatige intelligentie is dat kleine stoorzenders die voor mensen nauwelijks op te merken zijn, het systeem totaal in de war kunnen schoppen. Zo kan een strategisch geplaatste sticker op een stopbord een zelfrijdende auto doen denken dat er juist hard gereden mag worden. Een nieuwe manier om kunstmatige intelligentie te trainen moet machine learning-systemen beter beschermen tegen dit soort vijandige aanvallen, meldt MIT Technology Review.

Bij de nieuwe trainingsmethode wordt het neurale netwerk van het AI-systeem in een opstelling geplaatst waarbij een ‘vijandig’ neuraal netwerk verkeerde beelden genereert en daarmee het ‘goede’ netwerk voor de gek probeert te houden. Het idee is dat het ‘goede’ netwerk zo steeds beter wordt in het herkennen van valse beelden.

De methode is ontwikkeld door onderzoekers van de Universiteit van Illinois Urbana-Champaign. In vergelijking met andere beschermingsmethoden zou de trainingswijze beter werken.

Meer weten over Huawei en Kunstmatige Intelligentie? Klik hier.