‘Neurowetenschap kan AI beschermen tegen cyberaanvallen’
Een Deep Neural Network (DNN) kan verbluffende taken uitvoeren. Zo kunnen ze een immense stapel foto’s vaak heel nauwkeurig identificeren in een paar seconden. Maar een groot probleem bij DNN’s is dat ze gevoelig zijn voor ‘adversarial errors’. Dit zijn fouten waarbij een DNN bijvoorbeeld een stopbord niet herkent, omdat er een kleine sticker op het bord is geplakt. Cybercriminelen kunnen deze fouten gebruiken om bijvoorbeeld zelfrijdende auto’s te hacken.
Neurale netwerken zijn zo gebouwd dat ze grofweg functioneren als een brein. Maar, inderdaad, grofweg: een mens zou nooit in de war raken bij een stopbord met een kleine witte sticker op de onderkant. Wetenschappers proberen nu het verschil tussen een DNN en het functioneren van een menselijk brein nog verder te dichten, om zo de netwerken minder gevoelig te maken voor fouten. Dat schrijft vaknieuwssite The Next Web.
Uit een onderzoek van de Universiteit van München blijkt dat hoe meer een DNN als een brein werkt, hoe minder adversarial errors er worden gemaakt. De onderzoekers proberen nu de stevigheid van het systeem te verbeteren door het proces van het identificeren van een afbeelding door een DNN zoveel mogelijk te laten lijken op het proces waarop een mens of een primaat een afbeelding ziet en verwerkt in de hersenen.
Om dat te doen hebben ze een laag aan de DNN toegevoegd die de biologische functie van de visuele cortex simuleert. Deze toevoeging leidde tot een significante verbetering bij het herkennen van afbeeldingen en een afname van het aantal adversarial errors. Veel AI-ontwikkelaars maken gebruik van de toenemende rekenkracht van computers en grote datasets om AI te verbeteren, maar volgens deze onderzoekers valt er nog veel te halen uit de neurowetenschap en andere onderzoeksgebieden binnen de biologie.
Meer weten over Huawei en Kunstmatige Intelligentie? Klik hier.