Uitlegbare en Veilige AI

Moderne, maar ook traditionele AI oplossingen, blijken vatbaar voor subtiele ontregelingen van buitenaf. Zo kunnen diepe neurale netwerken met voor de mens niet waarneembare manipulaties van input op het verkeerde been gezet worden.

Uitlegbare en Veilige AI

Dit speelt onder andere in beeldverwerkende AI, zoals aanwezig in autonoom rijdende voertuigen. Minuscule ruisinjecties in inputs kunnen in dergelijke toepassingen leiden tot het foutief herkennen van verkeersborden, met alle gevolgen vandien. Daarnaast kunnen machine learning modellen 'op afstand' worden uitgelezen door input/output gedrag uit te lokken, of worden gemanipuleerd van buitenaf, een reƫel gevaar omdat steeds meer AI beschikbaar komt als (cloud) service.

Het beveiligen van AI is daarmee een onderwerp dat steeds belangrijker wordt op de onderzoeksagenda van tech-bedrijven als Google, Facebook en Tesla, en de academia. Maatregelen voor het garanderen van privacy met AI beveiligen de gebruikers van AI-systemen. Beide soorten beveiliging (de AI zelf, en de privacy van gebruikers) voegen echter extra opaciteit toe aan AI-systemen, via - soms destructieve, niet-reversibele - versleuteling van data of algoritmes.

Tegelijkertijd neemt in de AI-wereld de roep om uitlegbaarheid toe, onder andere in de context van operator-intensieve toepassingen zoals defensie. Ook het aanbieden van persoonlijke data aan de huidige 'human-aware' AI roept om uitlegbare systemen, om de bereidwilligheid voor het delen van dergelijke informatie met AI systemen te vergroten. Dit project onderzoekt de effecten op uitlegbaarheid van beveiliging van AI, en richt zich daarmee op 'uitlegbare, beveiligde AI'. Daarnaast adresseert het de uitlegbaarheid van aanvallen op AI.

Meer informatie
Titel project: Uitlegbare en Veilige AI

Programma: Vwdata-Programma

Organisatie: NWA

Looptijd: Closed

Contactpersoon
Stephan Raaijmakers TNO

Nieuwsbrief

Schrijf u in voor onze nieuwsbrief en blijf op de hoogte van het laatste nieuws over Commit2data