Autoriteit Persoonsgegevens: Talrijke incidenten maken „deltaplan AI” nodig
Er moet een deltaplan voor kunstmatige intelligentie (AI) komen om het aantal incidenten met generatieve AI in te dammen. Deze technologie creëert in opdracht tekst, afbeeldingen of foto’s. Een voorbeeld hiervan is ChatGPT.
De Autoriteit Persoonsgegevens (AP) pleit voor zo’n deltaplan in de ”Rapportage AI- en algoritmerisico’s Nederland”, die ze maandag presenteerde.
Om welke risico’s van AI gaat het?
Het aantal toepassingen van AI in Nederland is van maart tot september dit jaar al verdubbeld. Generatieve AI kan worden gebruikt voor manipulatie, het maken en verspreiden van desinformatie en het kan de oorzaak zijn van discriminatie. Onbedoeld hebben geregeld incidenten met AI plaats. Dat zal met de toename van de inzet van AI in de samenleving alleen maar meer worden, verwacht AP-voorzitter Aleid Wolfsen. „Bijvoorbeeld mensen die foute adviezen krijgen van chatbots, gezichtsherkenningssystemen die minder goed werken voor mensen van kleur. Soms krijgen mensen een lawine aan parkeerboetes van de gemeente, omdat scanauto’s niet correct worden ingezet.” Veel risico’s en incidenten blijven nu „nog onder de radar”, maar ze schaden wel het vertrouwen in AI. En dat is „zorgelijk”.
Hoe ernstig staat het ervoor in Nederland?
Dat is onbekend. De cijfers van het aantal geregistreerde AI-incidenten waarop het rapport is gebaseerd, zijn afkomstig van de Organisatie voor Economische Samenwerking en Ontwikkeling. Nederlandse cijfers zijn er niet, verklaarde Sven Stevenson, programmadirecteur AI bij de AP, maandag op de NOS. „Het eerlijke antwoord is dat we dat gewoon heel slecht weten.” Hij noemt dat zorgelijk. Bovendien zou het aantal geregistreerde gevallen wereldwijd nog maar „het topje van de ijsberg” zijn, meldt het rapport.
Hoe wil de AP hier grip op krijgen?
Het Europese akkoord over de AI-wet (AI-Act) dat op 9 december is gesloten, zou een geschikte basis kunnen vormen voor het ontwikkelen van veilige algoritmes voor generatieve AI. De AP wil voor 2030 een ”deltaplan AI” in het leven roepen. Dat moet voorzien in educatie van de bevolking over de werking en risico’s van AI. Iedereen zal in de nabije toekomst „veelvuldig” in aanraking komen met AI. Ook moeten toepassingen van AI tot een minimum aan incidenten leiden. Ontwikkelaars moeten grip op deze toepassingen houden en dat kunnen aantonen.
Wolfsen noemt „goede regelgeving en robuust toezicht noodzakelijke voorwaarden”. Alleen zo kan „de inzet van AI bijdragen aan duurzame welvaart en welzijn”. Toezichthouder AP zou hierin een coördinerende rol kunnen krijgen.