Skip to main content

AI in de publieke sector

Sinds 2019 experimenten overheidsorganisaties met nieuwe technologieën op het gebied van data en Artificial Intelligence (AI). Zo maakt de politie gebruik van AI-toepassingen bij de handhaving van criminaliteit. Met deze experimenten en pilots toont de overheid politieke wil[1] om met AI aan de slag te gaan, maar volgens experts verloopt de lancering van AI gebaseerde oplossingen in de publieke sector vaak moeizaam[2]. Volgens Nitesh Bharosa, onderzoeker aan de TU Delft, ontstaat er wantrouwen zodra oplossingen het label AI krijgen. Mensen zijn bezorgd over mogelijk misbruik van de data door organisaties en vooringenomenheid van algoritmen. En terecht, maar deze bezorgdheid dient wel aangepakt te worden, want alleen met draagvlak kunnen AI gerelateerde projecten succesvol worden uitgevoerd.

Er dient dus goed gecommuniceerd te worden naar buiten wat het belang is van AI projecten en hoe deze transparant uitgevoerd kunnen worden. Het verhaal betreft transparantie is iets waar PBLQ aan kan bijdragen. Door richtlijnen op te stellen die transparantie van AI-projecten vergroten, is er een grotere kans dat deze projecten doorgaan. Daarnaast moeten er afspraken over de data worden gemaakt, wat samenhangt met privacy. Data deling is een sensitief onderwerp wat veel haken en ogen heeft, maar PBLQ denkt niet alleen in problemen maar in oplossingen. Denk hierbij aan pseudonimisering of anonimisering van data ter bescherming van persoonlijke gegevens.

Eenmaal wanneer de AI-projecten zijn gestart, is het van belang dat deze niet blijven hangen in de experimentele fase maar daadwerkelijk resulteren in een eindproduct. Dutch Analytics[3] hebben een handleiding geschreven, vrij helder en beknopt, hoe dit te voorkomen is. PBLQ kan ook zeker een rol spelen in de evaluatie van het verloop en de overdracht van AI-projecten naar bestuurders. Immers spreken wij beide talen. We zouden de best practices rondom lopende AI-projecten kunnen documenteren, wat ook transparantie in de hand werkt. Ook belangrijk om onderscheid in AI (assisted AI, augmented AI, autonomous AI) te benadrukken in de projecten, aangezien AI een breed begrip is. Op deze manier wordt het behapbaar en dit draagt opnieuw bij aan transparantie van de uitvoering.

 

[1] Strategisch Actieplan voor Artifiële Intelligentie: https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2019/11/RapportSAPAI.pdf

[2] AI binnen de overheid – Data Science Initiative: https://datascienceinitiative.eu/wp-content/uploads/2020/05/DSI-AIBinnenDeOverheid.pdf

[3] Dutch Analytics –  https://issuu.com/klhartog/docs/dsi-handleidingvoordatascienceprojecten

Sinds 2019 experimenten overheidsorganisaties met nieuwe technologieën op het gebied van data en Artificial Intelligence (AI). Zo maakt de politie gebruik van AI-toepassingen bij de handhaving van criminaliteit. Met deze experimenten en pilots toont de overheid politieke wil[1] om met AI aan de slag te gaan, maar volgens experts verloopt de lancering van AI gebaseerde oplossingen in de publieke sector vaak moeizaam[2]. Volgens Nitesh Bharosa, onderzoeker aan de TU Delft, ontstaat er wantrouwen zodra oplossingen het label AI krijgen. Mensen zijn bezorgd over mogelijk misbruik van de data door organisaties en vooringenomenheid van algoritmen. En terecht, maar deze bezorgdheid dient wel aangepakt te worden, want alleen met draagvlak kunnen AI gerelateerde projecten succesvol worden uitgevoerd.

Er dient dus goed gecommuniceerd te worden naar buiten wat het belang is van AI projecten en hoe deze transparant uitgevoerd kunnen worden. Het verhaal betreft transparantie is iets waar PBLQ aan kan bijdragen. Door richtlijnen op te stellen die transparantie van AI-projecten vergroten, is er een grotere kans dat deze projecten doorgaan. Daarnaast moeten er afspraken over de data worden gemaakt, wat samenhangt met privacy. Data deling is een sensitief onderwerp wat veel haken en ogen heeft, maar PBLQ denkt niet alleen in problemen maar in oplossingen. Denk hierbij aan pseudonimisering of anonimisering van data ter bescherming van persoonlijke gegevens.

Eenmaal wanneer de AI-projecten zijn gestart, is het van belang dat deze niet blijven hangen in de experimentele fase maar daadwerkelijk resulteren in een eindproduct. Dutch Analytics[3] hebben een handleiding geschreven, vrij helder en beknopt, hoe dit te voorkomen is. PBLQ kan ook zeker een rol spelen in de evaluatie van het verloop en de overdracht van AI-projecten naar bestuurders. Immers spreken wij beide talen. We zouden de best practices rondom lopende AI-projecten kunnen documenteren, wat ook transparantie in de hand werkt. Ook belangrijk om onderscheid in AI (assisted AI, augmented AI, autonomous AI) te benadrukken in de projecten, aangezien AI een breed begrip is. Op deze manier wordt het behapbaar en dit draagt opnieuw bij aan transparantie van de uitvoering.

 

[1] Strategisch Actieplan voor Artifiële Intelligentie: https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2019/11/RapportSAPAI.pdf

[2] AI binnen de overheid – Data Science Initiative: https://datascienceinitiative.eu/wp-content/uploads/2020/05/DSI-AIBinnenDeOverheid.pdf

[3] Dutch Analytics –  https://issuu.com/klhartog/docs/dsi-handleidingvoordatascienceprojecten

PUBLICATIES