Van risico naar regie: slimmer sturen op algoritmen en AI

In opdracht van de Rekenkamer Eindhoven onderzochten wij hoe de gemeente algoritmen en AI inzet en in hoeverre zij voorbereid is op een verantwoord gebruik. Het onderzoek laat zien dat Eindhoven met algoritmen en AI kansen ziet voor efficiëntere processen en betere dienstverlening, maar het ontbreekt nog aan duidelijke richtlijnen en beleid. Bij gebrek aan deze kaders stokt besluitvorming, wordt beperkt geëxperimenteerd en wordt de stap naar adoptie (nog) niet gezet. Tegelijk is er een sterke basis voor een verantwoord gebruik: veel aandacht voor ethiek en privacy en een multidisciplinaire expertisegroep AI. Medewerkers tonen bereidheid om met AI te werken, maar het ontbreken van beleid leidt tot onzekerheid en risico’s, waaronder ongereguleerd gebruik van generatieve AI.

Opdracht

Onze opdracht bestond uit het geven van een integrale en onafhankelijke beoordeling van de manier waarop Eindhoven algoritmen en AI inzet en daarop is voorbereid. De Rekenkamer wilde de gemeenteraad inzicht bieden in de actuele stand van zaken, de kansen, risico’s en governance rond algoritmen en AI, en in hoeverre publieke waarden worden geborgd. Het onderzoek richtte zich op beleid, praktijk, risicobeheersing, organisatiecultuur en de rol van de gemeenteraad. Daarbij was het doel om te bepalen of Eindhoven algoritmen en AI intelligent, veilig en verantwoord kan inzetten bij het realiseren van maatschappelijke opgaven.

Aanpak

Onze aanpak bestond uit diverse activiteiten. Allereerst zijn beleidsdocumenten, technische kaders, raadsinformatie en interne stukken bestudeerd om inzicht te krijgen in de visie, beleidskaders en besluitvorming. Vervolgens hebben we medewerkers geïnterviewd uit alle relevante onderdelen van de organisatie, waaronder CIOoffice, privacy, informatiebeveiliging, uitvoering en management. Daarna hebben we op basis van casusbijeenkomsten drie concrete toepassingen door Eindhoven geanalyseerd: Passport for Work, (verhuis) Aangifte verwerken en de AItool Echo Dembrane. Deze casussen boden zicht op de werking, risico’s, governance en praktijkervaring. Daarnaast zijn gesprekken gevoerd met zeven andere overheidsorganisaties om good practices te verzamelen en Eindhoven te spiegelen aan voorlopers. Tot slot is de gemeenteraad betrokken via een bijeenkomst met raadsleden. Alle bevindingen zijn samengebracht in een nota van bevindingen, gevolgd door conclusies en aanbevelingen.

Resultaat

Het onderzoek laat zien dat Eindhoven stappen heeft gezet, zoals een expertisegroep AI, een intern ethisch team, een externe ethische commissie en een intern algoritmeregister. Toch is de gemeente nog onvoldoende voorbereid op verantwoord en effectief gebruik van algoritmen en AI. Formele kaders zoals een gedragscode en afwegingskader voor AI waren nog niet vastgesteld, waardoor ontwikkelingen stilvallen, innovatie stokt en risico’s blijven bestaan, zoals ongereguleerd gebruik van generatieve AI door medewerkers. Er is aandacht voor risicobeheersing via onder andere DPIA’s, maar structurele evaluatie en monitoring ontbreken. De gemeenteraad ontvangt weinig gestructureerde informatie en kan daardoor beperkt sturen en controleren. De eindconclusie is daarom dat Eindhoven aan het begin staat van volwassen AIinzet en dat heldere kaders, governance en een lerende, experimenteerruimte nodig zijn om verantwoord te kunnen opschalen.

Het volledige eindrapport is hier te lezen.

Waarom PBLQ

De Rekenkamer Eindhoven zegt hierover: “Het team van PBLQ werkte zorgvuldig, communiceerde helder en bleef ook onder een strakke planning goed toegankelijk en meedenkend. Dankzij hun brede kennis op gebied van AI en algoritmen en grondige aanpak ligt er een gedegen en prettig leesbaar rapport, dat op een duidelijke manier is geordend en onderbouwd. We kijken terug op een constructieve en plezierige samenwerking en zijn zeer tevreden met het resultaat.”