Mens vs. machine of mensgerichte machine? Zet mensenrechten en waarden centraal bij AI-ontwikkeling.

Door: Júlia Ortí en Niels Back

Met behulp van Artificiële Intelligentie (AI)-toepassingen kan al ontzettend veel. De zelfrijdende auto wordt meer en meer werkelijkheid en de mogelijkheden van spraakherkenningstoepassingen groeien exponentieel. Dergelijke toepassingen voelen steeds gewoner en maken ons leven gemakkelijker, natuurlijk ook voor mensen die actief zijn in de publieke sector. Zo maakt de gemeente Amsterdam gebruik van algoritmes om de afstand tussen burgers in de openbare ruimte te meten om zo de bewustwording over het belang van het houden van anderhalve meter afstand te vergroten tijdens de coronapandemie. Met deze toepassing kunnen coronamaatregelen in de openbare ruimte beter worden gehandhaafd, wat de publieke gezondheid ten goede komt. Ook in gemeentes buiten Nederland speelt AI een rol. Zo maakt de gemeente Helsinki gebruik van chatbots met zelflerende algoritmes om zorgvragen van burgers te beantwoorden op een toegankelijke en efficiënte wijze. Deze chatbots worden slimmer naar mate ze meer ervaring met zorgvragen hebben opgedaan. Op deze manier krijgen burgers een op maat gemaakt antwoord op hun zorgvragen en kunnen artsen meer tijd besteden aan complexere gevallen. Slechts twee voorbeelden van een breed scala aan AI-toepassingen, die op deze manier helpen in de bestrijding van de coronapandemie en gezondheidszorg toegankelijk en efficiënt maken.

Ondanks de vele voordelen ten behoeve van het vergroten van de levenskwaliteit en het welzijn van burgers, brengen AI-toepassingen ook gevaren met zich mee. Want wie zorgt ervoor dat beelden en andere verzamelde data niet voor een ander doel gebruikt worden dan waarvoor ze oorspronkelijk bedoeld waren? En dat de privacy van burgers op de juiste manier wordt geborgd? Hoe zit het met transparantie? En hoe vrij zijn burgers als een chatbot bepaalde zorgkeuzes voor hen maakt? Naast aandacht te hebben voor de kansen en maatschappelijke impact van AI-toepassingen, is het cruciaal om aandacht te hebben voor de risico’s die AI met zich meebrengt. Vervolgens kun je nadenken over kaders om AI-toepassingen verantwoord in te zetten vanuit maatschappelijke waarden. Met andere woorden, hoe kunnen overheden AI op een verantwoorde wijze voor een beter Nederland inzetten en tegelijkertijd burgers beschermen?

AI als onderdeel van een beter Nederland, niet andersom

Maar wat is eigenlijk een beter Nederland en hoe kan AI daaraan bijdragen? En wat betekent verantwoord nou precies? Een beter Nederland is een land dat verantwoordelijkheid neemt voor de opgaves en transities van vandaag en het belang van de burger daarbij centraal stelt. Dan betekent beter in het kader van de energietransitie bijvoorbeeld schoner en duurzamer, en in het kader van de aanpak van ondermijnende criminaliteit veiliger. Verantwoord betekent de juiste oplossing voor het juiste probleem op de juiste manier toegepast, met behulp van passend beleid zonder daarvan de impact op het leven van burgers en op publieke rechten en waarden uit het oog te verliezen.

AI-toepassingen kunnen soms de juiste oplossing bieden om Nederland een stuk beter te maken. Zo kunnen met behulp van AI doodnormale taken gemakkelijker, sneller en efficiënter worden gedaan. Ook ingewikkelde taken kunnen met behulp van AI flink worden versimpeld. En daar zou in eerste instantie iedereen snel voor tekenen. Tegelijkertijd liggen aan deze opgaves vanzelfsprekend verschillende waarden, mensenrechten en maatschappelijke doelen ten grondslag. En die kunnen best botsen met andere waarden of mensenrechten.

Neem bijvoorbeeld een overheid die haar dienstverlening wil verbeteren door middel van een toepassing zoals de eerdergenoemde chatbot. Dit is een toepassing die met behulp van AI kan worden ontwikkeld. Bij het ontwikkelen van dit soort AI-toepassingen is het echter essentieel om achterliggende waarden en mensenrechten niet uit het oog te verliezen. Bij toepassingen zoals chatbots komen, naast privacy en transparantie, andere waarden zoals gelijkheid en inclusiviteit kijken: het risico op uitsluiting van niet-digitaal vaardige burgers is met deze toepassing groot. En hoe wenselijk is een sturende chatbot? Hoe ver mag deze gaan in het voorleggen van opties en het maken van (gezondheids)keuzes voor jou? Tegelijkertijd kan een chatbot, mits goed gebruikt, menselijke bias en discriminatie tegengaan. Daarnaast kan het zorgen voor gelijke kansen op gezondheid, omdat de door de chatbot voorgestelde keuzes kunnen helpen bij preventie en een gezondere bevolking.

Kijkend naar het algoritme dat gemeente Amsterdam inzet om burgers de anderhalvemetermaatregel na te laten leven, roept diverse ethische vragen op. Een camera houdt met behulp van een algoritme de afstand tussen burgers in de gaten: is deze kleiner dan anderhalve meter, zien burgers een rode smiley van henzelf en kan het systeem waarschuwende audiosignalen versturen. De gezichten van voetgangers worden bedekt met een smiley en de beelden worden niet opgeslagen of voor andere doeleinden gebruikt. So far, so good. Maar hoe wenselijk is het dat een camera ongevraagd het gedrag van burgers stuurt, zonder tussenkomst van mensen? Is dit een stap in de richting van een openbare ruimte vol surveillance? En accepteren we dat andere burgers kunnen (toe)zien hoe goed anderen zich aan de coronamaatregelen houden, waardoor mogelijk onderling vertrouwen geschaad wordt? Tegelijkertijd kan deze camera voor meer bewustzijn voor de coronamaatregelen zorgen en daarmee de publieke gezondheid bevorderen.

Afwegen en discussiëren: Ethiek op maat bij AI-ontwikkeling

Deze (ethische) afwegingen zijn specifiek voor elke AI-toepassing en daarover kan niet enkel door de AI-ontwikkelaars een besluit worden genomen. Daarom is een ethische en mensgerichte aanpak van AI niet alleen nodig om het gebruik van deze technologie door overheden te kunnen verantwoorden, maar ook voor het vergroten van het vertrouwen van de burger in de overheid en rechtstaat te midden van digitale ontwikkelingen.

Bij het ontwikkelen van AI-toepassingen gaat het dus om het borgen van maatschappelijke waarden op een dusdanige manier dat technologieën de mens centraal stellen en daardoor vertrouwen inboezemen. Daarnaast gaat het om het stellen van ethische, juridische en verantwoordelijkheidskaders voor een betere omgang met technologieën zoals AI. Kies je dan voor een betere dienstverlening voor de meerderheid, of vind je discriminatie van een minderheid onacceptabel? Wat weegt zwaarder, gezondheid voor het geheel, of keuzevrijheid van het individu? Of is er een middenweg te vinden? En welke kaders en voorwaarden pas je dan toe? Er moet in onze optiek een beweging ontstaan van wat we met AI kúnnen, naar wat we met AI wíllen.

Daarbij ligt een belangrijke rol voor de politiek, beleid en uitvoering om de ontwikkeling en toepassing van AI in goede banen te leiden. Het is dus hoog tijd voor politici die zich bemoeien met zowel de impact van technologische ontwikkelingen als met de discussie over ethische en mensenrechtenkwesties die met deze ontwikkelingen samenhangen. Daar kan een volgend kabinet niet mee wachten: daarvoor gaan de technologische ontwikkelingen te snel en zijn ethische en waardendiscussies te pregnant om niet te voeren.

Tijd voor actie?!

PBLQ helpt de publieke sector graag bij het inzetten van mensgerichte en waardengedreven AI. Van het stellen van de juiste vragen aan het begin van het denkproces tot verantwoorde ontwikkeling en implementatie van AI. Dit doen we vanuit een multidisciplinaire blik: van ethiek tot maatschappelijk en van politiek tot techniek. We denken graag mee tijdens het implementatieproces, we stellen roadmaps op, we adviseren over het borgen van mensenrechten en publieke waarden bij innovatietrajecten, we voeren ethische en privacy impact assessments uit, we adviseren over beleidsontwikkeling en we helpen mee aan de uitrol van bewustzijnstrajecten. Zo hebben we in het verleden het ministerie van BZK geholpen in het programma Regie op Gegevens met een toetsmodel voor algoritmes. PBLQ deed ook onderzoek naar de wijze waarop Nederlandse gemeentes omgaan met publieke waarden bij het gebruik van AI-toepassingen.

Wij geloven dat als je als overheid AI gaat gebruiken, je moet je redeneren vanuit de opgave die je daarmee wilt adresseren. Kan AI het juiste antwoord zijn op jouw vraag of behoefte? Zo ja, breng vervolgens in kaart welke waarden en welke belangen hierdoor worden geraakt. Hierover een goede discussie voeren met mensen van binnen én buiten je organisatie is hiervoor waardevol, dat hebben wij als PBLQ gemerkt in diverse organisaties. Op deze manier creëer je namelijk draagvlak en vernieuwende perspectieven zowel in je organisatie als bij burgers en gebruikers. Daarnaast kun je op deze manier, waar nodig, verantwoorden waarom je AI inzet en hoe je dat doet. Een overheidsorganisatie die zich bewust is van maatschappelijke en ethische gevolgen van technologie en de impact daarvan op de burger is een organisatie die in staat is om Nederland beter te maken. Een dergelijke organisatie is tegelijkertijd in staat om AI niet te laten voelen als een ver-van-mijn-bed-show, maar als een mensgerichte manier om Nederland beter te maken.

Júlia Ortí is medior adviseur bij PBLQ, waar zij zich bezighoudt met de impact van innovatie, technologie en digitalisering op de samenleving. In haar opdrachten komt Júlia graag tot het snijpunt van wat gewenst is (doeltreffendheid), wat haalbaar is, wat ethisch verantwoord is (ethiek en publieke waarden) en welke mogelijkheden technologie en innovatie bieden. Ze bekijkt vraagstukken vanuit een inhoudelijk, strategisch, organisatorisch en menselijk oogpunt. Met een brede kijk als jurist, mensenrechtenspecialist en bedrijfskundige zet zij zich in voor een verantwoorde en toekomstgerichte inzet van innovatie en technologie om maatschappelijke opgaves aan te pakken.

Niels Back is junior adviseur bij PBLQ, waar hij zich bezighoudt met maatschappelijke effecten van digitalisering in opdrachten op het gebied van veiligheid en innovatie. Op dit gebied houdt hij zich het liefst met strategische vraagstukken bezig, om organisaties te helpen om met optimisme de toekomst vanuit publieke waarden in te gaan. Tijdens zijn afstuderen als politicoloog deed hij onderzoek naar de rol van big data en AI in politieke keuzes over Europees migratiebeleid. Hij kijkt graag naar AI vanuit verschillende invalshoeken (ethisch, maatschappelijk, politiek) vanuit zijn brede interesse en studieachtergrond in zowel sociale als geesteswetenschappen (politicologie, internationale betrekkingen en scandinavistiek). Tevens rondde hij de cursus ‘Ethics of AI’ af aan de Universiteit van Helsinki.

Al onze publicaties: