Beeld: Unie van Waterschappen
Publicatiedatum: Februari 2025

Altijd vraaggestuurd
Erik Vastenburg
Programmamanager Waterveiligheid, hoogheemraadschap Hollands Noorderkwartier
‘Hollands Noorderkwartier zet AI al langer in voor scheurdetectie in dijken. We willen het ook gaan gebruiken om opschot (ongewenste groei van struiken en bomen – red.) op dijken in beeld te brengen. Daarnaast zijn we bezig met predictive maintenance. We doen met AI voorspellingen over waar en wanneer onderhoud nodig is, op basis van data die we verzamelen via trillingssensoren bij pompen of afsluiters. Ook willen we een AI-model opstellen voor de waterstanden binnen een dijklichaam, op basis van peilbuisgegevens. Daarmee kunnen we naar aanleiding van de neerslagverwachting een voorspelling doen van grondwaterstanden, wat belangrijk is voor de stabiliteit van een dijk. We zien veel innovatiemogelijkheden, maar willen een ‘technology push’ voorkomen. Er moet een duidelijke meerwaarde voor de toepassing van AI zijn, dus altijd vraaggestuurd. De uitdagingen waar we voor staan, moeten op een effectieve en efficiënte manier worden opgelost. AI kan daarbij een tool zijn, maar ‘ongelimiteerd’ kan nooit de bedoeling zijn. Daarbij gaan de ontwikkelingen op dit gebied zo snel, dat iets wat je nu bedenkt, zes maanden later al achterhaald kan zijn. Ook moet de ICT-omgeving van de organisatie klaar zijn voor AI, dat brengt extra eisen met zich mee, ook op het gebied van beveiliging.’

Wees open over AI
Serv Wiemers
Directeur Open State Foundation, stichting met als doel bijdragen aan een digitaal transparante overheid
‘Onbeperkt is zelden goed, maar natuurlijk snappen wij heel goed dat de overheid nieuwe technologieën wil inzetten. Zeker als dat leidt tot meer effectiviteit, efficiëntie en innovatie, en een meer open maatschappij, waarbij de overheid gecontroleerd kan worden door burgers en media. Ons punt daarbij is: wees er altijd open over! De inzet van algoritmen kent risico’s, zoals de Toeslagenaffaire en schandalen bij DUO, het UWV en met de Syriëgangers pijnlijk hebben bewezen. Gemiddeld gebruikt elke overheidsinstantie bij zijn taakuitoefening ongeveer tien algoritmen of AI-systemen die effecten hebben voor burgers. Deze moeten worden aangemeld bij het landelijke Algoritmenregister van de Nederlandse overheid. Voor de 21 waterschappen zou dat bij elkaar om ruim 200 vermeldingen gaan. Maar er staan slechts zeven systemen in het register… De waterschappen lopen dus ver achter op het gebied van rekenschap geven over hun AI-gebruik. Dat is belangrijk, want een burger heeft er recht op te weten of bijvoorbeeld een bepaald besluit of beleidsstuk is gebaseerd op AI. Neem daarom een ‘AI-credit’ op bij documenten: ‘deze tekst is geschreven met behulp van AI’. En zorg ervoor dat er altijd een mogelijkheid is om met een mens te spreken. Een organisatie mag nooit een ‘black box’ worden, zonder ingangen voor de burger.’

Mensen blijven nodig
Prof. dr. Pim Haselager
Hoogleraar Artificiële intelligentie, Radboud Universiteit
‘Het is met nieuwe technologie hetzelfde als met rivieren: je houdt het niet tegen bij de grens. Dus geen welles-nietes-discussie, maar managen en reguleren. En niet alleen indammen, maar juist ook ruimte creëren. De clou is: hoe zorg je voor verantwoord gebruik van nieuwe technologie? AI is niet het probleem. Wij mensen zijn het probleem, omdat we (mogelijk) verkeerd gebruikmaken van een technologie. Ongelimiteerd AI inzetten lijkt me vooralsnog niet verstandig. AI is nog feilbaar. Soms komt er iets goeds uit, maar soms ook complete onzin. AI draait om correlaties tussen datapunten, maar het snapt niet waar het echt om gaat. Het probleem is dat je niet weet wanneer er onzin uitkomt en wanneer niet. Met slimme sensoren bepaalde zaken vaststellen, is geen probleem: is er een scheur in de dijk of niet? Maar brede beleidsmatige afwegingen, zoals ‘moeten we dit dorp wel of niet ontruimen vanwege het hoge water’, kan AI niet maken. Daar blijft effectief menselijk toezicht nodig, ook vanuit accountability. Als organisatie moet je er dus voor zorgen dat je mensen tegen AI kunnen ingaan, zonder dat ze de zondebok worden als er iets fout gaat. Verantwoorde innovatie is de juiste balans tussen mens en machine.’

Duidelijke richtlijnen
Ronald Heil
Partner Cyber KPMG en voormalig ethisch hacker
‘Mijn korte antwoord is: ja, mits… In principe is AI zeer geschikt om snel grote hoeveelheden informatie te verwerken en daaruit patronen te halen. De mens is een zwakke schakel in beslissingstrajecten en reageert niet altijd goed of op tijd op ontwikkelingen. Maar tegelijkertijd moet je als mens wel weten wat AI doet: ‘keeping the human in the loop’ heet dat. Er bestaan systemen, zoals bij de Maeslantkering, waar de mens bewust buiten het beslisproces is gehouden om politieke of economische afwegingen uit te sluiten. Maar bij bredere en zeer ingrijpende beslissingen moet altijd een menselijke bemoeienis mogelijk zijn. Dus zul je duidelijke richtlijnen moeten maken over wanneer en waarvoor je AI inzet. In het Three Lines of Defense-model (3LoD) onderscheiden we drie beveiligingsniveau’s: uitvoering, richtlijnen en auditing. Je kunt dan bijvoorbeeld AI als beslissingsondersteuning inzetten op LoD-1, en kiezen voor menselijke controle voor- en/of achteraf voor LoD-2 of -3. Tegelijkertijd is AI kwetsbaar voor inmenging van buitenaf: je zult het op eenzelfde manier moeten beveiligen als operationele systemen voor vitale infrastructuur. Een AI-systeem mag niet toegankelijk zijn via internet of andere onbeschermde netwerken. Hackers kunnen anders een AI-trainingsmodel langzaam vervuilen met verkeerde input, wat uiteindelijk kan leiden tot verkeerde beslissingen.’
De Unie van Waterschappen organiseert op 31 maart 2024 een debatavond over AI in Museum de Speelklok (Utrecht). Meld je aan voor deze Steenwegsessie via unievanwaterschappen.nl/agenda/