diff --git a/docs/onderwerpen/data/index.md b/docs/onderwerpen/data/index.md new file mode 100644 index 0000000000..f468b1aac6 --- /dev/null +++ b/docs/onderwerpen/data/index.md @@ -0,0 +1,35 @@ +--- +title: Data +summary: Hier staat een korte samenvatting over dit onderwerp +icon: material/database +--- + +![data](../../afbeeldingen/bouwblokken/data.jpg "visuele weergave data"){align="right"; width="50%"} + +Het ontwikkelen en gebruiken van algoritmes en AI-systemen kan niet gepaard gaan zonder het verwerken van data. +In het geval van AI wordt data gebruikt om het algoritme te trainen, te valideren en te testen. + +Wanneer beslissingen worden genomen op basis van de output van een algoritme of AI-systeem, dan wordt dit ook gedaan op basis van de onderliggende data. +Om algoritmes en AI-systemen op een verantwoorde manier toe te passen, dient dus ook de data op een verantwoorde en rechtmatige manier te worden gebruikt. + +In dit bouwblok werken we uit welke vereisten er zijn voor verantwoord datagebruik, en geven we praktische maatregelen hoe dit ingevuld kan worden binnen overheidsorganisaties. +We zoeken hierbij de aansluiting op bestaande instrumenten, zoals de [Toolbox verantwoord datagebruik](https://realisatieibds.nl/page/view/628d59dd-0755-4c20-8217-d3f26d9d8a5c/toolbox-voor-verantwoord-datagebruik). + +!!! info "Opmerking" + + Dit bouwblok moet nog ontwikkeld worden. Deze pagina is dus nog niet volledig. Op deze pagina vind je mogelijk wel al onderdelen waar we aandacht aan willen besteden in dit bouwblok. + +## Vereisten + + + +## Maatregelen + + + +## Hulpmiddelen + + + +## Nuttige informatie +- FAIR data: [GO FAIR Foundation](https://www.gofair.foundation/). diff --git a/docs/onderwerpen/duurzaamheid/index.md b/docs/onderwerpen/duurzaamheid/index.md new file mode 100644 index 0000000000..d4278d17a5 --- /dev/null +++ b/docs/onderwerpen/duurzaamheid/index.md @@ -0,0 +1,41 @@ +--- +title: Duurzaamheid +summary: Hier staat een korte samenvatting over dit onderwerp +icon: material/leaf +--- + +![duurzaamheid](../../afbeeldingen/bouwblokken/duurzaamheid.jpg "visuele weergave duurzaamheid"){align="right"; width="50%"} + +Onze impact op natuur en milieu is groot. +Er zijn grote doelen gesteld om duurzamer te gaan leven en werken. Binnen alle overheidsorganisaties, op allerlei verschillende gebieden, wordt gekeken hoe er duurzamer te werk kan worden gegaan, dus ook bij ICT-voorzieningen. + +Bij het duurzamer maken van ICT kan gedacht worden aan de fysieke kant (hardware) en de digitale kant (software, algoritmes). +Met betrekking tot hardware kan men bijvoorbeeld zo duurzaam mogelijk hardware inkopen (circulariteit van apparaten en materialen) en proberen de levensduur van apparaten en onderdelen te maximaliseren. Bij ontwikkeling en inzet van software, zoals algoritmen, zal gekeken moeten worden naar andere zaken, zoals energieverbruik van het trainen van complexe modellen. +In het Algoritmekader gaan we specifiek in op deze duurzaamheidsaspecten van algoritmes en AI-systemen. + +## Duurzaamheid algoritmes en AI-systemen +Het concept duurzaamheid is een groot en generiek begrip, dat vele sub-thema’s introduceert. +Deze thema’s raken onder andere het ontwerp, de ontwikkeling en de inzet van algoritmes en AI-systemen. +Met de opkomst van grotere en ingewikkeldere modellen, grotere datasets, en de groeiende interesse in (generatieve) AI, groeit ook het energie- en waterverbruik. +Dit verbruik ontstaat ook bij het trainen van grotere en complexere rekenmodellen zoals Large Language Models, en de opslag van zeer grote (vaak multimediale) datasets in datacenter. + +Dit bouwblok van het Algoritmekader biedt een gestructureerd overzicht van vereisten, maatregelen en instrumenten die ondersteunen bij het ontwikkelen en toepassen van algoritmes en AI-systemen op een duurzame wijze. +Zo kunnen bewuste keuzes worden gemaakt die niet alleen voldoen aan de functionaliteiten, maar ook bijdragen aan de Sustainable Development Goals (SDG's) en de doelstellingen uit het [Nederlandse klimaatakkoord](https://www.rijksoverheid.nl/onderwerpen/klimaatverandering/klimaatakkoord/wat-is-het-klimaatakkoord). +Bij duurzame ontwikkeling en toepassing van algoritmes kan bijvoorbeeld gedacht worden aan energie-efficiënte programmering en duurzaam datacenterbeheer. + +!!! info "Opmerking" + + Dit bouwblok moet nog ontwikkeld worden. Deze pagina is dus nog niet volledig. Op deze pagina vindt je mogelijk wel al onderdelen waar we aandacht aan willen besteden in dit bouwblok. + +## Vereisten + + + + +## Maatregelen + + + +## Hulpmiddelen + + diff --git a/docs/onderwerpen/fundamentele-rechten/index.md b/docs/onderwerpen/fundamentele-rechten/index.md new file mode 100644 index 0000000000..90d4c80835 --- /dev/null +++ b/docs/onderwerpen/fundamentele-rechten/index.md @@ -0,0 +1,44 @@ +--- +title: Fundamentele rechten +summary: Hier staat een korte samenvatting over dit onderwerp +icon: material/scale-balance +--- + +![fundamentele-rechten](../../afbeeldingen/bouwblokken/fundamentele-rechten.jpg "visuele weergave fundamentele rechten"){align="right"; width="50%"} + +Wanneer overheden publieke taken uitvoeren, dienen fundamentele rechten van burgers te worden beschermd. +Dat geldt ook als overheden gebruik maken van algoritmes of AI-systemen om hun plublieke taken uit te voeren. + +In Nederland beschermen we onze grondrechten met de [Grondwet](https://www.denederlandsegrondwet.nl/id/vlxups19rfoe/hoofdstuk_1_grondrechten) en met (internationale) mensenrechtenverdragen, zoals het [Europees Verdrag tot bescherming van de rechten van de mens en de fundamentele vrijheden (EVRM)](https://eur-lex.europa.eu/legal-content/NL/TXT/?uri=LEGISSUM:eu_human_rights_convention). +Mensenrechtenverdragen bevatten een aantal fundamentele rechten en vrijheden die niet in de Grondwet staan. + +Afhankelijk van de werking van algoritmes en AI-systemen en de publieke taak die wordt ondersteund, kunnen verschillende grondrechten worden geraakt. +Denk hierbij aan het verbod op ongelijke behandeling of het recht op eerbiediging van de persoonlijke levenssfeer. +Het is van belang hier in een vroeg stadium aandacht aan te besteden door dit te analyseren. +Een zorgvuldige aanpak tijdens de ontwikkeling van een algoritme kan ervoor zorgen dat er tijdig wordt geanticipeerd en maatregelen worden getroffen om een ongerechtvaardigde inbreuk op grondrechten te voorkomen. + + +Een aantal wezenlijke grondrechten die vaak worden geraakt met de inzet van algoritmen en AI, komen ook afzonderlijk in andere onderdelen van het Algoritmekader aan bod. + +Dit geldt bijvoorbeeld op het recht op persoonsgegevensbescherming in het bouwblok [Privacy en gegevensbescherming](../../onderwerpen/privacy-en-gegevensbescherming/index.md) of het verbod op ongelijke behandeling in het bouwblok [Bias en non-discriminatie](../../onderwerpen/bias-en-non-discriminatie/index.md). + +In dit bouwblok van het algoritmekader beschrijven we wat de vereisten zijn rondom het beschermen van fundamentele rechten. +Vervolgens worden deze vereisten ook vertaald in praktische maatregelen en instrumenten die overheden kunnen toepassen om invulling te geven aan deze vereisten. + +!!! info "Opmerking" + + Dit bouwblok moet nog ontwikkeld worden. Deze pagina is dus nog niet volledig. Op deze pagina vind je mogelijk wel al onderdelen waar we aandacht aan willen besteden in dit bouwblok. + +Onderdeel van het bouwblok Fundamentele rechten is het onderwerp [Bias en non-discriminatie](../../onderwerpen/bias-en-non-discriminatie/index.md). + +## Vereisten + + + +## Maatregelen + + + +## Hulpmiddelen + + diff --git a/docs/onderwerpen/menselijke-controle.md b/docs/onderwerpen/menselijke-controle.md index c7c0621ce1..65f04bc553 100644 --- a/docs/onderwerpen/menselijke-controle.md +++ b/docs/onderwerpen/menselijke-controle.md @@ -55,3 +55,10 @@ Tijdens het gebruik kun je menselijke controle op de volgende manieren uitoefene ## Maatregelen + +## Hulpmiddelen + + + +## Help ons deze pagina te verbeteren +Deel je idee, suggestie of opmerking via [GitHub](https://github.com/MinBZK/Algoritmekader/edit/main/docs/onderwerpen/menselijke-controle/index.md) of mail ons via [algoritmes@minbzk.nl](mailto:algoritmes@minbzk.nl). diff --git a/docs/onderwerpen/privacy-en-gegevensbescherming.md b/docs/onderwerpen/privacy-en-gegevensbescherming.md index 708d6363bd..f2beacc583 100644 --- a/docs/onderwerpen/privacy-en-gegevensbescherming.md +++ b/docs/onderwerpen/privacy-en-gegevensbescherming.md @@ -26,7 +26,7 @@ Door deze vereisten in de levenscyclus te integreren, kunnen de gebruikers inzic -## hulpmiddelen +## Hulpmiddelen diff --git a/docs/onderwerpen/publieke-inkoop.md b/docs/onderwerpen/publieke-inkoop.md index 18406304f7..560d9e6848 100644 --- a/docs/onderwerpen/publieke-inkoop.md +++ b/docs/onderwerpen/publieke-inkoop.md @@ -54,10 +54,10 @@ Hieronder volgt een overzicht van de maatregelen die (voor zover zijn uitgewerkt !!! info "Disclaimer" Het Algoritmekader is nog volop in ontwikkeling. Er wordt momenteel hard gewerkt, mede door de Werkgroep Publieke Inkoop, om maatregelen te definiëren vanuit het perspectief publieke inkoop bij de vereisten. Mocht er iets niet kloppen, laat het ons weten via [GitHub](https://github.com/MinBZK/Algoritmekader) of via algoritmes@minbzk.nl. -## Instrumenten +## Hulpmiddelen Hieronder volgt een overzicht van instrumenten die kunnen worden gebruikt om invulling te geven aan de vereisten en maatregelen. - + ## Bruikbare informatie en bronnen diff --git a/docs/onderwerpen/technische-robuustheid-en-veiligheid.md b/docs/onderwerpen/technische-robuustheid-en-veiligheid.md index 12d1f5bd9d..81e8350843 100644 --- a/docs/onderwerpen/technische-robuustheid-en-veiligheid.md +++ b/docs/onderwerpen/technische-robuustheid-en-veiligheid.md @@ -78,6 +78,10 @@ Maak een uitwijkplan voor incidenten. Het doel van dit plan is ervoor zorgen dat +## Hulpmiddelen + + + ## Bronnen - Natalia Díaz-Rodríguez et al, 2023, [Connecting the dots in trustworthy Artificial Intelligence: From AI principles, ethics, and key requirements to responsible AI systems and regulation](https://doi.org/10.1016/j.inffus.2023.101896), Information Fusion 99. diff --git a/docs/onderwerpen/transparantie.md b/docs/onderwerpen/transparantie.md index feeb7d72aa..1776d81872 100644 --- a/docs/onderwerpen/transparantie.md +++ b/docs/onderwerpen/transparantie.md @@ -36,6 +36,6 @@ Dit betekent bijvoorbeeld ook dat gebruikers bewust moet worden gemaakt dat zij -## hulpmiddelen +## Hulpmiddelen diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/ALTAI.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/ALTAI.md new file mode 100644 index 0000000000..e7d87d1dc8 --- /dev/null +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/ALTAI.md @@ -0,0 +1,76 @@ +--- +title: Assessment List for Trustworthy Artificial Intelligence (ALTAI) +toelichting: De ALTAI helpt ontwikkelaars en organisaties hun AI-systemen te beoordelen op basis van ethische richtlijnen voor betrouwbare AI, ontwikkeld in de EU. De ethische richtlijnen zijn gebaseerd op zeven hoofdcriteria. +categorie: +- toetsingskader +vereiste: +- aia-14-conformiteitsbeoordeling +- awb-01-zorgvuldigheidsbeginsel +maatregel: +- 1-pba-03-onderbouwen-gebruik-algoritme +- 2-owp-06-afwegen-grondrechten +- 6-imp-03-menselijke-tussenkomst +- 6-imp-06-proces-privacyrechten +- 7-mon-02-beveiliging-algoritme +- 1-pba-05-wettelijke-grondslag +- 2-owp-03-doel-verwerken-persoonsgegevens +- 3-dat-03-persoonsgegevens-beschrijven +- 3-dat-04-bewaartermijnen-persoonsgegevens +- 2-owp-07-kwetsbare-groepen +- 6-imp-04-publiceren-algoritmeregister +- 5-ver-02-biasanalyse +- 5-ver-01-functioneren-in-lijn-met-doeleinden +- 4-owk-03-privacyrisico +- 4-owk-01-security-by-design +levenscyclus: +- ontwerp +- ontwikkelen +onderwerp: +- privacy-en-gegevensbescherming +- duurzaamheid +- fundamentele-rechten +- technische-robuustheid-en-veiligheid +- transparantie +- menselijke-controle +- data +rollen: +- jurist +- ontwikkelaar +- projectleider +- beleid-en-advies +hide: navigation +--- + + + +[Direct naar de ALTAI](https://digital-strategy.ec.europa.eu/en/library/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment){ .md-button } +## Hulpmiddel + +In 2019 publiceerde de High-Level Expert Group on Artificial Intelligence (AI HLEG), opgericht door de Europese Commissie, de [Ethics Guidelines for Trustworthy Artificial Intelligence](https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai). De ALTAI is een hulpmiddel dat ontwikkelaars en organisaties helpt hun AI-systemen te beoordelen, gebaseerd op deze Ethics Guidelines for Trustworthy Artificial Intelligence. Het helpt te bepalen of het AI-systeem dat wordt ontwikkeld, ingezet, aangeschaft of gebruikt, voldoet aan zeven vereisten van betrouwbare AI: + +- Menselijke tussenkomst en toezicht; +- Technische robuustheid en veiligheid; +- Privacy en gegevensbeheer; +- Transparantie; +- Diversiteit, non-discriminatie en eerlijkheid; +- Maatschappelijk en ecologisch welzijn; +- Verantwoordelijkheid + +De ALTAI is bedoeld voor zelfevaluatie. Het hulpmiddel is verankerd in de bescherming van de fundamentele rechten van mensen, de term die in de Europese Unie wordt gebruikt om te verwijzen naar de mensenrechten die zijn vastgelegd in de EU-verdragen, het Handvest van de Grondrechten, en het internationale mensenrechtenrecht. + +De ALTAI is bedoeld voor flexibele inzet: organisaties kunnen gebruikmaken van de relevante onderdelen van dit hulpmiddel voor een specifiek AI-systeem of er elementen aan toevoegen die zij passend achten, rekening houdend met de sector waarin zij opereren. Het helpt organisaties te begrijpen wat betrouwbare AI inhoudt, in het bijzonder welke risico's een AI-systeem zou kunnen meebrengen en hoe deze risico's kunnen worden geminimaliseerd terwijl de kansen van AI worden gemaximaliseerd. Organisaties halen het meeste waarde uit de ALTAI door de gestelde vragen uitgebreid te beantwoorden, die zijn bedoeld om zorgvuldige reflectie te stimuleren en passende vervolgacties aan te formuleren, en een organisatiecultuur te bevorderen die zich inzet voor de ontwikkeling van betrouwbare AI-systemen. Het vergroot het bewustzijn van de mogelijke impact van AI op de samenleving, het milieu, consumenten, werknemers en burgers (in het bijzonder kinderen en mensen die tot gemarginaliseerde groepen behoren). + +## Relevantie +De ALTAI biedt houvast bij het evalueren van in hoeverre een betreffend AI-systeem voldoet aan de zeven vereisten van betrouwbare AI, zoals geformuleerd door de EU. Deze zeven vereisten en de ALTAI hebben samen de basis gevormd voor de AI-verordening. + + +## Auteur +De ALTAI is ontwikkeld door de High-Level Expert Group on Artificial Intelligence van de Europese Commissie. + +## Bijbehorende vereisten + + + +## Bijbehorende maatregelen + + \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/BIO.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/BIO.md new file mode 100644 index 0000000000..e8674d1d63 --- /dev/null +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/BIO.md @@ -0,0 +1,53 @@ +--- +title: Baseline Informatiebeveiliging Overheid (BIO) +toelichting: De Baseline Informatiebeveiliging Overheid (BIO) is het basisnormenkader voor informatiebeveiliging binnen alle overheidslagen (Rijk, gemeenten, provincies en waterschappen). Had voorheen iedere overheidslaag zijn eigen baseline, nu is er met gezamenlijke inspanning 1 BIO voor de gehele overheid. +categorie: +- handreiking +vereiste: +- aia-10-nauwkeurigheid-robuustheid-cyberbeveiliging +- bio-01-beveiliging-informatie-en-informatiesystemen +maatregel: +- +levenscyclus: +- ontwerp +- implementatie +- monitoring-en-beheer +onderwerp: +- technische-robuustheid-en-veiligheid +rollen: +- jurist +- ontwikkelaar +- projectleider +hide: navigation +--- + + + +[Direct naar de BIO](https://www.digitaleoverheid.nl/overzicht-van-alle-onderwerpen/cybersecurity/bio-en-ensia/baseline-informatiebeveiliging-overheid/){ .md-button } + +## Hulpmiddel +De BIO is het basisnormenkader voor informatiebeveiliging voor alle overheidslagen, waardoor een gezamenlijke norm voor informatiebeveiliging is ontstaan. Het gebruik van 1 normenkader voor de gehele overheid biedt een aantal voordelen: + +- Het versterken van de informatieveiligheid door betere afstemming binnen ketens van overheden en andere partijen; +- Administratieve lastenverlichting bij overheid en bedrijven, zowel afnemers als leveranciers, door uniforme beveiligingsnormen bij de overheid; +- Aansluiting bij internationale regelgeving en standaarden; +- Vermindering van onderhoudskosten. + +Op dit moment wordt er gewerkt aan de BIO2.0. Omdat de BIO2.0 pas eind 2024 van kracht zal worden, is op 1 juni 2023 de [handreiking BIO2.0-opmaat](https://bio-overheid.nl/category/producten?product=Handreiking_BIO2_0_opmaat) opgeleverd. In deze handreiking is de indeling van de controls, doelstellingen en overheidsmaatregelen in deel 2 van de BIO in lijn gebracht met de 2022-versie van de ISO-27002. Naast tekstuele wijzigingen, zijn ook een aantal overheidsmaatregelen geactualiseerd, vanwege nieuwe dreigingen, zoals ransomware. Naast de verhoging van de feitelijke veiligheid, wordt ook geanticipeerd op aanpassingen die in de BIO2.0 zullen worden doorgevoerd. Overheidsorganisaties doen er goed aan deze actualisatie in hun beveiliging door te voeren. + + + +## Relevantie +Iedere overheidsorganisatie is verplicht de BIO in te voeren. De BIO is in december 2018 vastgesteld door de ministerraad voor de Rijksoverheid. Daarvoor was door de gemeenten, waterschappen en provincie reeds besloten tot invoering van de BIO. De overheidslagen zijn per 1 januari 2019 gestart met de implementatie van de BIO. Iedere overheidslaag heeft daarvoor zelf een implementatiepad opgesteld. De minister van BZK heeft bepaald dat in het digitale verkeer met het Rijk de BIO wordt gehanteerd. + + +## Auteur +De interbestuurlijke werkgroep-BIO draagt zorg voor het onderhoud op de BIO. Onder het voorzitterschap van BZK zijn in de werkgroep de 4 overheidskoepels vertegenwoordigd: CIO Rijk, Vereniging Nederlandse Gemeenten, InterProvinciaal Overleg en Unie van Waterschappen. Verder bestaat de werkgroep uit een aantal grote uitvoeringsorganisaties, het Forum Standaardisatie, het Nationaal Cybersecurity Centrum en het Centrum voor Informatiebeveiliging & Privacybescherming. Besluitvorming over de BIO vindt plaats in het kern-IBO, waarin onder voorzitterschap van BZK vertegenwoordigers van de 4 overheidskoepels zitting hebben. + +## Bijbehorende vereisten + + + +## Bijbehorende maatregelen + + \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/DEDA.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/DEDA.md new file mode 100644 index 0000000000..c1c034d0e7 --- /dev/null +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/DEDA.md @@ -0,0 +1,53 @@ +--- +title: De Ethische Data Assistent +toelichting: De Ethische Data Assistent (DEDA) helpt data-analisten, projectmanagers en beleidsmakers om samen ethische problemen in dataprojecten, datamanagement en databeleid te herkennen. +categorie: +- handreiking +vereiste: +- awb-01-zorgvuldigheidsbeginsel +maatregel: +- 1-pba-03-onderbouwen-gebruik-algoritme +- 2-owp-02-gebruikte-data +levenscyclus: +- probleemanalyse +- ontwerp +onderwerp: +- data +- fundamentele-rechten +rollen: +- beleid-en-advies +- jurist +- ontwikkelaar +- projectleider +hide: navigation +--- + + + +[Direct naar DEDA](https://deda.dataschool.nl/){ .md-button } + +## Hulpmiddel +DEDA is ontwikkeld door de Data School van de Universiteit Utrecht en bestaat uit een toolkit die helpt bij het in kaart brengen van ethische kwesties bij dataprojecten, bij het documenteren van het beraadslagingsproces en bij de bevordering van de verantwoording aan de diverse stakeholders en het publiek. + +DEDA bestaat uit een poster voor brainstormsessies, een interactieve vragenlijst en een handleiding. Alle tools zijn gepubliceerd door de Data School van de Universiteit Utrecht. + +DEDA bevordert verantwoordingsplicht, onderwijst gebruikers, communiceert problemen en ondersteunt projectmanagement. + +## Relevantie +DEDA is een belangrijk hulpmiddel omdat het helpt bij de vroege identificatie en bespreking van ethische kwesties in dataprojecten. Net als de [IAMA](IAMA.md), biedt DEDA een gestructureerde aanpak om de implicaties van datagebruik en algoritmische besluitvorming te beoordelen. +Het ondersteunt overheden bij het naleven van het [zorgvuldigheidsbeginsel](../vereisten/awb-01-zorgvuldigheidsbeginsel.md) en maakt ethische afwegingen inzichtelijk als onderdeel van de besluitvorming. +Door een interactieve vragenlijst en documentatie bevordert DEDA verantwoordingsplicht en transparantie. + +DEDA stimuleert interdisciplinaire samenwerking en helpt beleidsmakers, juristen en ontwikkelaars de ethische dimensies van data-analyse beter te begrijpen. +Dit draagt bij aan zorgvuldige en rechtvaardige datagedreven oplossingen binnen de publieke sector. DEDA draagt bij aan [transparantie](../onderwerpen/transparantie/index.md) en uitlegbaarheid van datagebruik, essentieel voor publiek vertrouwen. + +## Auteur +DEDA is ontwikkeld door de Data School van de Universiteit Utrecht. DEDA is in nauwe samenwerking met data-analisten ontwikkeld. Inmiddels is DEDA een wijdverspreid instrument, waar de Utrecht Data School ook trainingen en begeleiding bij geeft. [Via deze link](https://deda.dataschool.nl/workshop/) is meer informatie te vinden. + +## Bijbehorende vereisten + + + +## Bijbehorende maatregelen + + \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/DPIA.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/DPIA.md index 78011efc0e..dfec138a88 100644 --- a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/DPIA.md +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/DPIA.md @@ -1,6 +1,8 @@ --- title: Data Protection Impact Assessment toelichting: De DPIA is een instrument om vooraf de privacyrisico’s van een gegevensverwerking in kaart te brengen. Zodat de organisatie maatregelen kan nemen om deze risico’s te verkleinen. De DPIA zorgt voor naleving van de wetgeving inzake gegevensbescherming, zoals de Algemene Verordening Gegevensbescherming (AVG) in de Europese Unie. +categorie: +- impact-assessment vereiste: - avg-01-persoonsgegevens-worden-rechtmatig-verwerkt - avg-02-beperkte-bewaartermijn-van-persoonsgegevens @@ -9,7 +11,9 @@ vereiste: - avg-05-juistheid-en-actualiteit-van-persoonsgegevens - avg-11-privacy-bij-ontwerp-bij-verwerking-van-persoonsgegevens - avg-07-transparantie-bij-verwerken-persoonsgegevens -- aia-35-verweking-in-testomgeving +- aia-35-verwerking-in-testomgeving +maatregel: +- 4-owk-03-privacyrisico levenscyclus: - probleemanalyse - ontwerp @@ -17,14 +21,16 @@ levenscyclus: onderwerp: - privacy-en-gegevensbescherming rollen: +- beleid-en-advies - jurist - projectleider +hide: navigation --- [Direct naar de DPIA](https://www.autoriteitpersoonsgegevens.nl/themas/basis-avg/praktisch-avg/data-protection-impact-assessment-dpia){ .md-button } -## Instrument +## Hulpmiddel Is je organisatie van plan persoonsgegevens te verwerken, maar levert dat waarschijnlijk een hoog privacyrisico op? Dan is je organisatie verplicht eerst een 'data protection impact assessment' (DPIA) uit te voeren. @@ -61,3 +67,7 @@ De DPIA is ontwikkeld door de Europese Unie in het kader van de AVG. ## Bijbehorende vereisten + +## Bijbehorende maatregelen + + diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/IAMA.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/IAMA.md index 2826b8cda6..a53e4360db 100644 --- a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/IAMA.md +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/IAMA.md @@ -1,6 +1,8 @@ --- title: Impact Assessment Mensenrechten en Algoritmes toelichting: Het Impact Assessment voor Mensenrechten bij de inzet van Algoritmes (IAMA) is een instrument voor overheidsorganen om een interdisciplinaire dialoog en besluitvorming te faciliteren bij de ontwikkeling en inzet van algoritmische systemen. +categorie: +- impact-assessment vereiste: - aia-27-beoordelen-gevolgen-grondrechten - grw-01-fundamentele-rechten @@ -8,32 +10,34 @@ levenscyclus: - probleemanalyse - ontwerp - verificatie-en-validatie -- implementatie +- monitoring-en-beheer onderwerp: - fundamentele-rechten - transparantie rollen: -- beleid-en-advies -- jurist - projectleider +- ontwikkelaar +- jurist +- beleid-en-advies +hide: navigation --- [Direct naar het IAMA](https://www.rijksoverheid.nl/documenten/rapporten/2021/02/25/impact-assessment-mensenrechten-en-algoritmes){ .md-button } -## Instrument +## Hulpmiddel Het Impact Assessment voor Mensenrechten bij de inzet van Algoritmes (IAMA) is een instrument voor overheidsorganen om een interdisciplinaire dialoog en besluitvorming te faciliteren bij de ontwikkeling en inzet van algoritmische systemen. Het IAMA stelt een reeks vragen die moeten worden besproken en beantwoord om een zorgvuldige afweging van de inzet van algoritmen te waarborgen. Dit proces is onderverdeeld in drie fasen: voorbereiding, input en throughput, en output en toezicht, waarbij steeds aandacht wordt besteed aan het vierde onderdeel van het IAMA: de impact op mensenrechten. -Het IAMA fungeert als naslagwerk voor de besluitvorming en is gekoppeld aan andere relevante richtlijnen en hulpmiddelen, zoals de [gegevensbeschermingseffectbeoordeling (ook wel DPIA)](../vereisten/avg-13-dpia-verplicht.md). +Het IAMA fungeert als naslagwerk voor de besluitvorming en is gekoppeld aan andere relevante richtlijnen en instrumenten, zoals de [gegevensbeschermingseffectbeoordeling (ook wel DPIA)](../vereisten/avg-13-dpia-verplicht.md). Hierdoor biedt het een overkoepelend kader dat helpt om algoritmen verantwoord te implementeren en mogelijke risico’s, zoals inbreuken op grondrechten, te identificeren en te mitigeren. ## Relevantie Het IAMA kan op dit moment op veel politieke en internationale belangstelling rekenen. In zowel de Eerste als Tweede Kamer zijn hierover [moties ingediend](https://www.tweedekamer.nl/kamerstukken/moties/detail?id=2022D12329&did=2022D12329) en vragen gesteld. -Daarbij is het IAMA een van de weinige hulpmiddelen in de EU die een interdisciplinaire discussie rondom (de ontwikkeling, inzet en monitoring van) algoritmes, AI en grondrechten initieert en bevordert. +Daarbij is het IAMA een van de weinige instrumenten in de EU die een interdisciplinaire discussie rondom (de ontwikkeling, inzet en monitoring van) algoritmes, AI en grondrechten initieert en bevordert. ## Auteur @@ -43,12 +47,16 @@ Het IAMA is ontwikkeld door de [Utrecht Data School](https://dataschool.nl/iama/ -## Bronnen +## Bijbehorende maatregelen -| Bron | -|-----------------------------| -|[Impact Assessment Mensenrechten en Algoritmes](https://www.rijksoverheid.nl/documenten/rapporten/2021/02/25/impact-assessment-mensenrechten-en-algoritmes)| + + +## Bronnen +[Impact Assessment Mensenrechten en Algoritmes](https://www.rijksoverheid.nl/documenten/rapporten/2021/02/25/impact-assessment-mensenrechten-en-algoritmes) ## Voorbeeld -Heb jij een goed voorbeeld? Laat het ons weten! +Benieuwd naar ervaringen in de praktijk? Bekijk het rapport [IAMA in Actie](https://www.rijksoverheid.nl/documenten/rapporten/2024/06/20/iama-in-actie-lessons-learned-van-15-iama-trajecten-bij-nederlandse-overheidsorganisaties) voor de lessons learned van 15 IAMA-trajecten bij Nederlandse overheidsorganisaties. + + +Heb jij een goed voorbeeld? Laat het ons weten! \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/algoritmeregister.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/algoritmeregister.md index 71ddf07b0b..2ce98c5caa 100644 --- a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/algoritmeregister.md +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/algoritmeregister.md @@ -1,24 +1,26 @@ --- title: Algoritmeregister toelichting: Het Algoritmeregister is de plek waar overheden informatie over hun algoritmes kunnen publiceren. +categorie: +- register vereiste: -- algoritmeregister +- bzk-01-algoritmeregister +maatregel: +- 6-imp-04-publiceren-algoritmeregister levenscyclus: - monitoring-en-beheer onderwerp: - transparantie -# rollen: -# - projectleider -# - gemandateerd-verantwoordelijke -# - privacy-officer -# - proceseigenaar -# - informatiebeheerder +rollen: +- projectleider +- ontwikkelaar +hide: navigation --- [Direct naar het Algoritmeregister](https://algoritmes.overheid.nl/nl){ .md-button } -## Instrument +## Hulpmiddel De regering wil dat de overheid algoritmes verantwoord gebruikt. Mensen moeten erop kunnen vertrouwen dat algoritmes voldoen aan de waarden en normen van de samenleving. @@ -37,12 +39,14 @@ Hierin wordt bijvoorbeeld duidelijkheid gegeven over welke doelen we ermee berei -## Bronnen +## Bijbehorende maatregelen + + -| Bron | -|-----------------------------| -|[Algoritmeregister](https://algoritmes.overheid.nl/nl)| + +## Bronnen +[Algoritmeregister](https://algoritmes.overheid.nl/nl) ## Voorbeeld -Heb jij een goed voorbeeld? Laat het ons weten! +Heb jij een goed voorbeeld? Laat het ons weten! \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/fairness-handbook.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/fairness-handbook.md index 13bf063f86..017df77426 100644 --- a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/fairness-handbook.md +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/fairness-handbook.md @@ -1,7 +1,8 @@ ---- - +--- title: The Fairness Handbook toelichting: toelichting volgt +categorie: +- handreiking levenscyclus: - probleemanalyse - ontwerp @@ -11,25 +12,44 @@ onderwerp: rollen: - projectleider vereiste: +- grw-01-fundamentele-rechten - grw-02-non-discriminatie +- aia-04-risicobeoordeling-voor-jongeren-en-kwetsbaren +maatregel: +- 3-dat-01-datakwaliteit +- 5-ver-02-biasanalyse +- 6-imp-02-aselecte-steekproeven +hide: navigation --- [Direct naar het Fairness Handbook](https://openresearch.amsterdam/en/page/87589/the-fairness-handbook){ .md-button } -## Instrument -Informatie volgt +## Hulpmiddel +Het Fairness Handbook biedt overheidsorganisaties een gedetailleerde richtlijn om eerlijkheid in algoritmen te waarborgen en schadelijke vooroordelen binnen AI-systemen te verminderen. Het handboek, dat origineel is ontwikkeld voor de Gemeente Amsterdam, richt zich op het voorkomen en mitigeren van vooroordelen en oneerlijke uitkomsten (bias) door middel van een gestructureerde _Fairness Pipeline_. Deze pipeline behandelt alle fasen van het ontwikkelproces, van het [formuleren van het probleem](../levenscyclus/probleemanalyse.md) tot de uiteindelijke [implementatie](../levenscyclus/implementatie.md) en [monitoring](../levenscyclus/monitoring-en-beheer.md). Dit hulpmiddel biedt inzicht in de soorten schadelijke effecten van AI (zoals representatiebias en denigratieschade) en introduceert specifieke technieken, zoals het uitvoeren van een bias-analyse en het gebruik van contra-feitelijke scenario's (_counterfactual fairness_), om te controleren of de algoritmen rechtvaardige resultaten opleveren. + +Naast praktische technieken voor het meten en mitigeren van vooroordelen, definieert het Fairness Handbook verschillende eerlijkheidsprincipes en bijbehorende statistische metrics. Deze metrics helpen [ontwikkelaars](../rollen/ontwikkelaar.md) en [beleidsmakers](../rollen/beleid-en-advies.md) om de prestaties van modellen te analyseren en verschillen in modelprestaties tussen verschillende groepen te detecteren. Door de nadruk te leggen op transparantie, zowel in de keuze van datasets als in de manier waarop het model beslissingen neemt, helpt het handboek om het vertrouwen in AI-systemen te vergroten en discriminerend gedrag in algoritmen te verminderen. ## Relevantie -Informatie volgt +Het Fairness Handbook biedt ondersteuning voor overheden die streven naar verantwoorde, niet-discriminerende algoritmische besluitvorming. Het handboek ondersteunt overheidsinstanties bij het identificeren en corrigeren van vooroordelen in datasets en algoritmes, waardoor het risico op schadelijke effecten, zoals ongelijke verdeling van kansen of kwaliteit van dienstverlening, wordt geminimaliseerd. Het hulpmiddel sluit nauw aan bij andere hulpmiddelen, zoals de [IAMA](IAMA.md), door richtlijnen te geven voor het beoordelen van specifieke eerlijkheidsaspecten in de context van datagebruik en algoritmeontwikkeling. + +Door de combinatie van technische en niet-technische benaderingen bevordert het Fairness Handbook een holistische benadering van algoritmische eerlijkheid. Er wordt rekening gehouden met zowel de technische als de sociale en ethische dimensies. Dit maakt het een bruikbaar hulpmiddel voor diverse overheidsprojecten, waaronder de ontwikkeling van AI-toepassingen in het sociaal domein en besluitvormingsprocessen waarbij kansengelijkheid van groot belang is. + +## Auteurs en Ontwikkeling +Het Fairness Handbook is ontwikkeld in 2022 door de Gemeente Amsterdam, met als doel de eerlijkheid en transparantie van haar AI-systemen te verbeteren. Het project is tot stand gekomen in samenwerking met diverse stakeholders, waaronder datawetenschappers, ethici en [beleidsmakers](../rollen/beleid-en-advies.md), om ervoor te zorgen dat het handboek aansluit bij de bredere maatschappelijke behoeften en regelgeving. Door deze samenwerking biedt het Fairness Handbook een gebalanceerd perspectief, met aandacht voor zowel technische oplossingen als ethische en [juridische](../rollen/jurist.md) overwegingen die nodig zijn voor verantwoorde AI-toepassingen. ## Bijbehorende vereisten +## Bijbehorende maatregelen + + + + ## Bronnen [The Fairness Handbook](https://openresearch.amsterdam/en/page/87589/the-fairness-handbook) ## Voorbeeld -Heb jij een goed voorbeeld van het gebruik van het Fairness Handbook op het gebied van algoritmen? Laat het ons weten! +Heb jij een goed voorbeeld van het gebruik van het Fairness Handbook op het gebied van algoritmen? Laat het ons weten! \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/framework-meaningful-engagement.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/framework-meaningful-engagement.md new file mode 100644 index 0000000000..ed7768609e --- /dev/null +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/framework-meaningful-engagement.md @@ -0,0 +1,67 @@ +--- +title: Framework for Meaningful Engagement +toelichting: Het Framework for Meaningful Engagement ondersteunt organisaties bij menselijk toezicht tijdens het ontwikkelen van algoritmes. +categorie: +- handreiking +levenscyclus: +- probleemanalyse +- ontwerp +onderwerp: +- menselijke-controle +- transparantie +- fundamentele-rechten +rollen: +- projectleider +- beleid-en-advies +vereiste: +- aia-08-transparantie-aan-gebruiksverantwoordelijken +- aia-09-menselijk-toezicht +- aia-23-gebruiksverantwoordelijken-menselijk-toezicht +maatregel: +- 6-imp-03-menselijke-tussenkomst +- 5-ver-03-vertaling-wetgeving-naar-systeem +- 5-ver-01-functioneren-in-lijn-met-doeleinden +- 2-owp-06-afwegen-grondrechten +- 2-owp-07-kwetsbare-groepen +- 1-pba-01-formuleren-probleemdefinitie +- 1-pba-02-formuleren-doelstelling +- 1-pba-03-onderbouwen-gebruik-algoritme +- 1-pba-04-betrek-belanghebbenden +- 0-org-01-benodigde-expertise-en-capaciteit +hide: +- navigation +- toc + +--- + + + + +[Direct naar het Framework for Meaningful Engagement](https://ecnl.org/publications/framework-meaningful-engagement){ .md-button } + +## Hulpmiddel +Het *Framework for Meaningful Engagement* biedt organisaties een praktische aanpak om verschillende stakeholders effectief te betrekken in processen rondom AI en algoritmes. +Het beschrijft stapsgewijs hoe men betrokkenheid kan ontwerpen en uitvoeren, met de nadruk op drie pijlers: + +1. een gedeelde doelstelling +2. een betrouwbaar proces +3. een zichtbare impact + +Het framework helpt organisaties om input van belanghebbenden daadwerkelijk te integreren, wat leidt tot duurzamere, inclusievere besluitvorming. + +## Relevantie voor het Algoritmekader +Betekenisvolle betrokkenheid van stakeholders is cruciaal voor verantwoord algoritmegebruik. +Voor overheden biedt dit framework handvatten om transparanter te zijn over de ontwikkeling en impact van algoritmes en om een goed proces in te richten bij het gebruik van een algoritme. Dit sluit aan bij eisen rond [menselijke controle](../onderwerpen/menselijke-controle/index.md). + +## Auteurs en ontwikkeling +Het framework is ontwikkeld door de European Center for Not-for-Profit Law Stichting (ECNL) en SocietyInside, als onderdeel van de Deense Tech for Democracy Initiative. De totstandkoming vond plaats via een consultatieproces met bijdragen van meer dan 150 individuen en organisaties wereldwijd, waaronder belanghebbenden uit het maatschappelijk middenveld, bedrijfsleven en overheden. +Het framework bouwt voort op de [VN-richtlijnen voor bedrijfs- en mensenrechten](https://www.ohchr.org/sites/default/files/documents/publications/guidingprinciplesbusinesshr_en.pdf). + +## Bijbehorende vereisten + + +## Bijbehorende maatregelen + + +## Bronnen +- [ECNL - Framework for Meaningful Engagement](https://ecnl.org/publications/framework-meaningful-engagement) \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/handreiking-non-discriminatie.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/handreiking-non-discriminatie.md index 7412c971ea..e205c215b5 100644 --- a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/handreiking-non-discriminatie.md +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/handreiking-non-discriminatie.md @@ -1,23 +1,32 @@ --- title: Handreiking non-discriminatie by design toelichting: Deze handreiking legt uit welke vragen en principes leidend zijn bij het ontwikkelen en implementeren van een AI-systeem met het oog op het discriminatieverbod, vanuit zowel juridisch, technisch, als organisatorisch perspectief. +categorie: +- handreiking levenscyclus: -- probleemanalyse -- ontwerp +- ontwikkelen +- implementatie onderwerp: - bias-en-non-discriminatie - fundamentele-rechten rollen: - projectleider +- ontwikkelaar vereiste: +- grw-01-fundamentele-rechten - grw-02-non-discriminatie +- aia-04-risicobeoordeling-voor-jongeren-en-kwetsbaren +maatregel: +- 3-dat-01-datakwaliteit +- 5-ver-02-biasanalyse +- 6-imp-02-aselecte-steekproeven --- [Direct naar de Handreiking non-discriminatie by design](https://www.rijksoverheid.nl/documenten/rapporten/2021/06/10/handreiking-non-discriminatie-by-design){ .md-button } -## Instrument +## Hulpmiddel Deze handreiking legt uit welke vragen en principes leidend zijn bij het ontwikkelen en implementeren van een AI-systeem met het oog op het discriminatieverbod, vanuit zowel juridisch, technisch, als organisatorisch perspectief. De handreiking is een praktisch toepasbaar ontwerpkader dat ontwikkelaars helpt om al in de ontwikkelfase van een AI-systeem discriminerende patronen zoveel mogelijk te identificeren, te voorkomen en te bestrijden. @@ -33,14 +42,14 @@ Er zijn 4 uitgangspunten die leidend zijn in de handreiking: ## Relevantie Stuk over relevantie voor het AK volgt nog. -Net als bij het [IAMA](IAMA.md), is dit document een manier om een multidisciplinaire discussie te faciliteren en stimuleren. Hierbij kunnen verschillende rollen betrokken worden door de projectleider: data-scientists, juristen, de functionaris gegevensbescherming (FG), aangevuld met domeinspecialisten. +Net als bij het [IAMA](IAMA.md), is dit document een manier om een multidisciplinaire discussie te faciliteren en stimuleren. Hierbij kunnen verschillende rollen betrokken worden door de [projectleider](../rollen/projectleider.md): [data-scientists](../rollen/ontwikkelaar.md), [juristen](../rollen/jurist.md), de functionaris gegevensbescherming (FG), aangevuld met domeinspecialisten. ## Wanneer toepassen? -De handreiking is primair geschreven voor teams die zelf AI-systemen bouwen. Het gaat in op verschillende fases van ontwikkeling: [probleemanalyse](../../levenscyclus/probleemanalyse.md), [dataverkenning en datapreparatie](../../levenscyclus/dataverkenning-en-datapreparatie.md), [ontwikkeling](../../levenscyclus/ontwikkelen.md), [implementatie](../../levenscyclus/implementatie.md) en [evaluatie](../../levenscyclus/verificatie-en-validatie.md). +De handreiking is primair geschreven voor teams die zelf AI-systemen bouwen. Het gaat in op verschillende fases van ontwikkeling: [probleemanalyse](../levenscyclus/probleemanalyse.md), [dataverkenning en datapreparatie](../levenscyclus/dataverkenning-en-datapreparatie.md), [ontwikkeling](../levenscyclus/ontwikkelen.md), [implementatie](../levenscyclus/implementatie.md) en [evaluatie](../levenscyclus/verificatie-en-validatie.md). Daarnaast kan deze handreiking dienen voor opdrachtgevers van AI-systemen, ofwel om vooraf offrerende partijen te vragen aan te geven hoe zij rekening zullen houden met de diverse punten uit de handreiking, ofwel om tijdens het proces mee te kijken en op relevante punten aanwijzingen te geven, ofwel om achteraf te controleren of een opgeleverd product aan alle relevante voorwaarden voldoet. ### Relatie tot IAMA -Gebruikers van zowel de Handreiking non-discriminatie by design als het IAMA geven enkele verschillen tussen de twee hulpmiddelen. Deze bevindingen zijn te vinden in het rapport ['Bekendheid, toepasbaarheid en toegevoegde waarde handreiking “non-discriminatie by design"'](https://open.overheid.nl/documenten/7052294a-e70a-4084-88da-d09ae5f202cb/file) van de Auditdienst Rijk. +Gebruikers van zowel de Handreiking non-discriminatie by design als het [IAMA](IAMA.md) geven enkele verschillen tussen de twee instrumenten. Deze bevindingen zijn te vinden in het rapport ['Bekendheid, toepasbaarheid en toegevoegde waarde handreiking “non-discriminatie by design"'](https://open.overheid.nl/documenten/7052294a-e70a-4084-88da-d09ae5f202cb/file) van de Auditdienst Rijk. Zij geven aan dat het IAMA wordt gezien als instrument voor het nagaan van de impact van grondrechten in algemenere zin, waar de Handreiking zich specifiek richt op discriminatie. De handreiking bevat dan weer meer praktische voorbeelden die kunnen helpen bij begrip en afwegingen, waar de IAMA wat abstracter is. @@ -54,6 +63,10 @@ Ook het [toetsingskader voor discriminatie door risicoprofielen van het College +## Bijbehorende maatregelen + + + ## Bronnen - [Handreiking non-discriminatie by design](https://www.rijksoverheid.nl/documenten/rapporten/2021/06/10/handreiking-non-discriminatie-by-design) @@ -62,4 +75,4 @@ Ook het [toetsingskader voor discriminatie door risicoprofielen van het College ## Voorbeeld -Heb jij een goed voorbeeld van het gebruik van de Handreiking non-discriminatie by design op het gebied van algoritmen? Laat het ons weten! +Heb jij een goed voorbeeld van het gebruik van de Handreiking non-discriminatie by design op het gebied van algoritmen? Laat het ons weten! \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/index.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/index.md index 5a34f2f581..5267128387 100644 --- a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/index.md +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/index.md @@ -1,9 +1,10 @@ --- -title: hulpmiddelen +title: Hulpmiddelen summary: Overzicht van de aanbevolen hulpmiddelen voor overheden die algoritmes of AI ontwikkelen of gebruiken. De hulpmiddelen helpen om te voldoen aan de vereisten. +hide: navigation --- -# hulpmiddelen +# Hulpmiddelen Overzicht van aanbevolen hulpmiddelen voor het verantwoord ontwikkelen, gebruiken, beoordelen en monitoren van algoritmes en AI-systemen. ## Richtlijnen en andere hulpmiddelen @@ -18,7 +19,7 @@ Met hulpmiddelen bedoelen we hulpmiddelen voor verantwoord en effectief gebruik Deze hulpmiddelen helpen je bij het op een rij zetten, beoordelen en verbeteren van de kenmerken, prestaties, effecten en risico’s van algoritmes en AI. ## Hoe we hulpmiddelen selecteren -hulpmiddelen die we aanbevelen, zijn: +Hulpmiddelen die we aanbevelen, zijn: - relatief bekend onder ambtenaren - in gebruik door overheid, wetenschap of industrie @@ -34,3 +35,10 @@ Staat een instrument niet in onze selectie, dan kan het nog steeds een goed inst Als een instrument verplicht is, staat dit er duidelijk bij. Een verplicht hulpmiddel is bijvoorbeeld de [Data protection impact assessment (DPIA)](https://minbzk.github.io/Algoritmekader/vereisten/dpia_verplicht_bij_hoog_risico). De meeste hulpmiddelen zijn niet verplicht. Bepaal zelf of je er gebruik van maakt. + +## Overzicht hulpmiddelen + + + +## Help ons deze pagina te verbeteren +Deel je idee, suggestie of opmerking via [GitHub](https://github.com/MinBZK/Algoritmekader/edit/main/docs/hulpmiddelen/index.md) of mail ons via [algoritmes@minbzk.nl](mailto:algoritmes@minbzk.nl). \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/modelcontractbepalingen.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/inkoopvoorwaarden.md similarity index 62% rename from docs/voldoen-aan-wetten-en-regels/hulpmiddelen/modelcontractbepalingen.md rename to docs/voldoen-aan-wetten-en-regels/hulpmiddelen/inkoopvoorwaarden.md index 6f67089152..8bb7e8b0e0 100644 --- a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/modelcontractbepalingen.md +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/inkoopvoorwaarden.md @@ -1,25 +1,35 @@ --- -title: Modelcontractbepalingen -toelichting: Modelbepalingen kunnen helpen om een contract op te stellen dat een organisatie in staat stelt veilige en verantwoorde algoritmen of AI-systemen in te kopen. +title: Inkoopvoorwaarden +toelichting: Goede inkoopvoorwaarden kunnen helpen om een contract op te stellen dat een organisatie helpt om veilige en verantwoorde algoritmen of AI-systemen in te kopen. +categorie: +- template levenscyclus: - probleemanalyse - ontwerp -- dataverkenning-en-datapreparatie -- verificatie-en-validatie onderwerp: - publieke-inkoop rollen: - jurist +- projectleider +- beleid-en-advies +maatregel: +- 3-dat-08-eigenaarschap-data +- 2-owp-16-leveren-bewijs-door-aanbieder-niet-schenden-auteursrechten +- 2-owp-15-leveren-bewijs_voldoen-aan-vereisten-algoritme-aanbieder +- 2-owp-13-vereisten-onderdeel-algemene-inkoopvoorwaarden-en-contractovereenkomst +- 2-owp-23-kennisoverdracht-en-ondersteuning-aanbieder +- 2-owp-11-data-beschikbaarheid +hide: navigation --- -## Instrument +## Hulpmiddel -Modelbepalingen kunnen helpen om een contract op te stellen dat een organisatie in staat stelt veilige en verantwoorde algoritmen of AI-systemen in te kopen. -Deze bepalingen (of voorwaarden) kunnen opgenomen worden wanneer er een contract wordt afgesloten met een leverancier van een algoritme of algoritmisch systeem. +Voorbeelden of templates van inkoopvoorwaarden kunnen helpen om een contract op te stellen dat een organisatie in staat stelt veilige en verantwoorde algoritmen of AI-systemen in te kopen. Deze worden ook wel eens modelcontractbepalingen genoemd. +Deze voorwaarden of bepalingen kunnen opgenomen worden wanneer er een contract wordt afgesloten met een leverancier van een algoritme of algoritmisch systeem. Er kunnen dan bijvoorbeeld beperkingen gelden om onaanvaardbare risico's van AI te vermijden, of bepaalde voorwaarden gesteld worden waaraan een algoritme juist moet voldoen. -Ook kunnen bepaalde [voorwaarden worden opgenomen op basis van de vereisten](../voldoen-aan-wetten-en-regels/maatregelen/maak_vereiste_onderdeel_van_contractovereenkomst.md) in het Algoritmekader. +Ook kunnen bepaalde [voorwaarden worden opgenomen op basis van de vereisten](../maatregelen/2-owp-13-vereisten-onderdeel-algemene-inkoopvoorwaarden-en-contractovereenkomst.md) in het Algoritmekader. ### Europese Commissie De Europese contractvoorwaarden voor AI bieden aanbestedende organisaties de mogelijkheid om specifieke clausules op te nemen in de overeenkomst. Op deze manier worden afspraken gemaakt over onderwerpen die in lijn zijn met de aankomende AI-Act. Er zijn 2 versies van de AI-inkoopvoorwaarden opgesteld: een [set voorwaarden voor AI-toepassingen met een hoog-risicoprofiel](https://www.pianoo.nl/sites/default/files/media/documents/2024-07/ai_procurement_clauses_template_high_risk_nl.pdf) en een [set voorwaarden voor AI-toepassingen met een laag-risicoprofiel](https://www.pianoo.nl/sites/default/files/media/documents/2024-07/AI_Procurement_Clauses_Template_NON_HIGH_RISK_NL-1.pdf). @@ -42,14 +52,16 @@ Steeds meer organisaties kopen algoritmische toepassingen in die veel impact heb +## Bijbehorende maatregelen + + + ## Bronnen -| Bron | -|-----------------------------| -|[Modelbepalingen voor gemeenten voor verantwoord gebruik van Algoritmische toepassingen](https://www.amsterdam.nl/innovatie/digitalisering-technologie/algoritmen-ai/contractvoorwaarden-algoritmen/)| -|[Contractvoorwaarden voor het inkopen van artificiële intelligentie (AI)](https://www.pianoo.nl/nl/document/21644/contractvoorwaarden-voor-het-inkopen-van-artificiele-intelligentie-ai)| -|[AI-module bij de modelovereenkomst ARBIT-2022](https://www.pianoo.nl/nl/actueel/nieuws/nieuw-ai-module-bij-de-modelovereenkomst-arbit-2022)| +- [Modelbepalingen voor gemeenten voor verantwoord gebruik van Algoritmische toepassingen](https://www.amsterdam.nl/innovatie/digitalisering-technologie/algoritmen-ai/contractvoorwaarden-algoritmen/) +- [Contractvoorwaarden voor het inkopen van artificiële intelligentie (AI)](https://www.pianoo.nl/nl/document/21644/contractvoorwaarden-voor-het-inkopen-van-artificiele-intelligentie-ai) +- [AI-module bij de modelovereenkomst ARBIT-2022](https://www.pianoo.nl/nl/actueel/nieuws/nieuw-ai-module-bij-de-modelovereenkomst-arbit-2022) ## Voorbeeld -Heb jij een goed voorbeeld van het gebruik van modelbepalingen of contractvoorwaarden op het gebied van algoritmen? Laat het ons weten! +Heb jij een goed voorbeeld van het gebruik van modelbepalingen of contractvoorwaarden op het gebied van algoritmen? Laat het ons weten! \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/mensenrechtelijktoetsingskader.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/mensenrechtelijktoetsingskader.md new file mode 100644 index 0000000000..d03db752b6 --- /dev/null +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/mensenrechtelijktoetsingskader.md @@ -0,0 +1,58 @@ +--- +title: Discriminatie door risicoprofielen - Een mensenrechtelijk toetsingskader +toelichting: Om etnisch profileren in de praktijk te helpen voorkomen, heeft het College voor de Rechten van de Mens een mensenrechtelijk toetsingskader voor risicoprofielen ontwikkeld. Het biedt een overzicht van de juridische normen waar overheidsinstanties zich ten minste aan moeten houden als zij een risicoprofiel opstellen en inzetten zodat discriminatie op grond van etnische afkomst en nationaliteit wordt voorkomen. +categorie: +- toetsingskader +vereiste: +- grw-01-fundamentele-rechten +- grw-02-non-discriminatie +maatregel: +- 5-ver-02-biasanalyse +levenscyclus: +- probleemanalyse +- ontwerp +onderwerp: +- bias-en-non-discriminatie +- fundamentele-rechten +rollen: +- beleid-en-advies +- jurist +hide: navigation +--- + + + +[Direct naar het Mensenrechtelijk Toetsingskader](https://publicaties.mensenrechten.nl/publicatie/61a734e65d726f72c45f9dce){ .md-button } + +!!! opmerking "Let op!" + + Dit toetsingskader wordt momenteel vernieuwd. Een nieuwe versie wordt hier gepubliceerd zodra beschikbaar. + +## Hulpmiddel + +Dit toetsingskader helpt overheidsfunctionarissen om te bepalen wanneer risicoprofielen leiden tot discriminatie op grond van ras of nationaliteit. +Het presenteert de (denk)stappen die doorlopen moeten worden om te toetsen of een risicoprofiel binnen de grenzen van het discriminatieverbod blijft. +Het is belangrijk om te benadrukken dat het hierbij gaat om de juridische ondergrens van het discriminatieverbod, zoals geformuleerd door internationale en nationale rechters. +Aan de regels uit dit toetsingskader moet de overheid zich dus ten minste houden. Dit laat onverlet dat de overheid kan beslissen om strengere regels te hanteren. + +##### *Noot voor de lezer* + +Dit toetsingskader is gebaseerd op geldende verdragen, wetten en jurisprudentie tot aan november 2021. De normen en jurisprudentie op dit terrein zijn echter continu in ontwikkeling. Zo heeft het gerechtshof Den Haag in 2023 in een belangrijke uitspraak vastgesteld dat het gebruik van etnische kenmerken als een van de selectiecriteria voor controle, zoals dat plaatsvond binnen het ‘Mobiel Toezicht Veiligheid’ door de Koninklijke Marechaussee, in strijd is met het discriminatieverbod. + +Ook op Europees niveau is er nieuwe relevante jurisprudentie verschenen. Dit alles biedt een verdere aanscherping en concretisering van de geldende normen. Het College werkt daarom op dit moment aan een aangepast en doorontwikkeld toetsingskader waarin alle nieuwe ontwikkelingen worden verwerkt. + +## Relevantie +Het spreekt voor zich dat overheidsinstanties zich bij het uitvoeren van hun taken moeten onthouden van discriminatie. Recente voorbeelden zoals de Kinderopvangtoeslagaffaire laten echter zien dat het in de praktijk toch mis kan gaan. Duidelijk is dat discriminerende elementen toch in risicoprofielen voorkomen. Dat heeft er mede mee te maken dat het voor medewerkers van uitvoeringsinstanties niet altijd duidelijk is wat in welke context wel en niet mag. + +Er komt daarbij veel kijken bij de beoordeling of een risicoprofiel binnen de grenzen van het discriminatieverbod blijft, zeker wanneer afkomst-gerelateerde kenmerken als selectiecriteria binnen dit risicoprofiel een rol spelen. In alle gevallen zal nauwkeurig afgewogen moeten worden welke kenmerken voor welke doeleinden worden gebruikt en hoe zich dat verhoudt tot het toepasselijke wettelijke kader. Dit toetsings- kader biedt handvatten voor het maken van deze afweging. + +## Auteur +Het Mensenrechtelijk Toetsingskader is ontwikkeld door het College voor de Rechten van de Mens. + +## Bijbehorende vereisten + + + +## Bijbehorende maatregelen + + \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/onderzoekskader-ADR.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/onderzoekskader-ADR.md new file mode 100644 index 0000000000..8ab69932cf --- /dev/null +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/onderzoekskader-ADR.md @@ -0,0 +1,74 @@ +--- +title: Onderzoekskader algoritmes Auditdienst Rijk 2023 +toelichting: De Auditdienst Rijk heeft een praktisch onderzoekskader ontwikkeld om de beheersing van algoritmes in kaart te brengen. Het kader geeft inzicht in de risico’s die algoritmes met zich meebrengen en met welke maatregelen deze risico’s beheerst (kunnen) worden. +categorie: +- toetsingskader +vereiste: +- aia-06-technische-documentatie +levenscyclus: +- ontwerp +- implementatie +- monitoring-en-beheer +onderwerp: +- governance +rollen: +- projectleider +- beleid-en-advies +hide: navigation +--- + + + +[Direct naar het Onderzoekskader Algoritmes](https://open.overheid.nl/documenten/61b54381-d331-40ed-8fce-b2883b195f25/file){ .md-button } + +## Hulpmiddel + +Dit onderzoekskader is een instrument om de beheersing van algoritmes in kaart te brengen. +Het geeft inzicht in de risico’s die algoritmes met zich meebrengen en met welke maatregelen deze +risico’s beheerst (kunnen) worden. + +Het onderzoekskader is in eerste instantie bedoeld als instrument voor auditors om de beheersing +en werking van algoritmes binnen overheidsorganisaties te onderzoeken, maar is ook bruikbaar +voor andere partijen om inzicht te krijgen in de huidige en/of gewenste beheersing van algoritme(s). + +Het kader richt zich op algoritmes die binnen overheidsorganisaties gebruikt worden. Het is +ingericht op algoritmes die zelf van voorbeelden leren, zoals machine learning, maar is ook +toepasbaar op regelgebaseerde algoritmes. Het kader is ook bruikbaar voor andere organisaties +en kan bij verschillende fases van de levenscyclus van een algoritme worden ingezet. Mogelijk zijn +niet alle thema’s relevant gezien de context van het algoritme. De opdrachtgever en auditor(s) +dienen daarom voorafgaand aan een onderzoek te analyseren en te bepalen welke thema’s en +onderwerpen worden onderzocht. Het onderzoekskader is ingedeeld in 4 thema’s: + +- Sturing en Verantwoording +- Privacy +- Data en Model +- Informatiebeveiliging + +Ethiek raakt alle thema’s en komt daarom bij elk thema in het kader terug. Elk thema bevat +deelgebieden en de risico’s en beheersmaatregelen die daarbij horen (inclusief de bron). +Ook deze kunnen weer gerelateerd zijn aan een ander thema. Een apart werkbestand voor +auditors is opgesteld wat kan worden gebruikt bij het uitvoeren van een onderzoek. Dit bestand +heeft dezelfde opbouw, maar bevat ook invulvelden om als auditor het risico (kans x impact) in te +schatten en de bevindingen op te nemen. Daarnaast zijn toelichtingen en voorbeelden van checks +en evidence opgenomen per beheersmaatregel. + +## Relevantie +Het onderzoekskader is ontwikkeld met behulp van nationale en internationale richtlijnen en +kaders, rapporten en instrumenten, zoals de [Ethics guidelines for trustworthy AI](https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai) van de Europese +Commissie (EC), [Impact Assessment voor Mensenrechten bij de inzet van Algoritmes (IAMA)](IAMA.md), de +[richtlijnen van het ministerie van JenV](https://open.overheid.nl/documenten/ronl-1411e45f-b822-49fa-9895-2d76e663787b/pdf), het [DPIA](DPIA.md) model Rijksoverheid (gebaseerd op o.a. AVG) en +de Guiding Principles Trustworthy AI Investigations van NOREA (beroepsvereniging IT-auditors +Nederland). De bron van de betreffende risico’s en beheersmaatregelen is tevens opgenomen. + +Dit onderzoekskader is erg overkoepelend (net als het [toetsingskader van de Algemene Rekenkamer](toetsingskader-algemene-rekenkamer.md)). Er zijn dan ook veel maatregelen in het Algoritmekader gebaseerd op maatregelen die in het kader van de ADR staan. [Bekijk alle maatregelen van het Algoritmekader hier](../maatregelen/index.md). + +## Auteur +Het Onderzoekskader Algoritmes is ontwikkeld door de Auditdienst Rijk + +## Bijbehorende vereisten + + + +## Bijbehorende maatregelen + + \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/toetsingskader-Algemene-Rekenkamer.md b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/toetsingskader-Algemene-Rekenkamer.md new file mode 100644 index 0000000000..8e490f9dfe --- /dev/null +++ b/docs/voldoen-aan-wetten-en-regels/hulpmiddelen/toetsingskader-Algemene-Rekenkamer.md @@ -0,0 +1,53 @@ +--- +title: Toetsingskader Algoritmes Algemene Rekenkamer +toelichting: Het toetsingskader voor algoritmes is een praktisch instrument waarmee (overheids)organisaties kunnen toetsen of algoritmes voldoen aan bepaalde kwaliteitscriteria én of de risico’s voldoende in beeld zijn en/of worden beperkt. +categorie: +- toetsingskader +vereiste: +- avg-01-persoonsgegevens-worden-rechtmatig-verwerkt +- avg-02-beperkte-bewaartermijn-van-persoonsgegevens +- avg-13-dpia-verplicht +- avg-09-inroepen-privacyrecht-bij-verwerking-persoonsgegevens +- avg-05-juistheid-en-actualiteit-van-persoonsgegevens +- avg-11-privacy-bij-ontwerp-bij-verwerking-van-persoonsgegevens +- avg-07-transparantie-bij-verwerken-persoonsgegevens +- aia-35-verwerking-in-testomgeving +- bio-01-beveiliging-informatie-en-informatiesystemen +levenscyclus: +- monitoring-en-beheer +- verificatie-en-validatie +onderwerp: +- governance +rollen: +- projectleider +- beleid-en-advies +- jurist +hide: navigation +--- + + + +[Direct naar het Toetsingskader](https://www.rekenkamer.nl/onderwerpen/algoritmes/toetsingskader){ .md-button } +## Hulpmiddel + +Het toetsingskader omvat 5 perspectieven op algoritmes, elk met hun belangrijkste risico's geformuleerd. Het gaat om Sturing en Verantwoordelijkheid, Model en Data, Privacy, IT-beheer en Ethiek. Voor elk risico is er een specifieke onderzoeksvraag opgesteld. Door deze vragen te beantwoorden en een score toe te kennen, krijgt de gebruiker inzicht in hoe goed het gekozen algoritme de risico's beheerst. + +De mate van risico voor een specifiek algoritme wordt bepaald door twee factoren: de gebruikte geavanceerde technieken en de impact van het algoritme op de burger. + +Het toetsingskader is in eerste instantie bedoeld als toetsinstrument voor auditors (controleurs en toezichthouders). Zij kunnen dit kader gebruiken om de risico's van het beoordeelde algoritme in beeld te krijgen. + +## Relevantie +Het digitale toetsingskader 'Aandacht voor algoritmes' is ontwikkeld vanwege de toenemende maatschappelijke aandacht voor algoritmes en de behoefte aan een integraal instrument voor toetsing en analyse. Het is gebaseerd op bestaande informatie en raamwerken, zowel binnen het Rijk als door externe partijen zoals NOREA en grote accountantskantoren. + +Dit onderzoekskader is erg overkoepelend (net als het [onderzoekskader van de ADR](onderzoekskader-adr.md)). Er zijn dan ook veel maatregelen in het Algoritmekader gebaseerd op maatregelen die in het kader van de Algemene Rekenkamer staan. [Bekijk alle maatregelen van het Algoritmekader hier](../maatregelen/index.md). + +## Auteur +Het Toetsingskader Algoritmes is ontwikkeld door de Algemene Rekenkamer + +## Bijbehorende vereisten + + + +## Bijbehorende maatregelen + + \ No newline at end of file diff --git a/docs/voldoen-aan-wetten-en-regels/maatregelen/0-org-02-vastgestelde-beleidskaders.md b/docs/voldoen-aan-wetten-en-regels/maatregelen/0-org-02-vastgestelde-beleidskaders.md index 4a95744249..6fe3bf9154 100644 --- a/docs/voldoen-aan-wetten-en-regels/maatregelen/0-org-02-vastgestelde-beleidskaders.md +++ b/docs/voldoen-aan-wetten-en-regels/maatregelen/0-org-02-vastgestelde-beleidskaders.md @@ -36,7 +36,7 @@ Pas vastgestelde interne beleidskaders toe en maak aantoonbaar dat deze zijn nag - Vraag de [betrokken experts](../voldoen-aan-wetten-en-regels/maatregelen/1-pba-04-betrek-belanghebbenden.md) welke beleidskaders van toepassing zijn vanuit diens specifieke expertise. - Ten behoeve van controles en audits is het van belang dat aantoonbaar wordt gemaakt dat de vastgestelde beleidskaders zijn nageleefd. - ## Bijbehorende vereiste(n) +## Bijbehorende vereiste(n) diff --git a/docs/voldoen-aan-wetten-en-regels/vereisten/avg-13-dpia-verplicht.md b/docs/voldoen-aan-wetten-en-regels/vereisten/avg-13-dpia-verplicht.md index cfdf14e484..4289c7b445 100644 --- a/docs/voldoen-aan-wetten-en-regels/vereisten/avg-13-dpia-verplicht.md +++ b/docs/voldoen-aan-wetten-en-regels/vereisten/avg-13-dpia-verplicht.md @@ -62,3 +62,7 @@ Dit kan leiden tot potentiële schendingen van de rechten en vrijheden van betro ## Maatregelen + +## Hulpmiddelen + + diff --git a/docs/voldoen-aan-wetten-en-regels/vereisten/index.md b/docs/voldoen-aan-wetten-en-regels/vereisten/index.md index 905c87c4a3..b17def4b9b 100644 --- a/docs/voldoen-aan-wetten-en-regels/vereisten/index.md +++ b/docs/voldoen-aan-wetten-en-regels/vereisten/index.md @@ -40,7 +40,7 @@ Deze vereiste geldt alleen voor impactvolle algoritmes en hoog-risico-AI-systeme ## Overzicht vereisten - + ## Help ons deze pagina te verbeteren Deel je idee, suggestie of opmerking via [GitHub](https://github.com/MinBZK/Algoritmekader/edit/main/docs/vereisten/index.md) of mail ons via [algoritmes@minbzk.nl](mailto:algoritmes@minbzk.nl). diff --git a/src/overrides/hooks/lists.py b/src/overrides/hooks/lists.py index 2725168cd3..e6807fbc83 100644 --- a/src/overrides/hooks/lists.py +++ b/src/overrides/hooks/lists.py @@ -60,21 +60,23 @@ def _create_table_row_2(file: File, filter_options: Dict[str, bool], current_fil onderwerpen = file.page.meta.get('onderwerp', []) vereiste = file.page.meta.get('vereiste', []) vereiste_id = file.page.meta.get('id', "")[14:] # remove the first part of the urn + # categorie = file.page.meta.get('categorie', []) rollen_chips = ''.join(_create_chip(rol, 'rol', current_file, config) for rol in rollen) if filter_options.get("rol", True) else "" levenscyclus_chips = ''.join(_create_chip(lc, 'levenscyclus', current_file, config) for lc in levenscyclus) if filter_options.get("levenscyclus", True) else "" onderwerp_chips = ''.join(_create_chip(onderwerp, 'onderwerp', current_file, config) for onderwerp in onderwerpen) if filter_options.get("onderwerp", True) else "" vereiste_chips = ''.join(_create_chip(vereiste, 'vereiste', current_file, config) for vereiste in vereiste) if filter_options.get("vereiste", True) else "" + # categorie_chips = ', '.join(cat for cat in categorie) if filter_options.get("categorie", True) else "" return "".join( [ "", - f'{vereiste_id}', + f'{vereiste_id}' if filter_options.get("id", True) else "", f'{file.page.title}', + # f"{categorie_chips}" if filter_options.get("categorie", True) else "", f"{rollen_chips}" if filter_options.get("rol", True) else "", f"{levenscyclus_chips}" if filter_options.get("levenscyclus", True) else "", f"{onderwerp_chips}" if filter_options.get("onderwerp", True) else "", - f"{vereiste_chips}" if filter_options.get("vereiste", False) else "", "", ] ) @@ -132,19 +134,25 @@ def replace_content(match: Match, content_type: str): filter_tags = split_params[1:] if len(split_params) > 1 else [] type_value_bundle = [y.split("/") for y in filter_criteria.split() if len(y.split("/")) == 2] - + filter_options = { + "id": True, "search": True, "rol": True, "levenscyclus": True, - "onderwerp": True + "onderwerp": True, + # "categorie": False, } - for tag in filter_tags: + for tag in split_params: if tag.startswith("no-"): filter_name = tag[3:] if filter_name in filter_options: filter_options[filter_name] = False + elif tag.startswith("add-"): + filter_name = tag[4:] + if filter_name in filter_options: + filter_options[filter_name] = True list: List[File] = [] for file in files: @@ -169,9 +177,10 @@ def replace_content(match: Match, content_type: str): "", "", "", - '', + '' if filter_options["id"] else '', f'', '' if filter_options["rol"] else '', + # '' if filter_options["categorie"] else '', '' if filter_options["levenscyclus"] else '', '' if filter_options["onderwerp"] else '', "", @@ -215,6 +224,38 @@ def generate_vereisten_for_maatregel(file: File) -> str: return "".join(vereisten_table) + # NEW FUNCTION: To generate the Maatregelen for a specific Hulpmiddel + def generate_maatregelen_for_hulpmiddel(file: File) -> str: + maatregelen = file.page.meta.get("maatregel", []) + if not maatregelen: + return "

Geen maatregelen beschikbaar voor dit hulpmiddel.

" + + maatregelen_table = [ + "
idid{content_type.capitalize()}RollenCategorieLevenscyclusOnderwerpen
", + "", + "", + "", + "", + "", + "", + ] + + for maatregel in maatregelen: + maatregel_file = find_file_by_name(maatregel, "maatregelen", files) + if maatregel_file: + # Retrieve the title from the maatregel file's metadata + maatregel_id = maatregel_file.page.meta.get("id", "")[14:] # remove the first part of the urn + maatregel_title = maatregel_file.page.meta.get("title", maatregel) # Fallback to maatregel name if no title + maatregel_link = posixpath.join(config.site_url or "/", maatregel_file.url) + maatregelen_table.append( + f'') + else: + maatregelen_table.append(f'') # No link if the file is not found + + maatregelen_table.append("
Maatregel
{maatregel_id} - {maatregel_title}
{maatregel}
") + + return "".join(maatregelen_table) + def find_file_by_name(name: str, content_type: str, files: Files) -> File: for file in files: @@ -229,13 +270,23 @@ def replace_vereisten_content(file: File): lambda match: generate_vereisten_for_maatregel(file), file.page.content ) + + def replace_maatregelen_content(file: File): + file.page.content = re.sub( + r"", + lambda match: generate_maatregelen_for_hulpmiddel(file), + file.page.content + ) for file in files: if not file.src_path.endswith(".md"): continue - if "maatregelen" in file.src_path: + if "maatregelen" in file.src_path or "hulpmiddelen" in file.src_path: replace_vereisten_content(file) + + if "hulpmiddelen" in file.src_path: + replace_maatregelen_content(file) # Replacing for existing placeholders file.page.content = re.sub(