Skip to content

Commit

Permalink
Release v2.1 diverse aanpassingen webredactie (#606)
Browse files Browse the repository at this point in the history
Co-authored-by: Nout van Deijck <168716911+noutvandeijck@users.noreply.github.com>
  • Loading branch information
1 parent 7bd0c6f commit 477d3dc
Show file tree
Hide file tree
Showing 8 changed files with 37 additions and 29 deletions.
2 changes: 1 addition & 1 deletion docs/levenscyclus/index.md
Original file line number Diff line number Diff line change
@@ -1,5 +1,5 @@
---
title: Levenscyclus
title: Levenscyclus algoritmes en AI
summary: Hulp per fase van de levenscyclus van algoritmes, zoals probleemanalyse, ontwerpen, ontwikkelen, implementeren en ermee stoppen.
hide:
- toc
Expand Down
6 changes: 3 additions & 3 deletions docs/onderwerpen/bias-en-non-discriminatie.md
Original file line number Diff line number Diff line change
Expand Up @@ -26,7 +26,7 @@ Zo’n discriminerend effect ontstaat doordat het algoritme een verboden ondersc
### Uitzondering
Een direct of indirect onderscheid is niet altijd verboden volgens [Artikel 2 Algemene wet gelijke behandeling](https://wetten.overheid.nl/jci1.3:c:BWBR0006502&hoofdstuk=1&paragraaf=1&artikel=1&z=2020-01-01&g=2020-01-01). In bepaalde situaties en onder bepaalde strenge voorwaarden mag je zo’n onderscheid wel maken.

Direct onderscheid maken mag bijvoorbeeld als hiervoor een uitzondering staat in de wet. Zo mag je bijvoorbeeld in situaties waar het gaat om moederschap of zwangerschap onderscheid maken op basis van geslacht.
Direct onderscheid maken mag bijvoorbeeld als hiervoor een uitzondering staat in de wet. Zo mag je in situaties waar het gaat om moederschap of zwangerschap onderscheid maken op basis van geslacht.

Indirect onderscheid maken mag niet, tenzij hiervoor een wettelijke uitzondering geldt. Of je hebt een goede reden (objectieve rechtvaardiging). Selecteert je algoritme bijvoorbeeld alleen vrouwen voor een vacature, dan moet je hier een objectieve rechtvaardiging voor hebben. En het algoritme moet passend en noodzakelijk zijn om een doel te bereiken dat wettelijk is toegestaan. Anders is het discriminatie.

Expand All @@ -38,7 +38,7 @@ Het is erg moeilijk om discriminerende effecten te voorkomen. Discriminatiegrond
## Herken bias
Bias herkennen is een belangrijke stap in het voorkomen van discriminerende effecten van algoritmes.

'Bias' is een Engels woord voor vooroordeel of vooringenomenheid. Algoritmes met een bias maken steeds een bepaald soort fout. Volgens de norm [ISO/IEC TR 24027](https://www.nen.nl/iso-iec-tr-24027-2021-en-289193) bevat een algoritme bias wanneer ze bepaalde mensen, groepen of producten steeds (systematisch) op een verschillende manier. Dit verhoogt de kans op discriminatie.
'Bias' is een Engels woord voor vooroordeel of vooringenomenheid. Algoritmes met een bias maken steeds een bepaald soort fout. Volgens de norm [ISO/IEC TR 24027](https://www.nen.nl/iso-iec-tr-24027-2021-en-289193) bevat een algoritme bias wanneer het bepaalde mensen, groepen of producten steeds (systematisch) op een verschillende manier behandelt. Dit verhoogt de kans op discriminatie.

Alle algoritmes hebben vooroordelen en maken fouten, net als de mens. Wil je dit aanpakken, zoek dan naar bias in het algoritme zelf en in de mensen en processen om het algoritme heen. Een bias-vrij algoritme is niet mogelijk.

Expand Down Expand Up @@ -152,7 +152,7 @@ Ontdek je bias, dan wil je je algoritme of je aanpak verbeteren. Hoe je dat doet
## Let altijd op discriminerende effecten
Het risico op bias en discriminatie blijft altijd bestaan. Je kunt dit niet in 1 keer wegnemen.

Houd daarom rekening met bias tijdens het ontwikkelen, inkopen en gebruiken van algoritmes. En controleer voortdurend of je algoritmes en je aanpak nog eerlijk en rechtvaardig zijn. Let hierop in alle fasen van de levenscyclus van het algoritme.
Houd daarom rekening met bias tijdens het ontwikkelen, inkopen en gebruiken van algoritmes. En controleer voortdurend of je algoritmes en je aanpak nog eerlijk en rechtvaardig zijn. Let hierop in alle fasen van de [levenscyclus](../levenscyclus/index.md) van het algoritme.

## Vereisten { data-search-exclude }

Expand Down
18 changes: 9 additions & 9 deletions docs/onderwerpen/index.md
Original file line number Diff line number Diff line change
Expand Up @@ -10,49 +10,49 @@ hide:

<div class="grid cards" markdown>

- [Bias en non-discriminatie](bias-en-non-discriminatie.md)
- [Discriminerende effecten van algoritmes](bias-en-non-discriminatie.md)

---

Hulp bij het voorkomen van bias en discriminatie in algoritmes. Met aanbevelingen en hulpmiddelen zoals het toetsingskader van het College voor de Rechten van de Mens.

- [Data](data.md)
- [Verantwoord datagebruik](data.md)

---

Hulp bij het verantwoord selecteren en verwerken van data voor je algoritmes. Gebruik bijvoorbeeld de toolbox verantwoord datagebruik.

- [Duurzaamheid](duurzaamheid.md)
- [Duurzaam werken met algoritmes](duurzaamheid.md)

---

Hulp bij het maken van duurzame keuzes voor hardware en software. Bijvoorbeeld voor de aanschaf van apparaten of het energieverbruik van trainen en data-opslag.

- [Governance](governance.md)
- [Governance van algoritmes binnen je organisatie](governance.md)

---

Hulp bij het verantwoordelijk omgaan met algoritmes. Bijvoorbeeld het vastleggen van rollen en verantwoordelijkheden.

- [Grondrechten](fundamentele-rechten.md)
- [Grondrechten beschermen in algoritmes](fundamentele-rechten.md)

---

Hulp bij het beschermen van grondrechten en mensenrechten in algoritmes. Bijvoorbeeld het beoordelen van de gevolgen per grondrecht.

- [Menselijke controle](menselijke-controle.md)
- [Menselijke controle over algoritmes](menselijke-controle.md)

---

Hulp bij de controle als mens over algoritmes. Bijvoorbeeld kunnen ingrijpen bij onbetrouwbare resultaten.

- [Privacy en gegevensbescherming](privacy-en-gegevensbescherming.md)
- [Privacy en persoonsgegevens beschermen in algoritmes](privacy-en-gegevensbescherming.md)

---

Hulp bij verantwoord gebruik van gegevens voor algoritmes, zoals persoonsgegevens en privacygevoelige gegevens.

- [Publieke inkoop](publieke-inkoop.md)
- [Inkoop van verantwoorde algoritmes](publieke-inkoop.md)

---

Expand All @@ -64,7 +64,7 @@ hide:

Hulp bij het bewaken van de prestaties van algoritmes. En beveiliging van de systemen tegen bijvoorbeeld cyberaanvallen.

- [Transparantie](transparantie.md)
- [Transparant zijn over algoritmes](transparantie.md)

---

Expand Down
2 changes: 1 addition & 1 deletion docs/onderwerpen/privacy-en-gegevensbescherming.md
Original file line number Diff line number Diff line change
@@ -1,5 +1,5 @@
---
title: Privacy en gegevensbescherming
title: Privacy en persoonsgegevens beschermen in algoritmes
hide:
- path
---
Expand Down
4 changes: 2 additions & 2 deletions docs/voldoen-aan-wetten-en-regels/ai-verordening.md
Original file line number Diff line number Diff line change
Expand Up @@ -106,8 +106,8 @@ In de [tijdlijn AI-verordening](tijdlijn-ai-verordening.md) vind je alle vereist
## Toezicht en implementatie

* Nationale toezichthouders: houden toezicht op de meeste bepalingen en kunnen straffen opleggen (nog in oprichting in Nederland)
* AI-bureau: houdt toezicht op de bepalingen voor modellen voor algemene doeleinden
* AI-board: Europese raad voor artificiële intelligentie
* [AI-bureau](https://digital-strategy.ec.europa.eu/nl/policies/ai-office): houdt toezicht op de bepalingen voor modellen voor algemene doeleinden
* [AI-board](https://digital-strategy.ec.europa.eu/en/policies/ai-board)): Europese raad voor artificiële intelligentie
* Wetenschappelijk panel: advies van wetenschappers
* Adviesforum: advies van belanghebbenden

Expand Down
4 changes: 2 additions & 2 deletions docs/voldoen-aan-wetten-en-regels/index.md
Original file line number Diff line number Diff line change
@@ -1,5 +1,5 @@
---
title: Algoritmekader
title: Voldoen aan wetten en regels
summary: In het Algoritmekader staan alle regels, tips en hulpmiddelen voor verantwoord gebruik van algoritmes en AI door de overheid.
hide:
- toc
Expand All @@ -23,7 +23,7 @@ hide:

Maatregelen waarmee je kunt voldoen aan de vereisten voor overheden. Deze maatregelen zijn niet verplicht.

- [__Aanbevolen hulpmiddelen__](hulpmiddelen/index.md)
- [__Hulpmiddelen__](hulpmiddelen/index.md)

---

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -37,10 +37,21 @@ Richt algoritmegovernance in op basis van de risicoclassificatie van algoritmes.

## Voorbeelden

!!! example "Rijksoverheid: Gids AI-verordening"

De Rijksoverheid heeft een gids opgesteld over de AI-verordening. Hierin worden 4 stappen toegelicht: Risico, AI, Rol en Verplichtingen. Om te identificeren welke AI-systemen of algoritmes hoog-risico zijn, is het aan te raden om deze gids te bekijken. Meer informatie over de AI-verordening is ook te vinden op ["AI-verordening in het kort"](../ai-verordening.md)
Naast de classificatie vermeldt deze gids vanaf pagina 11 aan welke verplichtingen een aanbieder en gebruiksverantwoordelijke moeten voldoen voor hoog-risico-AI, AI voor algemene doeleinden, generatieve AI en chatbots, maar niet voor overige AI.
Bron: [Gids AI-verordening](https://www.rijksoverheid.nl/documenten/brochures/2024/10/16/gids-ai-verordening)

Wil je meer hulp bij het vinden van de regels die specifiek voor jou gelden, gebruik dan ook de [Beslishulp AI-Verordening](https://ai-verordening-beslishulp.apps.digilab.network/).


!!! example "Gemeente Rotterdam: Processchema governance"

Hieronder staat een schematische weergave van hoe de gemeente Rotterdam algoritme governance toepast. Zij kiezen ervoor om dit alleen toe te passen op hoog-risico AI volgens de definitie van de AI-Verordening. Voor laag-risico toepassingen gebruiken ze hun standaard governanceprotocol (zie figuur hieronder).
Ongeacht het risico wordt er ook een drietal vragen gesteld, waarbij verdere instrumenten ingezet moeten worden als alle vragen met "Ja" beantwoord worden:

* Is de werking van het algoritme niet volledig én beknopt uit te leggen aan een gemiddelde Rotterdammer?
* Ontbreekt er een menselijke beoordeling voordat de uitkomst van het algoritme in de praktijk wordt gebracht door middel van een concrete handeling van de gemeente?
* Is het voorstelbaar dat de algoritmetoepassing uitmondt in een onrechtvaardige handeling van de gemeente tegen burgers of bedrijven?
Expand Down
19 changes: 8 additions & 11 deletions docs/voldoen-aan-wetten-en-regels/maatregelen/index.md
Original file line number Diff line number Diff line change
@@ -1,12 +1,12 @@
---
title: Maatregelen
title: Aanbevolen maatregelen
hide:
- navigation
- toc
---

# Maatregelen
Overzicht van aanbevolen maatregelen voor verantwoord gebruik van algoritmes en AI-systemen. Het zijn adviezen om te voldoen aan de vereisten voor overheden. Andere maatregelen zijn ook mogelijk.
# Aanbevolen maatregelen
Overzicht van maatregelen waarmee je kunt voldoen aan de vereisten voor de overheid. Deze maatregelen zijn niet verplicht. Andere maatregelen zijn ook mogelijk.

## Overzicht maatregelen { data-search-exclude }

Expand All @@ -25,15 +25,12 @@ De maatregelen zijn niet verplicht. Het zijn adviezen uit:
Deze maatregel helpt om te voldoen aan de vereiste om niet te discrimineren. Maar deze maatregel is niet verplicht. Je organisatie mag ook eigen maatregelen nemen. Zolang je uiteindelijk maar voldoet aan de vereiste.

!!! tip "Tip"
## Aantal maatregelen verschilt per situatie
Welke maatregelen handig zijn in jouw situatie, hangt af van:

**Aantal maatregelen verschilt per situatie**

Welke maatregelen handig zijn in jouw situatie, hangt af van:

- de [fase in de levenscyclus](https://minbzk.github.io/Algoritmekader/levenscyclus/) van je project
- de [vereisten](https://minbzk.github.io/Algoritmekader/vereisten/) waar jouw organisatie aan moet voldoen
- jouw [rol](https://minbzk.github.io/Algoritmekader/rollen/) in de organisatie
- de [fase in de levenscyclus](../../levenscyclus/) van je project
- de [vereisten](../../vereisten/) waar jouw organisatie aan moet voldoen
- jouw [rol](../../rollen/) in de organisatie

!!! tip "Tip"

Expand Down

0 comments on commit 477d3dc

Please sign in to comment.