Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Release v2.0/controleren vereisten #479

Merged
merged 21 commits into from
Dec 17, 2024
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
Show all changes
21 commits
Select commit Hold shift + click to select a range
236038c
Update aia-01-ai-geletterdheid.md
BartdeVisser Nov 26, 2024
ece1719
Update aia-01-ai-geletterdheid.md
BartdeVisser Nov 26, 2024
b254518
Create aia-04-testen.md
BartdeVisser Dec 16, 2024
4ef49d9
Update aia-04-testen.md
BartdeVisser Dec 16, 2024
b92da91
Update and rename aia-04-testen.md to aia-39-testen.md
BartdeVisser Dec 16, 2024
2e190a2
Update aia-39-testen.md
BartdeVisser Dec 16, 2024
28f1efa
Update aia-39-testen.md
BartdeVisser Dec 16, 2024
e353050
Update aia-39-testen.md
BartdeVisser Dec 16, 2024
6d60a03
Update aia-39-testen.md
BartdeVisser Dec 16, 2024
554309f
Update aia-39-testen.md
BartdeVisser Dec 16, 2024
febc9da
Update aia-01-ai-geletterdheid.md
BartdeVisser Dec 16, 2024
7afd92f
Update aia-02-documentatie-beoordeling-niet-hoog-risico-ai.md
BartdeVisser Dec 16, 2024
5b7b5aa
Update aia-02-documentatie-beoordeling-niet-hoog-risico-ai.md
BartdeVisser Dec 16, 2024
8484d31
Update aia-03-risicobeheersysteem.md
BartdeVisser Dec 16, 2024
be8bf1f
Update aia-03-risicobeheersysteem.md
BartdeVisser Dec 16, 2024
c36dfa8
Update aia-03-risicobeheersysteem.md
BartdeVisser Dec 16, 2024
6679600
Update aia-04-risicobeoordeling-voor-jongeren-en-kwetsbaren.md
BartdeVisser Dec 16, 2024
5937c22
Update aia-05-data-kwaliteitscriteria.md
BartdeVisser Dec 16, 2024
f0114d2
Merge branch 'main' into release-v2.0/controleren_vereisten
noutvandeijck Dec 17, 2024
372106f
Update docs/voldoen-aan-wetten-en-regels/vereisten/aia-39-testen.md
noutvandeijck Dec 17, 2024
4ec4c26
Apply suggestions from code review
noutvandeijck Dec 17, 2024
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
Original file line number Diff line number Diff line change
@@ -1,7 +1,8 @@
---
title: Personeel en gebruikers zijn voldoende AI-geletterd
title: Personeel en gebruikers zijn voldoende AI-geletterd.
id: urn:nl:ak:ver:aia-01
toelichting: Aanbieders en gebruiksverantwoordelijken van AI-systemen moeten ervoor zorgen dat hun personeel en andere betrokkenen voldoende kennis hebben van AI. Dit omvat het bevorderen van kennis over de techniek, evenals kennis over de context waarin de AI-systemen worden gebruikt en de gebruikers van deze systemen. Het doel is om een adequaat niveau van begrip en vaardigheden te waarborgen, wat bijdraagt aan een verantwoord gebruik van AI en het minimaliseren van risico's.
toelichting: Aanbieders en gebruiksverantwoordelijken van AI-systemen moeten ervoor zorgen dat hun personeel en andere betrokkenen voldoende kennis hebben van AI.

levenscyclus:
- organisatieverantwoordelijkheden
onderwerp:
Expand All @@ -28,15 +29,20 @@ rollen:

## Vereiste

Aanbieders en gebruiksverantwoordelijken van AI-systemen nemen maatregelen om, zoveel als mogelijk, te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel en andere personen die namens hen AI-systemen exploiteren en gebruiken, en houden daarbij rekening met hun technische kennis, ervaring, onderwijs en opleiding en de context waarin de AI-systemen zullen worden gebruikt, evenals met de personen of groepen personen ten aanzien van wie de AI-systemen zullen worden gebruikt.
Personeel en gebruikers zijn voldoende AI-geletterd.

## Toelichting

Aanbieders en gebruiksverantwoordelijken van AI-systemen nemen maatregelen om ervoor te zorgen dat hun personeel en andere betrokkenen voldoende kennis hebben van AI.
Dit omvat het bevorderen van kennis over de techniek, evenals kennis over de context waarin de AI-systemen worden gebruikt en de gebruikers van deze systemen.
Daarnaast moet er worden ingezet op het delen van ervaringen, passend onderwijs en opleiding van inidividuen.
Aanbieders en gebruiksverantwoordelijken van AI-systemen nemen maatregelen om, zoveel als mogelijk, te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel en andere personen die namens hen AI-systemen exploiteren en gebruiken.

Zij houden daarbij rekening met hun technische kennis, ervaring, onderwijs en opleiding en de context waarin de AI-systemen zullen worden gebruikt, evenals met de personen of groepen personen ten aanzien van wie de AI-systemen zullen worden gebruikt.

De AI-kennisplicht betekent bijvoorbeeld dat een HR-medewerker moet begrijpen dat een AI-systeem vooroordelen kan bevatten of essentiële informatie kan negeren, waardoor een sollicitant onterecht wel of juist niet wordt voorgedragen. En een baliemedewerker bij een gemeente die een AI-systemen gebruikt om de burgers te helpen, moet beseffen dat deze systemen vaak niet even goed werken voor iedereen. En dat diegene de uitkomsten van dit soort AI-systemen niet blindelings kan volgen.

Het doel is om een adequaat niveau van begrip en vaardigheden te waarborgen, wat bijdraagt aan een verantwoord gebruik van AI en het minimaliseren van risico's.

Vanaf februari 2025 treedt deze vereiste in werking.

## Bronnen

[Artikel 4 Verordening Artificiële Intelligentie](https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1)
Expand All @@ -47,6 +53,7 @@ Het doel is om een adequaat niveau van begrip en vaardigheden te waarborgen, wat
## Risico

Onvoldoende AI-geletterdheid kan leiden tot misbruik of onjuist gebruik van AI-systemen en tot situaties waarin AI-systemen verkeerd worden ingezet, onbedoeld gebruikt worden voor taken waar ze niet geschikt voor zijn, of dat de veiligheid en effectiviteit van de systemen in het gedrang komt.

Dit kan leiden tot inefficiëntie, fouten, en mogelijk schade aan organisaties, gebruikers of betrokkenen.

## Maatregelen { data-search-exclude }
Expand Down
Original file line number Diff line number Diff line change
@@ -1,7 +1,7 @@
---
title: Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd
title: Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd.
id: urn:nl:ak:ver:aia-02
toelichting: Een aanbieder die van mening is dat een in bijlage III bedoeld AI-systeem geen hoog risico inhoudt, documenteert zijn beoordeling voordat dat systeem in de handel wordt gebracht of in gebruik wordt gesteld. Die aanbieder is onderworpen aan de registratieverplichting van artikel 49, lid 2 AI-verordening. Op verzoek van de nationale bevoegde autoriteiten verstrekt de aanbieder de documentatie van de beoordeling.
toelichting: Een aanbieder die van mening is dat er geen sprake is van een in bijlage III bedoeld AI-systeem, documenteert zijn beoordeling voordat dat systeem in de handel wordt gebracht of in gebruik wordt gesteld. Die aanbieder is onderworpen aan de registratieverplichting van artikel 49, lid 2 AI-verordening. Op verzoek van de nationale bevoegde autoriteiten verstrekt de aanbieder de documentatie van de beoordeling.
levenscyclus:
- ontwerp
onderwerp:
Expand All @@ -22,15 +22,15 @@ rollen:

<!-- tags -->
## Vereiste
Een aanbieder die van mening is dat een in bijlage III bedoeld AI-systeem geen hoog risico inhoudt, documenteert zijn beoordeling voordat dat systeem in de handel wordt gebracht of in gebruik wordt gesteld.
Die aanbieder is onderworpen aan de registratieverplichting van artikel 49, lid 2 AI-verordening.
Op verzoek van de nationale bevoegde autoriteiten verstrekt de aanbieder de documentatie van de beoordeling.
Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd.

## Toelichting
Een aanbieder die van mening is dat er geen sprake is van een in bijlage III bedoeld AI-systeem, documenteert zijn beoordeling voordat dat systeem in de handel wordt gebracht of in gebruik wordt gesteld.

Die aanbieder is onderworpen aan de registratieverplichting van artikel 49, lid 2 AI-verordening. Op verzoek van de nationale bevoegde autoriteiten verstrekt de aanbieder de documentatie van de beoordeling.

Een aanbieder die oordeelt dat een AI-systeem niet valt onder hoog-risico zoals gefedinieerd in bijlage III van de AI-verordening, documenteert deze beoordeling voorafgaand aan het in de handel brengen of in gebruik nemen van het systeem.
Op verzoek van de nationale autoriteiten verstrekt de aanbieder de documentatie van de beoordeling.
De aanbieder of in voorkomend geval de gemachtigd registreert zichzelf en het betreffende AI-systeem in de EU-databank (artikel 71 AI-verordening).

AI-systemen met een hoog risico als bedoeld in punt 2 van bijlage III (kritieke infrastructuur) worden op nationaal niveau geregistreerd.

## Bronnen
Expand All @@ -45,7 +45,7 @@ AI-systemen met een hoog risico als bedoeld in punt 2 van bijlage III (kritieke

## Risico

Gebrek aan transparantie en verantwoording bij risicobeoordeling kan leiden tot onrechtmatig in de markt brengen en onrechtmatig gebruik van risicovolle AI-systemen.
Gebrek aan transparantie en verantwoording bij risicobeoordeling kan leiden tot onrechtmatig in de markt brengen en onrechtmatig gebruik van (risicovolle) AI-systemen.


## Maatregelen { data-search-exclude }
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -26,16 +26,17 @@ Voor AI-systemen met een hoog risico wordt een systeem voor risicobeheer vastges

## Toelichting

Het systeem voor risicobeheer moet bestaan uit een tijdens de gehele levensduur van een AI-systeem met een hoog risico doorlopend en gepland iteratief proces.
Dit proces moet gericht zijn op het vaststellen en beperken van de relevante risico’s van AI-systemen voor de gezondheid, veiligheid en grondrechten.
Het systeem voor risicobeheer moet periodiek worden geëvalueerd en geactualiseerd om de blijvende doeltreffendheid ervan te waarborgen, alsook de motivering en de documentatie van eventuele significante besluiten en maatregelen die op grond van de AI-verordening zijn genomen.
Het systeem voor risicobeheer moet bestaan uit een gepland iteratief proces, dat tijdens de [gehele levensduur](levenscyclus/index.md) van een hoog-risico AI-systeem wordt doorlopen. Een organisatie moet ervoor zorgen dat een risicobeheersysteem wordt ingericht in de organisatie.

Het risicobeheersysteem moet gericht zijn op het vaststellen en beperken van de relevante risico’s van AI-systemen voor de gezondheid, veiligheid en grondrechten met passende maatregelen.

Het systeem voor risicobeheer moet periodiek worden geëvalueerd en geactualiseerd om de blijvende doeltreffendheid ervan te waarborgen, alsook de motivering en de documentatie van eventuele significante besluiten en maatregelen die op grond van de AI-verordening zijn genomen.

Dit proces moet ervoor zorgen dat de aanbieder de risico’s of negatieve effecten vaststelt en risicobeperkende maatregelen uitvoert voor de bekende en de redelijkerwijs te voorziene risico’s van AI-systemen voor de gezondheid, veiligheid en grondrechten.
Hierin moeten ook maatregelen zitten voor redelijkerwijs te voorzien misbruik, met inbegrip van de mogelijke risico’s die voortvloeien uit de wisselwerking tussen het AI-systeem en de omgeving waarin het werkt.
Het systeem voor risicobeheer moet de passendste risicobeheersmaatregelen vaststellen.
Bij het vaststellen van de passendste risicobeheersmaatregelen moet de aanbieder de gemaakte keuzes documenteren en toelichten en, in voorkomend geval, deskundigen en externe belanghebbenden betrekken.
Bij het vaststellen van het redelijkerwijs te voorzien misbruik van AI-systemen met een hoog risico moet de aanbieder aandacht hebben voor het gebruik van AI-systemen waarvan, hoewel zij niet rechtstreeks onder het beoogde doel vallen en niet in de gebruiksinstructies worden vermeld, mag worden verwacht dat zij kunnen voortvloeien uit gemakkelijk voorspelbaar menselijk gedrag.

Hierin moeten ook maatregelen zitten voor redelijkerwijs te voorzien misbruik, met inbegrip van de mogelijke risico’s die voortvloeien uit de wisselwerking tussen het AI-systeem en de omgeving waarin het werkt. De aanbieder moet aandacht hebben voor het gebruik van AI-systemen waarvan, hoewel zij niet rechtstreeks onder het beoogde doel vallen en niet in de gebruiksinstructies worden vermeld, mag worden verwacht dat zij kunnen voortvloeien uit gemakkelijk voorspelbaar menselijk gedrag.

Bij het vaststellen van passende risicobeheersmaatregelen moet de aanbieder de gemaakte keuzes hebben gedocumenteerd en voorzien van een toelichting en, in voorkomend geval, deskundigen en externe belanghebbenden hierbij betrekken.

## Bronnen
[Artikel 9(1) Verordening Artificiële Intelligentie](https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3241-1-1)
Expand All @@ -49,5 +50,6 @@ Het ontbreken van risicobeheer kan leiden tot schade aan gebruikers of derden en


## Maatregelen { data-search-exclude }


<!-- list_maatregelen vereiste/aia-03-risicobeheersysteem no-search no-onderwerp no-rol no-levenscyclus -->
Original file line number Diff line number Diff line change
@@ -1,7 +1,7 @@
---
title: Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen
title: Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen.
id: urn:nl:ak:ver:aia-04
toelichting: Bij het doorlopen, periodieke systematische toetsing en actualisatie van het risicosysteem nemen aanbieders in overweging of het beoogde doel van het AI-systeem negatieve effecten zal hebben op personen jonger dan 18 jaar of andere kwetsbare groepen.
toelichting: Bij het doorlopen, het periodieke systematische toetsen en actualiseren van het risicosysteem nemen aanbieders in overweging of het beoogde doel van het AI-systeem negatieve effecten zal hebben op personen jonger dan 18 jaar of andere kwetsbare groepen.
levenscyclus:
- ontwerp
- monitoring-en-beheer
Expand All @@ -23,13 +23,16 @@ hide:
---

<!-- tags -->

## Vereiste

Bij het doorlopen, periodieke systematische toetsing en actualisatie van het risicosysteem nemen aanbieders in overweging of het beoogde doel van het AI-systeem negatieve effecten zal hebben op personen jonger dan 18 jaar of andere kwetsbare groepen.
Bij het doorlopen, het periodieke systematische toetsen en actualiseren van het risicosysteem nemen aanbieders in overweging of het beoogde doel van het AI-systeem negatieve effecten zal hebben op personen jonger dan 18 jaar of andere kwetsbare groepen.

## Toelichting

Bij de uitvoering van het in de leden 1 tot en met 7 van art. 9 AI-Verordening bedoelde systeem voor risicobeheer houden aanbieders rekening met de vraag of het beoogde doel van het AI-systeem met een hoog risico waarschijnlijk negatieve gevolgen zal hebben voor personen jonger dan 18 jaar en, in voorkomend geval, voor andere groepen kwetsbare personen. Er moet een grondige risicoanalyse plaatsvinden en worden vertaald naar mitigerende maatregelen om het risico te elimineren of te mitigeren.
Bij de uitvoering van het in de leden 1 tot en met 7 van art. 9 AI-Verordening bedoelde systeem voor risicobeheer houden aanbieders rekening met de vraag of het beoogde doel van het AI-systeem met een hoog risico waarschijnlijk negatieve gevolgen zal hebben voor personen jonger dan 18 jaar en, in voorkomend geval, voor andere groepen kwetsbare personen.

Er moet een grondige risicoanalyse plaatsvinden en worden vertaald naar mitigerende maatregelen om het risico te elimineren of te mitigeren.

## Bronnen

Expand Down
Original file line number Diff line number Diff line change
@@ -1,7 +1,8 @@
---
title: Datasets voor hoog-risico-AI-systemen voldoen aan kwaliteitscriteria
id: urn:nl:ak:ver:aia-05
toelichting: AI-systemen met een hoog risico die data gebruiken voor het trainen van AI-modellen, moeten gebaseerd zijn op datasets die voldoen aan specifieke kwaliteitscriteria. Deze criteria zorgen ervoor dat de data geschikt zijn voor training, validatie en tests, wat de betrouwbaarheid en nauwkeurigheid van het AI-systeem waarborgt. De kwaliteitscriteria is te vinden in leden 2 t/m 5 van artikel 10 van de AI-verordening. Bijvoorbeeld datasets moeten aan praktijken voor databeheer voldoen en moeten relevant, representatief, accuraat en volledig zijn.
toelichting: AI-systemen met een hoog risico die data gebruiken voor het trainen van AI-modellen, moeten gebaseerd zijn op datasets die voldoen aan specifieke kwaliteitscriteria.

levenscyclus:
- dataverkenning-en-datapreparatie
- verificatie-en-validatie
Expand Down Expand Up @@ -29,8 +30,9 @@ AI-systemen met een hoog risico die technieken gebruiken die het trainen van AI-

## Toelichting

AI-systemen met een hoog risico die data gebruiken voor het trainen van AI-modellen, moeten gebaseerd zijn op datasets die voldoen aan specifieke kwaliteitscriteria.
Deze criteria zorgen ervoor dat de data geschikt zijn voor training, validatie en tests, wat de betrouwbaarheid en nauwkeurigheid van het AI-systeem waarborgt.
AI-systemen met een hoog risico die data gebruiken voor het trainen van AI-modellen, moeten gebaseerd zijn op datasets die voldoen aan specifieke [kwaliteitscriteria](3-dat-01-datakwaliteit.md).

Deze criteria zorgen ervoor dat de data geschikt zijn voor [training, validatie en tests](3-dat-07-training-validatie-en-testdata.md), wat de betrouwbaarheid en nauwkeurigheid van het AI-systeem waarborgt. De kwaliteitscriteria zijn te vinden in leden 2 t/m 5 van artikel 10 van de AI-verordening. Bijvoorbeeld datasets moeten aan praktijken voor databeheer voldoen en moeten relevant, representatief, accuraat en volledig zijn.

Deze vereiste houdt in dat de gebruikte datasets onder meer moeten voldoen aan:

Expand Down
Loading
Loading