From 70c913ed552f7ae4d0b8b4ed71d5e8c778aced4d Mon Sep 17 00:00:00 2001 From: noutvandeijck Date: Tue, 17 Dec 2024 12:36:43 +0000 Subject: [PATCH] =?UTF-8?q?Deploy=20preview=20for=20PR=20478=20?= =?UTF-8?q?=F0=9F=9B=AB?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- .../index.html | 2 +- .../levenscyclus/implementatie/index.html | 2 +- .../monitoring-en-beheer/index.html | 2 +- .../pr-478/levenscyclus/ontwerp/index.html | 2 +- .../levenscyclus/ontwikkelen/index.html | 2 +- .../index.html | 2 +- .../pr-478/levenscyclus/uitfaseren/index.html | 2 +- .../verificatie-en-validatie/index.html | 2 +- .../bias-en-non-discriminatie/index.html | 2 +- .../fundamentele-rechten/index.html | 2 +- .../pr-478/onderwerpen/governance/index.html | 2 +- .../menselijke-controle/index.html | 2 +- .../privacy-en-gegevensbescherming/index.html | 162 ++- .../index.html | 2 +- .../onderwerpen/transparantie/index.html | 2 +- .../pr-478/rollen/beleid-en-advies/index.html | 2 +- pr-preview/pr-478/rollen/jurist/index.html | 2 +- .../pr-478/rollen/ontwikkelaar/index.html | 2 +- .../pr-478/rollen/projectleider/index.html | 2 +- pr-preview/pr-478/search/search_index.json | 2 +- pr-preview/pr-478/sitemap.xml | 4 + pr-preview/pr-478/sitemap.xml.gz | Bin 3185 -> 3191 bytes pr-preview/pr-478/version/index.html | 2 +- .../hulpmiddelen/ALTAI/index.html | 2 +- .../hulpmiddelen/BIO/index.html | 2 +- .../hulpmiddelen/fairness-handbook/index.html | 2 +- .../index.html | 2 +- .../handreiking-non-discriminatie/index.html | 2 +- .../onderzoekskader-adr/index.html | 2 +- .../index.html | 2 +- .../2-owp-04-gebruikte-techniek/index.html | 2 +- .../2-owp-05-soort-algoritme/index.html | 2 +- .../2-owp-07-kwetsbare-groepen/index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 12 +- .../index.html | 2 +- .../4-owk-01-security-by-design/index.html | 2 +- .../4-owk-02-stopzetten-gebruik/index.html | 2 +- .../maatregelen/4-owk-04-logging/index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../6-imp-02-aselecte-steekproeven/index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../7-mon-02-beveiliging-algoritme/index.html | 2 +- .../index.html | 2 +- .../index.html | 2 +- .../aia-01-ai-geletterdheid/index.html | 23 +- .../index.html | 22 +- .../aia-03-risicobeheersysteem/index.html | 16 +- .../index.html | 13 +- .../aia-05-data-kwaliteitscriteria/index.html | 6 +- .../aia-06-technische-documentatie/index.html | 22 +- .../index.html | 24 +- .../index.html | 17 +- .../aia-09-menselijk-toezicht/index.html | 13 +- .../index.html | 29 +- .../index.html | 17 +- .../index.html | 16 +- .../index.html | 15 +- .../index.html | 8 +- .../index.html | 16 +- .../vereisten/aia-16-ce-markering/index.html | 20 +- .../index.html | 17 +- .../index.html | 17 +- .../aia-19-toegankelijkheidseisen/index.html | 19 +- .../index.html | 2 +- .../vereisten/aia-39-testen/index.html | 1024 +++++++++++++++++ .../vereisten/arc-01-archiefwet/index.html | 2 +- .../vereisten/index.html | 133 ++- 85 files changed, 1488 insertions(+), 297 deletions(-) create mode 100644 pr-preview/pr-478/voldoen-aan-wetten-en-regels/vereisten/aia-39-testen/index.html diff --git a/pr-preview/pr-478/levenscyclus/dataverkenning-en-datapreparatie/index.html b/pr-preview/pr-478/levenscyclus/dataverkenning-en-datapreparatie/index.html index e69abd1c50..72c1979375 100644 --- a/pr-preview/pr-478/levenscyclus/dataverkenning-en-datapreparatie/index.html +++ b/pr-preview/pr-478/levenscyclus/dataverkenning-en-datapreparatie/index.html @@ -1117,7 +1117,7 @@

Fase 3: Dataverkenning en datap In de praktijk zal bijvoorbeeld het analyseren van de data niet stoppen na deze fase, maar terugkerend zijn in alle fasen die volgen. Als de verzamelde data van voldoende kwaliteit is en de vereiste maatregelen zijn getroffen, dan kan worden gestart met het ontwikkelen van het algoritme.

Vereisten

-
idVereisten
aia-05Datasets voor hoog-risico-AI-systemen voldoen aan kwaliteitscriteria
aia-06Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie
aia-33AI-testomgevingen die persoonsgegevens verwerken, voldoen aan strenge voorwaarden
aut-01Auteursrechten zijn beschermd
avg-01Persoonsgegevens worden op een rechtmatige manier verwerkt
avg-02Persoonsgegevens worden zo kort mogelijk bewaard
avg-03Persoonsgegevens worden zo min mogelijk verwerkt
avg-04Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair
avg-05Persoonsgegevens zijn juist en actueel
avg-06Organisaties kunnen bewijzen dat zij persoonsgegevens op de juiste manier verwerken
avg-08Gevoelige persoonsgegevens worden alleen gebruikt als hiervoor een wettelijke uitzondering geldt
avg-11Ontwerp en standaardinstellingen (defaults) zijn zo gunstig mogelijk voor de privacy van betrokkenen
avg-13Een Data Protection Impact Assessment (DPIA) wordt uitgevoerd wanneer de verwerking van persoonsgegevens waarschijnlijk een hoog risico met zich meebrengt voor de rechten en vrijheden van natuurlijke personen
dat-01Databanken worden alleen gebruikt met toestemming van de databank-producent
grw-02Algoritmes discrimineren niet
+
idVereisten
aia-05Datasets voor hoog-risico-AI-systemen voldoen aan kwaliteitscriteria
aia-06Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie.
aia-33AI-testomgevingen die persoonsgegevens verwerken, voldoen aan strenge voorwaarden
aut-01Auteursrechten zijn beschermd
avg-01Persoonsgegevens worden op een rechtmatige manier verwerkt
avg-02Persoonsgegevens worden zo kort mogelijk bewaard
avg-03Persoonsgegevens worden zo min mogelijk verwerkt
avg-04Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair
avg-05Persoonsgegevens zijn juist en actueel
avg-06Organisaties kunnen bewijzen dat zij persoonsgegevens op de juiste manier verwerken
avg-08Gevoelige persoonsgegevens worden alleen gebruikt als hiervoor een wettelijke uitzondering geldt
avg-11Ontwerp en standaardinstellingen (defaults) zijn zo gunstig mogelijk voor de privacy van betrokkenen
avg-13Een Data Protection Impact Assessment (DPIA) wordt uitgevoerd wanneer de verwerking van persoonsgegevens waarschijnlijk een hoog risico met zich meebrengt voor de rechten en vrijheden van natuurlijke personen
dat-01Databanken worden alleen gebruikt met toestemming van de databank-producent
grw-02Algoritmes discrimineren niet

Maatregelen

idMaatregelen
owp-03Beschrijf voor welk doel het algoritme persoonsgegevens gebruikt en waarom dit mag
owp-02Beschrijf welke data gebruikt wordt voor de beoogde toepassing
owp-16Laat aanbieder(s) bewijs leveren dat de door hen ontwikkelde algoritmes geen inbreuk maken op de auteursrechten van derden met de trainingsdata en de output.
dat-01Controleer de datakwaliteit
dat-02Maak waardevolle data vindbaar, toegankelijk, interoperabel en herbruikbaar (FAIR) binnen en buiten de eigen organisatie.
dat-05Bescherm persoonsgegevens door data te anonimiseren, pseudonimiseren of te aggregeren
dat-06Controleer de auteursrechten van eigen data
dat-07Gebruik duurzame datacenters
dat-07Gebruik bij machine learning technieken gescheiden train-, test- en validatiedata en houdt rekening met underfitting en overfitting.
dat-08Zorg dat je controle of eigenaarschap hebt over de data
dat-09Beperk de omvang van datasets voor energie-efficiëntie
imp-02Doe aselecte steekproeven om algoritmes met 'risicogestuurde selectie’ te controleren
mon-02Beveilig de software
diff --git a/pr-preview/pr-478/levenscyclus/implementatie/index.html b/pr-preview/pr-478/levenscyclus/implementatie/index.html index d8f81fe9c8..e844c55a26 100644 --- a/pr-preview/pr-478/levenscyclus/implementatie/index.html +++ b/pr-preview/pr-478/levenscyclus/implementatie/index.html @@ -1117,7 +1117,7 @@

Fase 6: Implementatie

Beslissingen en besluiten komen nu bijvoorbeeld mede of geheel door de werking van het algoritme tot stand. Waar passend, bijvoorbeeld bij impactvolle of hoog risico AI-systemen wordt dit duidelijk gecommuniceerd naar betrokken, voordat de oplossing volledig is geïmplementeerd.

Vereisten

-
idVereisten
aia-14Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure
aia-15Hoog-risico-AI-systemen zijn voorzien van een EU-conformiteitsverklaring
aia-16Hoog-risico-AI-systemen zijn voorzien van een CE-markering
aia-17Hoog-risico-AI-systemen zijn geregistreerd in de EU-databank
aia-20Hoog-risico-AI-systemen worden gebruikt volgens de gebruiksaanwijzing
aia-24Werknemers weten dat hun organisatie een hoog-risico AI-systeem gebruikt
aia-25Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank
aia-28AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem
avg-07Organisaties zijn transparant over het verwerken van persoonsgegevens
avg-10Besluiten die levens kunnen beïnvloeden, zijn niet volledig geautomatiseerd
awb-02Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit
bzk-01Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister
+
idVereisten
aia-14Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure.
aia-15Hoog-risico-AI-systemen zijn voorzien van een EU-conformiteitsverklaring.
aia-16Hoog-risico-AI-systemen zijn voorzien van een CE-markering.
aia-17Hoog-risico-AI-systemen zijn geregistreerd in de EU-databank.
aia-20Hoog-risico-AI-systemen worden gebruikt volgens de gebruiksaanwijzing
aia-24Werknemers weten dat hun organisatie een hoog-risico AI-systeem gebruikt
aia-25Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank
aia-28AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem
avg-07Organisaties zijn transparant over het verwerken van persoonsgegevens
avg-10Besluiten die levens kunnen beïnvloeden, zijn niet volledig geautomatiseerd
awb-02Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit
bzk-01Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister

Maatregelen

idMaatregelen
imp-10Stel een protocol vast voor de situatie dat er (een vermoeden van) discriminatie door een algoritme is geconstateerd en pas dit wanneer nodig toe.
pba-04Overleg regelmatig met belanghebbenden
owp-01Beschrijf de rollen en verantwoordelijkheden voor het ontwikkelen en gebruiken van algoritmes
owp-03Beschrijf voor welk doel het algoritme persoonsgegevens gebruikt en waarom dit mag
owp-10Maak een Project Startarchitectuur (PSA) voor de ontwikkeling of inkoop van algoritmes
owp-17Aansprakelijkheidsvoorwaarden van een aanbieder worden beoordeeld in de aanbesteding
owp-27Maak (contractuele) afspraken over data en artefacten met een aanbieder
dat-07Gebruik duurzame datacenters
owk-02Maak een noodplan voor het stoppen van het algoritme
imp-01Stel een werkinstructie op voor gebruikers.
imp-02Doe aselecte steekproeven om algoritmes met 'risicogestuurde selectie’ te controleren
imp-03Richt de juiste menselijke controle in van het algoritme
imp-04Publiceer impactvolle algoritmes en hoog-risico-AI-systemen in het Algoritmeregister
imp-05Spreek af hoe medewerkers omgaan met het algoritme.
imp-07Vermeld het gebruik van persoonsgegevens in een privacyverklaring
imp-09Richt een proces in zodat burgers of andere belanghebbenden een klacht, bezwaar of beroep kunnen indienen over het gebruik van het algoritme en monitor dit proces.
imp-08Vermeld het gebruik van persoonsgegevens in het verwerkingsregister
imp-01Maak een openbaar besluit over de inzet van het algoritme
diff --git a/pr-preview/pr-478/levenscyclus/monitoring-en-beheer/index.html b/pr-preview/pr-478/levenscyclus/monitoring-en-beheer/index.html index 5765a30a7a..3cb37bb43d 100644 --- a/pr-preview/pr-478/levenscyclus/monitoring-en-beheer/index.html +++ b/pr-preview/pr-478/levenscyclus/monitoring-en-beheer/index.html @@ -1113,7 +1113,7 @@

Fase 7: Monitoring en beheer

Een wijziging in onderliggende systemen kan er bijvoorbeeld voor zorgen dat het algoritme niet meer wordt voorzien van de noodzakelijk data om de benodigde output te genereren. Het beheerteam zorgt ervoor dat dergelijke situaties worden voorkomen of opgelost. Er kunnen ook incidenten worden gemeld door gebruikers die worden opgelost door het beheerteam.

Vereisten

-
idVereisten
aia-04Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen
aia-07Hoog-risico-AI-systemen loggen automatisch bepaalde gegevens
aia-08Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen
aia-09Hoog-risico-AI-systemen staan onder menselijk toezicht
aia-10Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig
aia-12Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbieder
aia-13Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder
aia-18Als een hoog-risico-AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in
aia-22De werking van hoog-risico-AI-systemen wordt gemonitord
aia-23Logs voor hoog-risico-AI-systemen worden bewaard door de gebruiksverantwoordelijke
aia-25Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank
aia-28Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-29AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie
aia-30Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen
aia-31Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerd
aia-32AI-modellen voor algemene doeleinden met systeemrisico’s zijn voldoende beveiligd tegen cyberaanvallen
aia-34Hoog-risico-AI-systemen zijn voorzien van een monitoringsysteem
aia-35Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder
aia-36Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening
arc-01Informatie over algoritmes wordt gedocumenteerd volgens de Archiefwet
avg-07Organisaties zijn transparant over het verwerken van persoonsgegevens
awb-02Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit
bzk-01Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister
grw-01Algoritmes schenden geen grondrechten of mensenrechten
grw-02Algoritmes discrimineren niet
+
idVereisten
aia-04Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen.
aia-07Hoog-risico-AI-systemen loggen automatisch bepaalde gegevens.
aia-08Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen.
aia-09Hoog-risico-AI-systemen staan onder menselijk toezicht.
aia-10Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig.
aia-12Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbieder.
aia-13Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder.
aia-18Als een hoog-risico-AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in.
aia-22De werking van hoog-risico-AI-systemen wordt gemonitord
aia-23Logs voor hoog-risico-AI-systemen worden bewaard door de gebruiksverantwoordelijke
aia-25Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank
aia-28Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-29AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie
aia-30Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen
aia-31Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerd
aia-32AI-modellen voor algemene doeleinden met systeemrisico’s zijn voldoende beveiligd tegen cyberaanvallen
aia-34Hoog-risico-AI-systemen zijn voorzien van een monitoringsysteem
aia-35Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder
aia-36Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening
aia-39Hoog-risico-AI-systemen zijn getest.
arc-01Informatie over algoritmes wordt gedocumenteerd volgens de Archiefwet
avg-07Organisaties zijn transparant over het verwerken van persoonsgegevens
awb-02Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit
bzk-01Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister
grw-01Algoritmes schenden geen grondrechten of mensenrechten
grw-02Algoritmes discrimineren niet

Maatregelen

idMaatregelen
org-12Controleer en verbeter regelmatig de kwaliteit van het algoritme
owp-01Beschrijf de rollen en verantwoordelijkheden voor het ontwikkelen en gebruiken van algoritmes
owp-06Inventariseer welke grondrechten het algoritme kan schenden en maak een belangenafweging
owp-09Een model-verwerkersovereenkomst is onderdeel van de aanbesteding als persoonsgegevens worden verwerkt
owp-14Maak het opstellen van een verwerkersovereenkomst onderdeel van de aanbesteding als persoonsgegevens worden verwerkt.
dat-04Geef data zoals persoonsgegevens een bewaartermijn met een vernietigingsprocedure
dat-07Gebruik duurzame datacenters
owk-03Analyseer de privacy-risico’s en neem maatregelen om deze risico’s laag te houden
owk-04Maak logbestanden waarin staat wie wanneer toegang had tot de data en de code
ver-01Controleer regelmatig of het algoritme werkt zoals het bedoeld is
ver-01Toets het algoritme op bias
imp-02Doe aselecte steekproeven om algoritmes met 'risicogestuurde selectie’ te controleren
imp-03Richt de juiste menselijke controle in van het algoritme
imp-04Publiceer impactvolle algoritmes en hoog-risico-AI-systemen in het Algoritmeregister
imp-09Richt een proces in zodat burgers of andere belanghebbenden een klacht, bezwaar of beroep kunnen indienen over het gebruik van het algoritme en monitor dit proces.
mon-01Maak back-ups van algoritmes
mon-02Beveilig de software
mon-03Maak een noodplan voor beveiligingsincidenten
mon-04Monitor regelmatig op veranderingen in de data. Bij veranderingen evalueer je de prestaties en output van het algoritme.
mon-05Meten, monitoren en rapporteren van milieu-impact van algoritmes
diff --git a/pr-preview/pr-478/levenscyclus/ontwerp/index.html b/pr-preview/pr-478/levenscyclus/ontwerp/index.html index ed46134ba1..d86c0ef699 100644 --- a/pr-preview/pr-478/levenscyclus/ontwerp/index.html +++ b/pr-preview/pr-478/levenscyclus/ontwerp/index.html @@ -1119,7 +1119,7 @@

Fase 2: Ontwerp

Nadat een besluit is genomen over het definitieve ontwerp van het algoritme, kan worden gestart met het inrichten van de ontwikkelomgeving (indien nodig), de dataverkenning, datapreparatie. Dit besluit betekent dat een akkoord wordt gegeven voor het type algoritme en de beoogde werking.

Vereisten

-
idVereisten
aia-02Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd
aia-04Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen
aia-08Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen
aia-09Hoog-risico-AI-systemen staan onder menselijk toezicht
aia-10Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig
aia-12Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbieder
aia-13Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder
aia-19Hoog-risico-AI-systemen voldoen aan de toegankelijkheidseisen
aia-28Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-29Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten
aia-29AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie
aut-01Auteursrechten zijn beschermd
avg-01Persoonsgegevens worden op een rechtmatige manier verwerkt
avg-02Persoonsgegevens worden zo kort mogelijk bewaard
avg-03Persoonsgegevens worden zo min mogelijk verwerkt
avg-04Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair
avg-06Organisaties kunnen bewijzen dat zij persoonsgegevens op de juiste manier verwerken
avg-08Gevoelige persoonsgegevens worden alleen gebruikt als hiervoor een wettelijke uitzondering geldt
avg-10Besluiten die levens kunnen beïnvloeden, zijn niet volledig geautomatiseerd
avg-11Ontwerp en standaardinstellingen (defaults) zijn zo gunstig mogelijk voor de privacy van betrokkenen
avg-13Een Data Protection Impact Assessment (DPIA) wordt uitgevoerd wanneer de verwerking van persoonsgegevens waarschijnlijk een hoog risico met zich meebrengt voor de rechten en vrijheden van natuurlijke personen
awb-01Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig.
awb-02Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit
grw-01Algoritmes schenden geen grondrechten of mensenrechten
+
idVereisten
aia-02Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd.
aia-04Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen.
aia-08Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen.
aia-09Hoog-risico-AI-systemen staan onder menselijk toezicht.
aia-10Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig.
aia-12Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbieder.
aia-13Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder.
aia-19Hoog-risico-AI-systemen voldoen aan de toegankelijkheidseisen.
aia-28Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-29Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten
aia-29AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie
aia-39Hoog-risico-AI-systemen zijn getest.
aut-01Auteursrechten zijn beschermd
avg-01Persoonsgegevens worden op een rechtmatige manier verwerkt
avg-02Persoonsgegevens worden zo kort mogelijk bewaard
avg-03Persoonsgegevens worden zo min mogelijk verwerkt
avg-04Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair
avg-06Organisaties kunnen bewijzen dat zij persoonsgegevens op de juiste manier verwerken
avg-08Gevoelige persoonsgegevens worden alleen gebruikt als hiervoor een wettelijke uitzondering geldt
avg-10Besluiten die levens kunnen beïnvloeden, zijn niet volledig geautomatiseerd
avg-11Ontwerp en standaardinstellingen (defaults) zijn zo gunstig mogelijk voor de privacy van betrokkenen
avg-13Een Data Protection Impact Assessment (DPIA) wordt uitgevoerd wanneer de verwerking van persoonsgegevens waarschijnlijk een hoog risico met zich meebrengt voor de rechten en vrijheden van natuurlijke personen
awb-01Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig.
awb-02Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit
grw-01Algoritmes schenden geen grondrechten of mensenrechten

Maatregelen

idMaatregelen
pba-04Overleg regelmatig met belanghebbenden
owp-01Beschrijf de rollen en verantwoordelijkheden voor het ontwikkelen en gebruiken van algoritmes
owp-11Voer voorafgaand aan een project een data beschikbaarheid, kwaliteit- en toegankelijkheidsanalayse uit.
owp-03Beschrijf voor welk doel het algoritme persoonsgegevens gebruikt en waarom dit mag
owp-04Beschrijf welke techniek gebruikt wordt voor de beoogde toepassing
owp-05Bepaal het soort algoritme en de risicogroep en vereisten die hierbij horen
owp-06Inventariseer welke grondrechten het algoritme kan schenden en maak een belangenafweging
owp-07Maak een lijst van de meest kwetsbare groepen en bescherm hen extra
owp-08Bepaal welke documenten voor hoe lang gearchiveerd moeten worden
owp-09Een model-verwerkersovereenkomst is onderdeel van de aanbesteding als persoonsgegevens worden verwerkt
owp-09Stel een multidisciplinair team samen bij het ontwikkelen of inkopen van algoritmes.
owp-10Maak een Project Startarchitectuur (PSA) voor de ontwikkeling of inkoop van algoritmes
owp-11Koop duurzaam algoritmes in
owp-02Beschrijf welke data gebruikt wordt voor de beoogde toepassing
owp-12Bespreek de vereisten die gelden voor een verantwoorde inzet van algoritmes met aanbieders.
owp-12Ontwerp algoritmes zo eenvoudig mogelijk
owp-13Maak vereisten voor algoritmes onderdeel van algemene inkoopvoorwaarden en de contractovereenkomst.
owp-14Maak het opstellen van een verwerkersovereenkomst onderdeel van de aanbesteding als persoonsgegevens worden verwerkt.
owp-15Maak het leveren van bewijs voor het voldoen aan de vereisten voor algoritmes onderdeel van de beoordeling van een inschrijving.
owp-17Aansprakelijkheidsvoorwaarden van een aanbieder worden beoordeeld in de aanbesteding
owp-18Maak vereisten onderdeel van (sub)gunningscriteria bij een aanbesteding.
owp-19Creëer ruimte om met een aanbieder samen te gaan werken om specifieke vereisten te realiseren
owp-20Vul technische documentatie van aanbieder aan met relevante informatie vanuit de gebruiksverantwoordelijke.
owp-21Neem het kunnen uitvoeren van een audit over de vereiste op in contractvoorwaarden en de contractovereenkomst
owp-22Bepaal in een aanbesteding of algoritmes van een aanbieder bepalende invloed hebben in een besluit richting personen
owp-23Laat de aanbieder aangeven welke mate van opleiding en ondersteuning bij de implementatie nodig is om de beoogde algoritmes verantwoord te gebruiken.
owp-24Voer een risico-analyse met de aanbieder uit op het gebied van informatiebeveiliging bij een uitbestedingstraject
owp-25Maak vereisten onderdeel van het programma van eisen bij een aanbesteding
owp-26Maak vereisten voor algoritmes onderdeel van de Service Level Agreement
owp-27Maak (contractuele) afspraken over data en artefacten met een aanbieder
pba-04Stel vast welke betrokkenen geïnformeerd moeten worden en welke informatie zij nodig hebben.
owp-07Pas uitlegbaarheidstechnieken toe en evalueer en valideer deze.
imp-10Maak gebruik van een algoritme dat bronvermelding kan genereren bij de output.
dat-06Controleer de auteursrechten van eigen data
dat-07Gebruik duurzame datacenters
owk-03Analyseer de privacy-risico’s en neem maatregelen om deze risico’s laag te houden
ver-01Toets het algoritme op bias
imp-03Richt de juiste menselijke controle in van het algoritme
mon-05Meten, monitoren en rapporteren van milieu-impact van algoritmes
diff --git a/pr-preview/pr-478/levenscyclus/ontwikkelen/index.html b/pr-preview/pr-478/levenscyclus/ontwikkelen/index.html index 030aa4d12f..975b31e361 100644 --- a/pr-preview/pr-478/levenscyclus/ontwikkelen/index.html +++ b/pr-preview/pr-478/levenscyclus/ontwikkelen/index.html @@ -1115,7 +1115,7 @@

Fase 4: Ontwikkelen

In deze fase is niet alleen het ontwikkelen van een algoritme, maar ook het documenteren van belangrijke afwegingen en het opstellen van technische documentatie van groot belang. Daarnaast zullen tal van (technische) maatregelen moeten worden getroffen zoals de verdere beveiliging van het informatiesysteem of bij de ontsluiting van de output naar gebruikers, het automatische genereren van logs en het inrichten van service en incidentmanagementprocedures.

Vereisten

-
idVereisten
aia-06Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie
aia-07Hoog-risico-AI-systemen loggen automatisch bepaalde gegevens
aia-08Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen
aia-09Hoog-risico-AI-systemen staan onder menselijk toezicht
aia-10Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig
aia-23Logs voor hoog-risico-AI-systemen worden bewaard door de gebruiksverantwoordelijke
aia-28AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem
aia-29AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie
aia-30Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen
aia-32AI-modellen voor algemene doeleinden met systeemrisico’s zijn voldoende beveiligd tegen cyberaanvallen
aia-33AI-testomgevingen die persoonsgegevens verwerken, voldoen aan strenge voorwaarden
arc-01Informatie over algoritmes wordt gedocumenteerd volgens de Archiefwet
avg-02Persoonsgegevens worden zo kort mogelijk bewaard
avg-03Persoonsgegevens worden zo min mogelijk verwerkt
avg-09Betrokkenen kunnen een beroep doen op hun privacyrechten
awb-01Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig.
+
idVereisten
aia-06Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie.
aia-07Hoog-risico-AI-systemen loggen automatisch bepaalde gegevens.
aia-08Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen.
aia-09Hoog-risico-AI-systemen staan onder menselijk toezicht.
aia-10Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig.
aia-23Logs voor hoog-risico-AI-systemen worden bewaard door de gebruiksverantwoordelijke
aia-28AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem
aia-29AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie
aia-30Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen
aia-32AI-modellen voor algemene doeleinden met systeemrisico’s zijn voldoende beveiligd tegen cyberaanvallen
aia-33AI-testomgevingen die persoonsgegevens verwerken, voldoen aan strenge voorwaarden
aia-39Hoog-risico-AI-systemen zijn getest.
arc-01Informatie over algoritmes wordt gedocumenteerd volgens de Archiefwet
avg-02Persoonsgegevens worden zo kort mogelijk bewaard
avg-03Persoonsgegevens worden zo min mogelijk verwerkt
avg-09Betrokkenen kunnen een beroep doen op hun privacyrechten
awb-01Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig.

Maatregelen

idMaatregelen
owp-03Beschrijf voor welk doel het algoritme persoonsgegevens gebruikt en waarom dit mag
owp-05Bepaal het soort algoritme en de risicogroep en vereisten die hierbij horen
owp-08Bepaal welke documenten voor hoe lang gearchiveerd moeten worden
owp-10Maak een Project Startarchitectuur (PSA) voor de ontwikkeling of inkoop van algoritmes
owp-12Bespreek de vereisten die gelden voor een verantwoorde inzet van algoritmes met aanbieders.
owp-12Ontwerp algoritmes zo eenvoudig mogelijk
owp-19Creëer ruimte om met een aanbieder samen te gaan werken om specifieke vereisten te realiseren
pba-04Stel vast welke betrokkenen geïnformeerd moeten worden en welke informatie zij nodig hebben.
dat-04Geef data zoals persoonsgegevens een bewaartermijn met een vernietigingsprocedure
dat-05Bescherm persoonsgegevens door data te anonimiseren, pseudonimiseren of te aggregeren
dat-07Gebruik duurzame datacenters
dat-07Gebruik bij machine learning technieken gescheiden train-, test- en validatiedata en houdt rekening met underfitting en overfitting.
dat-09Beperk de omvang van datasets voor energie-efficiëntie
owk-01Ontwerp en ontwikkel het algoritme volgens de principes van ‘security by design’
owk-02Maak een noodplan voor het stoppen van het algoritme
owk-03Analyseer de privacy-risico’s en neem maatregelen om deze risico’s laag te houden
owk-04Maak logbestanden waarin staat wie wanneer toegang had tot de data en de code
owk-05Kies energiezuinige programmeermethoden
owk-06Optimaliseer AI-trainingsprocessen voor energie-efficiëntie
ver-01Controleer regelmatig of het algoritme werkt zoals het bedoeld is
imp-06Spreek af hoe de organisatie omgaat met privacy-verzoeken
mon-01Maak back-ups van algoritmes
mon-02Beveilig de software
diff --git a/pr-preview/pr-478/levenscyclus/organisatieverantwoordelijkheden/index.html b/pr-preview/pr-478/levenscyclus/organisatieverantwoordelijkheden/index.html index 81c22d0feb..b900230cdf 100644 --- a/pr-preview/pr-478/levenscyclus/organisatieverantwoordelijkheden/index.html +++ b/pr-preview/pr-478/levenscyclus/organisatieverantwoordelijkheden/index.html @@ -1108,7 +1108,7 @@

Fase 0: Organisatieverantwoorde In deze fase beschrijven we de randvoorwaarden die je als organisatie moet hebben om aan de slag te gaan. Dit zijn aspecten die je in het ideale geval al regelt voordat je begint aan het gebruik van algoritmes. Het zijn ook taken die je voortdurend aandacht zal moeten geven, maar die je niet voor ieder algorite opnieuw hoeft te organiseren.

Vereisten

-
idVereisten
aia-01Personeel en gebruikers zijn voldoende AI-geletterd
aia-01Verboden AI-systemen mogen niet worden gebruikt.
aia-03Hoog-risico-AI-systemen zijn voorzien van een risicobeheersysteem
aia-11Hoog-risico-AI-systemen zijn voorzien van een kwaliteitsbeheersysteem
aia-18Als een hoog-risico-AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in
aia-20Hoog-risico-AI-systemen worden gebruikt volgens de gebruiksaanwijzing
aia-21Menselijke controle van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden
aia-25Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank
aia-28Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-33AI-testomgevingen die persoonsgegevens verwerken, voldoen aan strenge voorwaarden
aia-35Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder
aia-36Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening
aia-37Klachtrecht aanbieders verder in AI-waardeketen
avg-09Betrokkenen kunnen een beroep doen op hun privacyrechten
avg-12Data zoals persoonsgegevens zijn voldoende beveiligd tegen ongelukken en cyberaanvallen
bio-01Computersystemen zijn voldoende beveiligd tegen ongelukken en cyberaanvallen
woo-01Iedereen kan openbare informatie over algoritmes vinden of aanvragen
+
idVereisten
aia-01Personeel en gebruikers zijn voldoende AI-geletterd.
aia-01Verboden AI-systemen mogen niet worden gebruikt.
aia-03Hoog-risico-AI-systemen zijn voorzien van een risicobeheersysteem
aia-11Hoog-risico-AI-systemen zijn voorzien van een kwaliteitsbeheersysteem.
aia-18Als een hoog-risico-AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in.
aia-20Hoog-risico-AI-systemen worden gebruikt volgens de gebruiksaanwijzing
aia-21Menselijke controle van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden
aia-25Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank
aia-28Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-33AI-testomgevingen die persoonsgegevens verwerken, voldoen aan strenge voorwaarden
aia-35Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder
aia-36Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening
aia-37Klachtrecht aanbieders verder in AI-waardeketen
avg-09Betrokkenen kunnen een beroep doen op hun privacyrechten
avg-12Data zoals persoonsgegevens zijn voldoende beveiligd tegen ongelukken en cyberaanvallen
bio-01Computersystemen zijn voldoende beveiligd tegen ongelukken en cyberaanvallen
woo-01Iedereen kan openbare informatie over algoritmes vinden of aanvragen

Maatregelen

idMaatregelen
org-01Bepaal of er genoeg experts beschikbaar zijn
org-04Stel beleid op voor een verantwoorde inzet van algoritmes binnen de organisatie.
org-03Maak een plan voor het omgaan met risico’s
org-04Zorg voor politiek-bestuurlijk bewustzijn, betrokkenheid, en verantwoordelijkheid.
org-05Sluit algoritmegovernance aan op bestaande governancestructuren binnen de organisatie.
org-06Gebruik een algoritme volwassenheidsmodel om te weten waar de organisatie staat
org-07Richt een algoritmegovernance in met three lines of defence
org-08Maak gebruik van beslismomenten in de algoritmelevenscyclus
org-09Richt algoritmegovernance op basis van de risicoclassificatie van algoritmes.
org-10Taken en verantwoordelijkheden zijn toebedeeld in de algoritmegovernance
org-11Maak afspraken over het beheer van gebruikers
org-12Controleer en verbeter regelmatig de kwaliteit van het algoritme
org-13Maak afspraken over het beheer van wachtwoorden
org-14Maak afspraken over het wijzigen van de code
imp-10Stel een protocol vast voor de situatie dat er (een vermoeden van) discriminatie door een algoritme is geconstateerd en pas dit wanneer nodig toe.
owp-28Pas vastgestelde interne beleidskaders toe en maak aantoonbaar dat deze zijn nageleefd bij het ontwikkelen, inkopen en gebruiken van algoritmes.
org-02Pas vastgestelde beleidskaders toe
imp-06Spreek af hoe de organisatie omgaat met privacy-verzoeken
imp-01Maak een openbaar besluit over de inzet van het algoritme
mon-03Maak een noodplan voor beveiligingsincidenten
diff --git a/pr-preview/pr-478/levenscyclus/uitfaseren/index.html b/pr-preview/pr-478/levenscyclus/uitfaseren/index.html index df34b511b8..8f9f4f8dd0 100644 --- a/pr-preview/pr-478/levenscyclus/uitfaseren/index.html +++ b/pr-preview/pr-478/levenscyclus/uitfaseren/index.html @@ -1117,7 +1117,7 @@

Fase 8: Uitfaseren

Het algoritme is hiermee niet meer te gebruiken door gebruikers. Gebruikers moeten hier vooraf over worden geïnformeerd en waar passend, bijvoorbeeld bij impactvolle of hoog risico AI-systemen, worden betrokkenen geïnformeerd over het beëindigen van het gebruik.

Vereisten

-
idVereisten
aia-12Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbieder
aia-13Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder
arc-01Informatie over algoritmes wordt gedocumenteerd volgens de Archiefwet
avg-02Persoonsgegevens worden zo kort mogelijk bewaard
+
idVereisten
aia-12Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbieder.
aia-13Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder.
arc-01Informatie over algoritmes wordt gedocumenteerd volgens de Archiefwet
avg-02Persoonsgegevens worden zo kort mogelijk bewaard

Maatregelen

idMaatregelen
diff --git a/pr-preview/pr-478/levenscyclus/verificatie-en-validatie/index.html b/pr-preview/pr-478/levenscyclus/verificatie-en-validatie/index.html index 7acc9b2f6a..e4f07a3c48 100644 --- a/pr-preview/pr-478/levenscyclus/verificatie-en-validatie/index.html +++ b/pr-preview/pr-478/levenscyclus/verificatie-en-validatie/index.html @@ -1119,7 +1119,7 @@

Fase 5: Verificatie en validatie

Het is ook denkbaar dat het algoritme onvoldoende aansluit bij de doelstellingen en het gebruik ervan moet wordt beëindigd. Een andere conclusie kan zijn dat het presteert conform verwachting en naar de implementatiefase kan worden gegaan.

Vereisten

-
idVereisten
aia-05Datasets voor hoog-risico-AI-systemen voldoen aan kwaliteitscriteria
aia-06Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie
aia-10Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig
aia-14Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure
aia-15Hoog-risico-AI-systemen zijn voorzien van een EU-conformiteitsverklaring
aia-29Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten
aia-30Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen
avg-13Een Data Protection Impact Assessment (DPIA) wordt uitgevoerd wanneer de verwerking van persoonsgegevens waarschijnlijk een hoog risico met zich meebrengt voor de rechten en vrijheden van natuurlijke personen
awb-01Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig.
grw-01Algoritmes schenden geen grondrechten of mensenrechten
grw-02Algoritmes discrimineren niet
+
idVereisten
aia-05Datasets voor hoog-risico-AI-systemen voldoen aan kwaliteitscriteria
aia-06Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie.
aia-14Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure.
aia-15Hoog-risico-AI-systemen zijn voorzien van een EU-conformiteitsverklaring.
aia-29Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten
aia-30Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen
aia-39Hoog-risico-AI-systemen zijn getest.
avg-13Een Data Protection Impact Assessment (DPIA) wordt uitgevoerd wanneer de verwerking van persoonsgegevens waarschijnlijk een hoog risico met zich meebrengt voor de rechten en vrijheden van natuurlijke personen
awb-01Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig.
grw-01Algoritmes schenden geen grondrechten of mensenrechten
grw-02Algoritmes discrimineren niet

Maatregelen

idMaatregelen
owp-03Beschrijf voor welk doel het algoritme persoonsgegevens gebruikt en waarom dit mag
owp-06Inventariseer welke grondrechten het algoritme kan schenden en maak een belangenafweging
owp-10Maak een Project Startarchitectuur (PSA) voor de ontwikkeling of inkoop van algoritmes
owp-16Laat aanbieder(s) bewijs leveren dat de door hen ontwikkelde algoritmes geen inbreuk maken op de auteursrechten van derden met de trainingsdata en de output.
ver-01Controleer regelmatig of het algoritme werkt zoals het bedoeld is
ver-01Toets het algoritme op bias
ver-03Controleer regelmatig of het algoritme voldoet aan alle wetten en regels en het eigen beleid
diff --git a/pr-preview/pr-478/onderwerpen/bias-en-non-discriminatie/index.html b/pr-preview/pr-478/onderwerpen/bias-en-non-discriminatie/index.html index 5c2af7189b..99b45cb7c3 100644 --- a/pr-preview/pr-478/onderwerpen/bias-en-non-discriminatie/index.html +++ b/pr-preview/pr-478/onderwerpen/bias-en-non-discriminatie/index.html @@ -1713,7 +1713,7 @@

Handvest van de grond

Het Algoritmekader is nog volop in ontwikkeling. Op deze plek willen we vooral aan de slag gaan op een open en transparante wijze. Het is dus niet definitief. Dat betekent dat er dingen opstaan die niet af zijn en soms zelfs fout. Mocht er iets niet kloppen, laat het ons weten via GitHub.

Vereisten

-
idVereisten
aia-04Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen
avg-08Gevoelige persoonsgegevens worden alleen gebruikt als hiervoor een wettelijke uitzondering geldt
grw-02Algoritmes discrimineren niet
+
idVereisten
aia-04Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen.
avg-08Gevoelige persoonsgegevens worden alleen gebruikt als hiervoor een wettelijke uitzondering geldt
grw-02Algoritmes discrimineren niet

Maatregelen

idMaatregelen
imp-10Stel een protocol vast voor de situatie dat er (een vermoeden van) discriminatie door een algoritme is geconstateerd en pas dit wanneer nodig toe.
dat-07Gebruik bij machine learning technieken gescheiden train-, test- en validatiedata en houdt rekening met underfitting en overfitting.
ver-01Controleer regelmatig of het algoritme werkt zoals het bedoeld is
ver-01Toets het algoritme op bias
imp-02Doe aselecte steekproeven om algoritmes met 'risicogestuurde selectie’ te controleren
diff --git a/pr-preview/pr-478/onderwerpen/fundamentele-rechten/index.html b/pr-preview/pr-478/onderwerpen/fundamentele-rechten/index.html index 056b4d6d87..3671c469c0 100644 --- a/pr-preview/pr-478/onderwerpen/fundamentele-rechten/index.html +++ b/pr-preview/pr-478/onderwerpen/fundamentele-rechten/index.html @@ -1367,7 +1367,7 @@

Belang van grondrechten beschermen

Als overheid moet je hier goed op letten. Doe dit zo vroeg mogelijk in de levenscyclus. De maatregelen die we adviseren, beginnen al bij het ontwerpen en trainen van algoritmes.

Vereisten

-
idVereisten
aia-04Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen
aia-28Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-29Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten
aia-37Klachtrecht aanbieders verder in AI-waardeketen
avg-04Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair
awb-01Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig.
grw-01Algoritmes schenden geen grondrechten of mensenrechten
+
idVereisten
aia-04Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen.
aia-28Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-29Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten
aia-37Klachtrecht aanbieders verder in AI-waardeketen
avg-04Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair
awb-01Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig.
grw-01Algoritmes schenden geen grondrechten of mensenrechten

Aanbevolen maatregelen

idMaatregelen
pba-04Overleg regelmatig met belanghebbenden
owp-06Inventariseer welke grondrechten het algoritme kan schenden en maak een belangenafweging
owp-07Maak een lijst van de meest kwetsbare groepen en bescherm hen extra
diff --git a/pr-preview/pr-478/onderwerpen/governance/index.html b/pr-preview/pr-478/onderwerpen/governance/index.html index 2592eb8669..a8091a0f0f 100644 --- a/pr-preview/pr-478/onderwerpen/governance/index.html +++ b/pr-preview/pr-478/onderwerpen/governance/index.html @@ -1444,7 +1444,7 @@

Aanpak algoritme-governance

Zorg dat iemand verantwoordelijk is voor algoritme-governance. En betrek stakeholders.

Vereisten

-
idVereisten
aia-01Personeel en gebruikers zijn voldoende AI-geletterd
aia-01Verboden AI-systemen mogen niet worden gebruikt.
aia-02Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd
aia-03Hoog-risico-AI-systemen zijn voorzien van een risicobeheersysteem
aia-11Hoog-risico-AI-systemen zijn voorzien van een kwaliteitsbeheersysteem
aia-14Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure
aia-15Hoog-risico-AI-systemen zijn voorzien van een EU-conformiteitsverklaring
aia-17Hoog-risico-AI-systemen zijn geregistreerd in de EU-databank
aia-20Hoog-risico-AI-systemen worden gebruikt volgens de gebruiksaanwijzing
aia-21Menselijke controle van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden
aia-25Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank
aia-28Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-31Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerd
aia-32AI-modellen voor algemene doeleinden met systeemrisico’s zijn voldoende beveiligd tegen cyberaanvallen
aia-35Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder
aia-36Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening
aut-01Auteursrechten zijn beschermd
avg-06Organisaties kunnen bewijzen dat zij persoonsgegevens op de juiste manier verwerken
+
idVereisten
aia-01Personeel en gebruikers zijn voldoende AI-geletterd.
aia-01Verboden AI-systemen mogen niet worden gebruikt.
aia-02Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd.
aia-03Hoog-risico-AI-systemen zijn voorzien van een risicobeheersysteem
aia-11Hoog-risico-AI-systemen zijn voorzien van een kwaliteitsbeheersysteem.
aia-14Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure.
aia-15Hoog-risico-AI-systemen zijn voorzien van een EU-conformiteitsverklaring.
aia-20Hoog-risico-AI-systemen worden gebruikt volgens de gebruiksaanwijzing
aia-21Menselijke controle van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden
aia-25Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank
aia-28Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-31Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerd
aia-32AI-modellen voor algemene doeleinden met systeemrisico’s zijn voldoende beveiligd tegen cyberaanvallen
aia-35Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder
aia-36Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening
aut-01Auteursrechten zijn beschermd
avg-06Organisaties kunnen bewijzen dat zij persoonsgegevens op de juiste manier verwerken

Aanbevolen maatregelen

idMaatregelen
org-01Bepaal of er genoeg experts beschikbaar zijn
org-04Stel beleid op voor een verantwoorde inzet van algoritmes binnen de organisatie.
org-03Maak een plan voor het omgaan met risico’s
org-04Zorg voor politiek-bestuurlijk bewustzijn, betrokkenheid, en verantwoordelijkheid.
org-05Sluit algoritmegovernance aan op bestaande governancestructuren binnen de organisatie.
org-06Gebruik een algoritme volwassenheidsmodel om te weten waar de organisatie staat
org-07Richt een algoritmegovernance in met three lines of defence
org-08Maak gebruik van beslismomenten in de algoritmelevenscyclus
org-09Richt algoritmegovernance op basis van de risicoclassificatie van algoritmes.
org-10Taken en verantwoordelijkheden zijn toebedeeld in de algoritmegovernance
org-11Maak afspraken over het beheer van gebruikers
org-12Controleer en verbeter regelmatig de kwaliteit van het algoritme
org-13Maak afspraken over het beheer van wachtwoorden
org-14Maak afspraken over het wijzigen van de code
pba-01Beschrijf het probleem dat het algoritme moet oplossen
pba-02Beschrijf het doel van het algoritme
pba-03Beschrijf waarom een algoritme het probleem moet oplossen
pba-04Overleg regelmatig met belanghebbenden
pba-05Beschrijf de wettelijke grondslag voor de inzet van het algoritme
owp-01Beschrijf de rollen en verantwoordelijkheden voor het ontwikkelen en gebruiken van algoritmes
owp-05Bepaal het soort algoritme en de risicogroep en vereisten die hierbij horen
owp-28Pas vastgestelde interne beleidskaders toe en maak aantoonbaar dat deze zijn nageleefd bij het ontwikkelen, inkopen en gebruiken van algoritmes.
org-02Pas vastgestelde beleidskaders toe
owk-02Maak een noodplan voor het stoppen van het algoritme
ver-03Controleer regelmatig of het algoritme voldoet aan alle wetten en regels en het eigen beleid
imp-03Richt de juiste menselijke controle in van het algoritme
imp-06Spreek af hoe de organisatie omgaat met privacy-verzoeken
imp-05Spreek af hoe medewerkers omgaan met het algoritme.
imp-09Richt een proces in zodat burgers of andere belanghebbenden een klacht, bezwaar of beroep kunnen indienen over het gebruik van het algoritme en monitor dit proces.
imp-01Maak een openbaar besluit over de inzet van het algoritme
mon-03Maak een noodplan voor beveiligingsincidenten
diff --git a/pr-preview/pr-478/onderwerpen/menselijke-controle/index.html b/pr-preview/pr-478/onderwerpen/menselijke-controle/index.html index 35bb3d5293..510f9163f6 100644 --- a/pr-preview/pr-478/onderwerpen/menselijke-controle/index.html +++ b/pr-preview/pr-478/onderwerpen/menselijke-controle/index.html @@ -1520,7 +1520,7 @@

Aanpak menselijke controle

Feedback

Na het bepalen van de manier van controleren, bepaal je de manier waarop je feedback krijgt over het algoritme: Wat voor soort informatie moet bij wie terechtkomen? Aan wie moet een gebruiker bijvoorbeeld rapporteren dat het AI-systeem niet meer goed werkt?

Vereisten

-
idVereisten
aia-01Personeel en gebruikers zijn voldoende AI-geletterd
aia-09Hoog-risico-AI-systemen staan onder menselijk toezicht
aia-18Als een hoog-risico-AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in
aia-19Hoog-risico-AI-systemen voldoen aan de toegankelijkheidseisen
aia-21Menselijke controle van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden
aia-22De werking van hoog-risico-AI-systemen wordt gemonitord
aia-36Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening
+
idVereisten
aia-01Personeel en gebruikers zijn voldoende AI-geletterd.
aia-09Hoog-risico-AI-systemen staan onder menselijk toezicht.
aia-18Als een hoog-risico-AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in.
aia-19Hoog-risico-AI-systemen voldoen aan de toegankelijkheidseisen.
aia-21Menselijke controle van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden
aia-22De werking van hoog-risico-AI-systemen wordt gemonitord
aia-36Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening

Aanbevolen maatregelen

idMaatregelen
org-12Controleer en verbeter regelmatig de kwaliteit van het algoritme
pba-03Beschrijf waarom een algoritme het probleem moet oplossen
owk-02Maak een noodplan voor het stoppen van het algoritme
imp-01Stel een werkinstructie op voor gebruikers.
imp-03Richt de juiste menselijke controle in van het algoritme
imp-05Spreek af hoe medewerkers omgaan met het algoritme.
diff --git a/pr-preview/pr-478/onderwerpen/privacy-en-gegevensbescherming/index.html b/pr-preview/pr-478/onderwerpen/privacy-en-gegevensbescherming/index.html index 15798a116d..b2f0480351 100644 --- a/pr-preview/pr-478/onderwerpen/privacy-en-gegevensbescherming/index.html +++ b/pr-preview/pr-478/onderwerpen/privacy-en-gegevensbescherming/index.html @@ -97,7 +97,7 @@
- + Ga naar inhoud @@ -760,6 +760,8 @@ + +