From 7858d3ee2b6f50f7f07530af3b363253cffa98a1 Mon Sep 17 00:00:00 2001 From: Ravi Meijer Date: Mon, 11 Nov 2024 11:17:25 +0100 Subject: [PATCH] Add new structure and categories (#235) Co-authored-by: Laurens Weijs --- README.md | 56 +- categories.yaml | 124 +- decision-tree.yaml | 2685 +++++++++++------ frontend/src/assets/categories.json | 2 +- frontend/src/assets/decision-tree.json | 2 +- frontend/src/components/BeslisboomForm.vue | 26 +- frontend/src/components/Conclusion.vue | 98 +- frontend/src/components/Header.vue | 2 +- frontend/src/components/HomePage.vue | 31 +- frontend/src/components/ProgressTracker.vue | 38 +- frontend/src/components/Question.vue | 68 +- frontend/src/components/SubResult.vue | 160 +- frontend/src/models/Categories.ts | 13 +- frontend/src/stores/CategoryStore.ts | 91 +- frontend/src/stores/QuestionStore.ts | 73 +- schemas/schema_decision_tree.json | 7 +- script/gen_mermaid.py | 2 + script/inject_definitions_in_decision_tree.py | 2 - 18 files changed, 2178 insertions(+), 1302 deletions(-) diff --git a/README.md b/README.md index 6e691fcf..2ba88b7f 100644 --- a/README.md +++ b/README.md @@ -1,30 +1,30 @@ -# Beslisboom AI-Verordening bètaversie +# Beslishulp AI-Verordening bètaversie -**Met deze beslisboom stel je vast of de AI-verordening geldt voor jouw overheidsorganisatie. En aan welke vereisten je dan moet voldoen.** +**Met deze beslishulp stel je vast of de AI-verordening geldt voor jouw overheidsorganisatie. En aan welke vereisten je dan moet voldoen.** -- Deze beslisboom is een bètaversie (betekenende dat deze website in ontwikkeling is. Volgende versies ontstaan op een open manier.) +- Deze beslishulp is een bètaversie (betekenende dat deze website in ontwikkeling is. Volgende versies ontstaan op een open manier.) - De informatie is niet compleet en er kunnen fouten in staan. - Je bent zelf verantwoordelijk voor de informatie die je gebruikt. -- Overleg de uitkomsten van de beslisboom met een expert. -- In de beslisboom staat alleen informatie over de rollen van de overheid als [aanbieder](https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst) en als [gebruiksverantwoordelijke](https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst). +- Overleg de uitkomsten van de beslishulp met een expert. +- In de beslishulp staat alleen informatie over de rollen van de overheid als [aanbieder](https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst) en als [gebruiksverantwoordelijke](https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst). -Voor vragen of opmerkingen over de beslisboom mail je naar: [ai-verordening@minbzk.nl](mailto::ai-verordening@minbzk.nl). +Voor vragen of opmerkingen over de beslishulp mail je naar: [ai-verordening@minbzk.nl](mailto::ai-verordening@minbzk.nl). -# AI-act-beslisboom +# AI-act-beslishulp [![pre-commit.ci status](https://results.pre-commit.ci/badge/github/MinBZK/ai-act-decisiontree/main.svg?badge_token=d3dKEK97RwC1II15_W-nng)](https://results.pre-commit.ci/latest/github/MinBZK/ai-act-decisiontree/main?badge_token=d3dKEK97RwC1II15_W-nng) -Deze git repository bevat de beslisboom op basis van de AI Verordening. -Het AI-validatie Team heeft deze tool ontwikkeld, maar is niet verantwoordelijk voor de juridische inhoud van de beslisboom. Voor meer informatie over het AI Validatie Team, bezoek de [site van het AI-validatieteam](https://minbzk.github.io/ai-validation/). Voor vragen over de juridische inhoud, neem contact op met de experts via ai-verordening@minbzk.nl. +Deze git repository bevat de beslishulp op basis van de AI Verordening. +Het AI-validatie Team heeft deze tool ontwikkeld, maar is niet verantwoordelijk voor de juridische inhoud van de beslishulp. Voor meer informatie over het AI Validatie Team, bezoek de [site van het AI-validatieteam](https://minbzk.github.io/ai-validation/). Voor vragen over de juridische inhoud, neem contact op met de experts via ai-verordening@minbzk.nl. Het project omvat de volgende 2 onderdelen: -1. De beslisboom: [decision-tree.yaml](decision-tree.yaml) -2. Een frontend voor de visualisatie van de beslisboom: [frontend](frontend/) +1. De beslishulp: [decision-tree.yaml](decision-tree.yaml) +2. Een frontend voor de visualisatie van de beslishulp: [frontend](frontend/) -De Kubernetes deployment code staat bij [infra](https://github.com/MinBZK/ai-validation-infra/apps/ai-act-beslisboom) +De Kubernetes deployment code staat bij [infra](https://github.com/MinBZK/ai-validation-infra/apps/ai-act-beslishulp) -Door deze beslisboom te doorlopen, krijgt uw organisatie inzicht in de volgende vragen: +Door deze beslishulp te doorlopen, krijgt uw organisatie inzicht in de volgende vragen: - Is er sprake van een **AI-systeem**, een **AI-systeem voor algemene doeleinden** of een **AI-model voor algemene doeleinden**? - Is het systeem/model **open source** of niet? @@ -36,13 +36,13 @@ Door deze beslisboom te doorlopen, krijgt uw organisatie inzicht in de volgende Om u te helpen bij het beantwoorden van de vragen, zijn relevante overwegingen / artikelen / bijlagen van de AI Verordening gelinkt per vraag. -## Beslisboom componenten +## Beslishulp componenten -De beslisboom is gevat in [decision-tree.yaml](decision-tree.yaml). U kunt deze bekijken met elke editor die u fijn vindt. +De beslishulp is gevat in [decision-tree.yaml](decision-tree.yaml). U kunt deze bekijken met elke editor die u fijn vindt. -De beslisboom heeft componenten die vastgelegd zijn in een schema. Zie [schema_decision_tree.json](schemas/schema_decision_tree.json). Dit schema zorgt ervoor dat het systeem weet welke velden verwacht worden. +De beslishulp heeft componenten die vastgelegd zijn in een schema. Zie [schema_decision_tree.json](schemas/schema_decision_tree.json). Dit schema zorgt ervoor dat het systeem weet welke velden verwacht worden. -De beslisboom is opgebouwd uit de volgende componenten: +De beslishulp is opgebouwd uit de volgende componenten: ```sh version: string # versie van decisionTree @@ -76,31 +76,31 @@ Conclusion: # definitie van 1 eindconclusie source_url: string # optioneel: een link naar de bovengenoemde verwijzing ``` -Naast de beslisboom is er ook een [definitions.yaml](definitions.yaml) bestand. Dit bestand bevat alle relevante definities die de beslisboom ondersteunen en extra uitleg nodig hebben, gebaseerd op de [Begrippenlijst van het algoritmekader](https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst). Het verwachte schema van velden is gedocumenteerd in [schema_definitions.json](schemas/schema_definitions.json). +Naast de beslishulp is er ook een [definitions.yaml](definitions.yaml) bestand. Dit bestand bevat alle relevante definities die de beslishulp ondersteunen en extra uitleg nodig hebben, gebaseerd op de [Begrippenlijst van het algoritmekader](https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst). Het verwachte schema van velden is gedocumenteerd in [schema_definitions.json](schemas/schema_definitions.json). -## Beslisboom diagram +## Beslishulp diagram -De beslisboom is schematisch weergegeven verschillende diagrammen: +De beslishulp is schematisch weergegeven verschillende diagrammen: -1. [een doorklikbaar diagram](https://minbzk.github.io/ai-act-decisiontree/mermaid_graphs/decision-tree-main.html): in dit diagram is de beslisboom op een versimpelde manier weergeven. Dit diagram bevat de volgende componenten: +1. [een doorklikbaar diagram](https://minbzk.github.io/ai-act-decisiontree/mermaid_graphs/decision-tree-main.html): in dit diagram is de beslishulp op een versimpelde manier weergeven. Dit diagram bevat de volgende componenten: - - donkerblauwe rechthoeken: dit zijn doorklikbare componenten die doorverwijzen naar een volgende categorie uit de beslisboom. - - lichtblauwe rechthoeken: dit zijn de 'labels' uit de beslisboom. De labels geven de karakteristieken die u door de beslisboom te doorlopen kunt verzamelen weer. - - donkerblauwe cirkels: dit zijn de vragen uit de beslisboom. Wanneer u op een cirkel klikt, verschijnt de volledige vraag in een pop-up op het scherm. Deze kan vervolgens weer weg worden geklikt door rechtsboven op het kruisje te klikken. - - witte hexagons met groene rand: dit zijn de conclusies uit de beslisboom. Wanneer u op een hexagon klikt, verschijnen de bij de conclusie behorende verplichtingen in een pop-up op het scherm. + - donkerblauwe rechthoeken: dit zijn doorklikbare componenten die doorverwijzen naar een volgende categorie uit de beslishulp. + - lichtblauwe rechthoeken: dit zijn de 'labels' uit de beslishulp. De labels geven de karakteristieken die u door de beslishulp te doorlopen kunt verzamelen weer. + - donkerblauwe cirkels: dit zijn de vragen uit de beslishulp. Wanneer u op een cirkel klikt, verschijnt de volledige vraag in een pop-up op het scherm. Deze kan vervolgens weer weg worden geklikt door rechtsboven op het kruisje te klikken. + - witte hexagons met groene rand: dit zijn de conclusies uit de beslishulp. Wanneer u op een hexagon klikt, verschijnen de bij de conclusie behorende verplichtingen in een pop-up op het scherm. U kunt terug naar het vorige diagram door de vorige pagina-knop in uw browser te gebruiken. -2. een [overzichtsdiagram](https://minbzk.github.io/ai-act-decisiontree/mermaid_graphs/decision-tree-complete.html): in dit diagram is de gehele beslisboom gevat. Dit diagram is niet doorklikbaar. De vragen zijn gegroepeerd categorieen, weergeven in witte rechthoeken met groene randen. +2. een [overzichtsdiagram](https://minbzk.github.io/ai-act-decisiontree/mermaid_graphs/decision-tree-complete.html): in dit diagram is de gehele beslishulp gevat. Dit diagram is niet doorklikbaar. De vragen zijn gegroepeerd categorieen, weergeven in witte rechthoeken met groene randen. Let op: de diagrammen kunnen het beste in Chrome, Safari of Microsoft Edge worden geopend. ## Frontend -Om door de beslisboom te lopen is een visualizatie tool gemaakt. Met deze tool kunt u door de vragen lopen. De frontend is beschikbaar op deze [website](https://ai-act-decisiontree.apps.digilab.network). +Om door de beslishulp te lopen is een visualizatie tool gemaakt. Met deze tool kunt u door de vragen lopen. De frontend is beschikbaar op deze [website](https://ai-act-decisiontree.apps.digilab.network). -### Frontend locaal draaien +### Frontend lokaal draaien Om de development omgeving te standaardiseren maken we gebruik van [devcontainers](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started). diff --git a/categories.yaml b/categories.yaml index 491fb3dd..24e7c29e 100644 --- a/categories.yaml +++ b/categories.yaml @@ -1,57 +1,77 @@ -- questionId: "0" - topic: Soort toepassing - topic_details: Definitie Algoritme -- questionId: "1" - topic: Soort toepassing - topic_details: AI-systeem, AI-model of AI-model voor algemene doeleinden -- questionId: "1.0.1" - topic: Open-source - topic_details: Open-source -- questionId: "1.0.2" - topic: Open-source - topic_details: Open-source +- questionId: "1.2" + category: AI verordening van toepassing? + subcategory: Soort toepassing + +- questionId: "1.3" + category: AI verordening van toepassing? + subcategory: Rol + +- questionId: "1.4" + category: AI verordening van toepassing? + subcategory: Operationeel + +- questionId: "1.5" + category: AI verordening van toepassing? + subcategory: Soort toepassing + +- questionId: "1.6" + category: AI verordening van toepassing? + subcategory: Soort toepassing + +- questionId: "1.7" + category: AI verordening van toepassing? + subcategory: Soort toepassing + +- questionId: "1.8" + category: AI verordening van toepassing? + subcategory: Soort toepassing + - questionId: "2" - topic: Publicatiecategorie - topic_details: Uitzonderingsgrond -- questionId: "3.0" - topic: Publicatiecategorie - topic_details: Verboden AI -- questionId: "3.1" - topic: Publicatiecategorie - topic_details: Uitzondering verboden AI -- questionId: "4" - topic: Publicatiecategorie - topic_details: Hoog risico AI (Veiligheidscomponent) -- questionId: "5.0" - topic: Publicatiecategorie - topic_details: Hoog risico AI (Bijlage 3) -- questionId: "5.1.0" - topic: Publicatiecategorie - topic_details: Uitzondering hoog risico AI -- questionId: "5.1.1" - topic: Publicatiecategorie - topic_details: Profilering -- questionId: "6" - topic: Systeemrisico - topic_details: Systeemrisico -- questionId: "7" - topic: Transparantieverplichtingen - topic_details: Transparantieverplichtingen -- questionId: "8" - topic: Rol - topic_details: Rol -- questionId: "9" - topic: Publicatiecategorie - topic_details: Impactvol + category: Welke risicogroep? + subcategory: Risicogroep + +- questionId: "2.4.1" + category: Welke risicogroep? + subcategory: Conformiteitsbeoordeling + +- questionId: "2.4.2" + category: Welke risicogroep? + subcategory: Conformiteitsbeoordeling + +- questionId: "2.8" + category: Welke risicogroep? + subcategory: Systeemrisico + +- questionId: "2.9" + category: Welke risicogroep? + subcategory: Transparantieverplichting + +- questionId: "2.10" + category: Welke risicogroep? + subcategory: Transparantieverplichting + +- questionId: "2.11" + category: Welke risicogroep? + subcategory: Open source + +- questionId: "10" + category: Conclusie + subcategory: Conclusie +- questionId: "11" + category: Conclusie + subcategory: Conclusie - questionId: "12" - topic: Conclusie - topic_details: Conclusie + category: Conclusie + subcategory: Conclusie - questionId: "13" - topic: Conclusie - topic_details: Conclusie + category: Conclusie + subcategory: Conclusie - questionId: "14" - topic: Conclusie - topic_details: Conclusie + category: Conclusie + subcategory: Conclusie - questionId: "15" - topic: Conclusie - topic_details: Conclusie + category: Conclusie + subcategory: Conclusie +- questionId: "16" + category: Conclusie + subcategory: Conclusie diff --git a/decision-tree.yaml b/decision-tree.yaml index 3b23035a..2a8837d1 100644 --- a/decision-tree.yaml +++ b/decision-tree.yaml @@ -1,11 +1,12 @@ version: 1.0.0 -name: Beslisboom AI Verordening +name: Beslishulp AI Verordening questions: ### check definitie algoritme - - questionId: "0" + - questionId: "1.2" # TO do: check of 0 is gehardcode als 'start'? question: "Bevat de (beoogde) toepassing een algoritme?" simplifiedQuestion: "Algoritme" - category: soort_toepassing + category: van_toepassing + subcategory: soort_toepassing sources: - source: Aandacht voor Algoritmes, Algemene Rekenkamer, 2021 url: https://www.rekenkamer.nl/onderwerpen/algoritmes/documenten/rapporten/2021/01/26/aandacht-voor-algoritmes @@ -15,1232 +16,2042 @@ questions: url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst answers: - answer: Ja - subresult: "Er is sprake van een algoritme." - nextQuestionId: "1.0" + nextQuestionId: "1.3" - answer: Nee labels: - "geen algoritme" - nextConclusionId: "15.0" + nextConclusionId: "11.0" +# Rol + - questionId: "1.3" + question: "Ontwikkelen jullie de toepassing in eigen beheer of is/wordt deze ontwikkeld door een andere partij?" + simplifiedQuestion: "Rol" + category: van_toepassing + subcategory: rol + sources: + - source: Artikel 3 - Definities + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2093-1-1 + - source: Begrippenlijst Algoritmekader + url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + answers: + - answer: We ontwikkelen enkel + labels: + - "aanbieder" + nextQuestionId: "1.4" + - answer: We ontwikkelen, maar gebruiken het niet alleen zelf + labels: + - "aanbieder & gebruiksverantwoordelijke" + nextQuestionId: "1.4" + - answer: We ontwikkelen en gebruiken het zelf + labels: + - "aanbieder & gebruiksverantwoordelijke" + nextQuestionId: "1.4" + - answer: We hebben opdracht gegeven om de toepassing te ontwikkelen + labels: + - "aanbieder" + subresult: "Tenzij het duidelijk is dat de ontwikkelaar de AI onder hun eigen naam of merk in de handel brengt" + nextQuestionId: "1.4" + - answer: We hebben een toepassing gekocht en daarop doorontwikkeld + labels: + - "aanbieder & gebruiksverantwoordelijke" + nextQuestionId: "1.4" + - answer: We hebben een toepassing gekocht en gebruiken deze zonder aanpassingen + labels: + - "gebruiksverantwoordelijke" + nextQuestionId: "1.4" + - answer: We importeren van een leverancier buiten de EU + labels: + - "importeur" + nextQuestionId: "1.4" + - answer: We kopen van een leverancier binnen de EU en verkopen het + labels: + - "distributeur" + nextQuestionId: "1.4" + - answer: Geen van bovenstaande + nextConclusionId: "11.6" - ### check of het een AI-systeem is - - questionId: "1.0" - question: "Is de (beoogde) toepassing een AI-systeem?" - simplifiedQuestion: "AI-systeem" - category: soort_toepassing +# in gebruik + - questionId: "1.4" + question: "Is de toepassing al in gebruik of niet?\n + Voor grootschalige IT- die al in gebruik zijn heb je tot 2030 de tijd om aan de AI-verordening te voldoen. Nieuw te ontwikkelen en/of in gebruik te nemen modellen voor algemene doeleinden moeten per 01-08-2025 en hoog-risico toepassingen moeten per 01-08-2026 voldoen." + simplifiedQuestion: "In gebruik" + category: van_toepassing + subcategory: soort_toepassing sources: - - source: Overweging 12 - Begrip "AI-systeem" + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 177 - Aanpassingsperiode en uitzonderingen voor bestaande hoogrisico AI-systemen - source: Begrippenlijst Algoritmekader url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst answers: - - answer: Ja - nextQuestionId: "1.1" - - answer: Nee - nextQuestionId: "1.2" - - questionId: "1.1" - question: "Is de (beoogde) toepassing een AI-systeem voor algemene doeleinden?" - simplifiedQuestion: "AI-systeem voor algemene doeleinden" - category: soort_toepassing + - answer: In gebruik + labels: + - "in gebruik" + nextQuestionId: "1.5" + - answer: In ontwikkeling + labels: + - "in ontwikkeling" + nextQuestionId: "1.5" + +# AI-systeem + - questionId: "1.5" + question: "Hoe zou je jouw (beoogde) toepassing classificeren, gezien de volgende definities: een AI-systeem, een AI-systeem voor algemene doeleinden, of een AI-model voor algemene doeleinden?\n + - AI-systeem: Een machine-gebaseerd systeem dat autonoom werkt, zichzelf kan aanpassen na inzet, en output levert zoals voorspellingen, inhoud, aanbevelingen of beslissingen. Deze output kan fysieke of virtuele omgevingen beïnvloeden. AI-systemen gebruiken inferentie, waarbij modellen of algoritmen worden afgeleid uit data, en combineren technieken als machinaal leren, logica en kennisrepresentatie.\n + - AI-model voor algemene doeleinden: Een flexibel AI-model, zoals een generatief model, dat ingezet kan worden voor meerdere taken zoals tekst, beeld, audio of video en gemakkelijk integreerbaar is in andere systemen.\n + - AI-systeem voor algemene doeleinden: Een systeem dat een AI-model voor algemene doeleinden bevat en breed inzetbaar is, zowel direct als via integratie in andere systemen." + simplifiedQuestion: "AI-systeem" + category: van_toepassing + subcategory: soort_toepassing sources: - - source: Overweging 12 - Begrip AI-systeem + - source: Artikel 3 - Definities + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2093-1-1 + - source: Overweging 12 - Begrip "AI-systeem" + - source: Overweging 97 - Begrip "AI-model voor algemene doeleinden" + - source: Overweging 99 - Generatieve AI-modellen als voorbeeld van AI-modellen voor algemene doeleinden + - source: Overweging 100 - Classificatie van AI-systemen met geïntegreerde AI-modellen voor algemene doeleinden - source: Begrippenlijst Algoritmekader url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst answers: - - answer: Ja - subresult: "Er is sprake van een AI-systeem voor algemene doeleinden." + - answer: AI-systeem + labels: + - "AI-systeem" + nextQuestionId: "1.6" + - answer: AI-systeem voor algemene doeleinden labels: - "AI-systeem voor algemene doeleinden" - nextQuestionId: "1.0.1" - - answer: Nee - subresult: "Er is sprake van een AI-systeem" + nextQuestionId: "1.6" + - answer: AI-model voor algemene doeleinden labels: - - "AI-systeem" - nextQuestionId: "1.0.1" - - questionId: "1.2" - question: "Is de (beoogde) toepassing een AI-model voor algemene doeleinden?" - simplifiedQuestion: "AI-model voor algemene doeleinden" - category: soort_toepassing + - "AI-model voor algemene doeleinden" + redirects: + - nextQuestionId: "1.6" + if: '"aanbieder" in labels || "gebruiksverantwoordelijke" in labels || "aanbieder & gebruiksverantwoordelijke" in labels' + - nextConclusionId: "16.2.1" + if: '"distributeur" in labels' + - nextConclusionId: "15.2.1" + if: '"importeur" in labels' + - answer: Geen van bovenstaande + nextQuestionId: "1.7" # Impactvol algoritme + +# Uitzonderingsgrond + - questionId: "1.6" + question: "Is er voor de (beoogde) toepassing sprake van een uitzonderingsgrond?\n\n + - AI-systemen die uitsluitend in de handel worden gebracht, in gebruik worden gesteld of, al dan niet gewijzigd, worden gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden \n + - AI-systemen die niet in de Unie in de handel worden gebracht of in gebruik worden gesteld en waarvan de output in de Unie uitsluitend wordt gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden \n + - overheidsinstanties in derde landen of internationale organisaties die binnen het toepassingsgebied van de AI-verordening vallen, wanneer deze instanties of organisaties AI-systemen gebruiken in het kader van internationale samenwerking of overeenkomsten met de Unie of een of meer lidstaten op het gebied van rechtshandhaving en justitie \n + - onderzoeks-, test- of ontwikkelingsactiviteiten met betrekking tot AI-systemen of AI-modellen voor zij in de handel worden gebracht of in gebruik worden gesteld (testen onder reële omstandigheden valt hier niet onder) \n + - AI-systemen of AI-modellen, met inbegrip van hun output, die specifiek zijn ontwikkeld en in gebruik worden gesteld met wetenschappelijk onderzoek en wetenschappelijke ontwikkeling als enig doel\n\n + Is er volgens deze uitleg sprake van een van deze uitzonderingsgronden voor de toepassing waarover je deze beslishulp invult?" + simplifiedQuestion: "Uitzonderingsgrond AI Act" + category: van_toepassing + subcategory: soort_toepassing sources: - - source: Lid 63 - "AI-model voor algemene doeleinden" + - source: Artikel 2 - Toepassingsgebied + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e1978-1-1 - source: Begrippenlijst Algoritmekader url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst answers: - answer: Ja labels: - - "AI-model voor algemene doeleinden" - nextQuestionId: "1.0.1" + - "uitzondering van toepassing" + nextConclusionId: "11.2" # Hoeft niet te voldoen aan de AI-vo - answer: Nee - nextQuestionId: "9.0" - + redirects: + - nextQuestionId: "2.1" + if: '"AI-systeem" in labels || "AI-systeem voor algemene doeleinden" in labels' + - nextQuestionId: "2.8" + if: '"AI-model voor algemene doeleinden" in labels' + - nextConclusionId: "13.2.1" + if: '"AI-model voor algemene doeleinden" in labels && "gebruiksverantwoordelijke" in labels' - ### check of het systeem/model open-source is - - questionId: "1.0.1" - question: "Wordt de toepassing onder een open of vrije licentie gedeeld?" - simplifiedQuestion: "Open of vrije licentie" - category: open_source + #### Impactvol algoritme + - questionId: "1.7" + question: "Valt jouw algoritme onder categorie B van de Handreiking Algoritmeregister, waarbij het gebruik impact heeft op burgers of groepen, + bijvoorbeeld door rechtsgevolgen (zoals een boete of subsidieafwijzing) of door classificatie van burgers (zoals profilering of risico-indicatie voor controle)?" + simplifiedQuestion: "Impactvol algoritme" + category: van_toepassing + subcategory: impactvol sources: - - source: Overweging 102 - Begrip open-source + - source: Handreiking Algoritmeregister + url: https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2023/12/Handreiking-Algoritmeregister-versie-1.0.pdf answers: - answer: Ja - nextQuestionId: "1.0.2" + nextQuestionId: "1.8" - answer: Nee - subresult: "Er is geen sprake van een open-source model." labels: - - "geen open-source" - nextQuestionId: "2.0" - - questionId: "1.0.2" - question: "Zijn de broncodes en parameters openbaar voor eenieder?" - simplifiedQuestion: "Openbare broncodes en parameters" - category: open_source + - "niet-impactvol algoritme" + nextConclusionId: "11.5" + + - questionId: "1.8" + question: "Valt de toepassing onder \xE9\xE9n van de uitzonderingsgronden categorie C of D van de Handreiking van het Algoritmeregister?\n\n + - Categorie C: Algoritmes die maatschappelijk relevant zijn of veel aandacht krijgen, zoals complexe modellen, algoritmes in onderzoek, of die vaak door burgers of media worden bevraagd (bijv. stikstofmodellen, toeslagen, of visumaanvragen).\n + - Categorie D: Algoritmes die wettelijk of operationeel beschermd zijn, bijvoorbeeld in opsporing, defensie, of handhaving, of die kunnen leiden tot misbruik van informatie, zoals bij bedrijfssubsidies." + simplifiedQuestion: "Uitzonderingsgronden Handreiking Algoritmeregister" + category: van_toepassing + subcategory: impactvol sources: - - source: Overweging 102 - Begrip open-source + - source: Handreiking Algoritmeregister + url: https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2023/12/Handreiking-Algoritmeregister-versie-1.0.pdf answers: - answer: Ja - subresult: "Er is sprake van een open-source model." + subresult: "Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing. Je hoeft vanwege uitzonderingsgrond niet te publiceren in het register." + nextConclusionId: "11.4" labels: - - "open-source" - nextQuestionId: "2.0" + - "impactvol algoritme" - answer: Nee - subresult: "Er is geen sprake van een open-source model." + nextConclusionId: "11.3" labels: - - "geen open-source" - nextQuestionId: "2.0" + - "impactvol algoritme" - ### check of AI-verordening van toepassing is of uitzonderingsgrond - - questionId: "2.0" - question: "We gaan nu bepalen of er sprake is van een uitzondering op de AI-verordening.\n\n Valt de (beoogde) toepassing onder een van de volgende categorieen? \n\n - - AI-systemen die uitsluitend in de handel worden gebracht, in gebruik worden gesteld of, al dan niet gewijzigd, worden gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden \n - - AI-systemen die niet in de Unie in de handel worden gebracht of in gebruik worden gesteld en waarvan de output in de Unie uitsluitend wordt gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden \n - - overheidsinstanties in derde landen of internationale organisaties die binnen het toepassingsgebied van de AI-verordening vallen, wanneer deze instanties of organisaties AI-systemen gebruiken in het kader van internationale samenwerking of overeenkomsten met de Unie of een of meer lidstaten op het gebied van rechtshandhaving en justitie \n - - onderzoeks-, test- of ontwikkelingsactiviteiten met betrekking tot AI-systemen of AI-modellen voor zij in de handel worden gebracht of in gebruik worden gesteld (testen onder reële omstandigheden valt hier niet onder) \n - - AI-systemen of AI-modellen, met inbegrip van hun output, die specifiek zijn ontwikkeld en in gebruik worden gesteld met wetenschappelijk onderzoek en wetenschappelijke ontwikkeling als enig doel" - simplifiedQuestion: "Uitzondering AI-verordening" - category: publicatiecategorie_risico +## Verboden AI ysteem + - questionId: "2.1" + question: "We gaan nu bepalen in welke risicogroep het AI-systeem valt. Hiervoor gaan we maximaal 7 vragen langslopen.\n\n + Valt de toepassing onder een van de verboden systemen uit Artikel 5 van de AI-verordening?\n + \n + - gebruik kan gaan maken van subliminale technieken om mensen onbewust of bewust kunnen manipuleren, waardoor ze beslissingen nemen die ze anders niet zouden hebben genomen?\n + - gebruik kan gaan maken van kwetsbaarheden van individuen of specifieke groepen, zoals leeftijd, handicaps of sociale/economische omstandigheden, om het gedrag van die personen aanzienlijk te verstoren, wat kan leiden tot aanzienlijke schade bij henzelf of anderen?\n + - gebruikt kan worden om natuurlijke personen of groepen gedurende een periode te evalueren of te classificeren op basis van hun sociale gedrag of afgeleide persoonlijke kenmerken?\n + - gebruikt kan worden voor risicobeoordelingen van natuurlijke personen om het risico op crimineel gedrag te voorspellen, gebaseerd op profilering of persoonlijkheidskenmerken? (Dit geldt niet voor AI-systemen die worden gebruikt om menselijke beoordelingen te ondersteunen, gebaseerd op objectieve en verifieerbare feiten die rechtstreeks verband houden met criminele activiteiten)\n + - gebruikt kan worden om databanken voor gezichtsherkenning aan te leggen of aan te vullen door willekeurige gezichtsafbeeldingen van internet of CCTV-beelden te scrapen?\n + - gebruikt kan worden om emoties van een persoon op de werkplek of in het onderwijs af te leiden? (Dit is niet van toepassing als het gebruik van het AI-systeem is bedoeld voor medische- of veiligheidsdoeleinden)\n + - gebruikt kan worden om natuurlijke personen individueel in categorieën in te delen op basis van biometrische gegevens om ras, politieke opvattingen, lidmaatschap van een vakbond, religieuze of levensbeschouwelijke overtuigingen, seksleven of seksuele geaardheid af te leiden? (Dit verbod geldt niet voor het labelen of filteren van rechtmatig verkregen biometrische datasets, zoals afbeeldingen, op basis van biometrische gegevens, of voor categorisering van biometrische gegevens op het gebied van rechtshandhaving)\n + - gebruikt kan worden als een biometrisch systeem in de publieke ruimte voor identificatie op afstand in real-time, met het oog op de rechtshandhaving?" + simplifiedQuestion: "Verboden AI-systeem" + category: risicogroep + subcategory: risicogroep sources: - - source: Artikel 2 - Toepassingsgebied - url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e1978-1-1 + - source: Artikel 5 - Verboden AI + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2816-1-1 - source: Begrippenlijst Algoritmekader url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst answers: - answer: Ja - labels: - - "uitzondering van toepassing" - nextConclusionId: "15.3" + nextQuestionId: "2.2" #uitzondering verboden AI - answer: Nee - subresult: "Er is geen sprake van een uitzonderingsgrond. De AI-verordening is van toepassing." - redirects: - - nextQuestionId: "3.0" - if: '"AI-systeem" in labels || "AI-systeem voor algemene doeleinden" in labels' - - nextQuestionId: "6.0" - if: '"AI-model voor algemene doeleinden" in labels' + nextQuestionId: "2.3" #verkenning risicogroep - ### check of het een verboden AI-systeem is - - questionId: "3.0" - question: "We gaan nu bepalen of het AI-systeem onder een van de verboden systemen uit Artikel 5 van de AI-verordening valt.\n\n Betreft het een AI-systeem dat: \n\n - - gebruik kan gaan maken van subliminale technieken om mensen onbewust of bewust kunnen manipuleren, waardoor ze beslissingen nemen die ze anders niet zouden hebben genomen?\n - - gebruik kan gaan maken van kwetsbaarheden van individuen of specifieke groepen, zoals leeftijd, handicaps of sociale/economische omstandigheden, om het gedrag van die personen aanzienlijk te verstoren, wat kan leiden tot aanzienlijke schade bij henzelf of anderen?\n - - gebruikt kan worden om natuurlijke personen of groepen gedurende een periode te evalueren of te classificeren op basis van hun sociale gedrag of afgeleide persoonlijke kenmerken? \n - - gebruikt kan worden voor risicobeoordelingen van natuurlijke personen om het risico op crimineel gedrag te voorspellen, gebaseerd op profilering of persoonlijkheidskenmerken? (Dit geldt niet voor AI-systemen die worden gebruikt om menselijke beoordelingen te ondersteunen, gebaseerd op objectieve en verifieerbare feiten die rechtstreeks verband houden met criminele activiteiten) \n - - gebruikt kan worden om databanken voor gezichtsherkenning aan te leggen of aan te vullen door willkeurige gezichtsafbeeldingen van internet of CCTV-beelden te scrapen? \n - - gebruikt kan worden om emoties van een persoon op de werkplek of in het onderwijs af te leiden? (Dit is niet van toepassing als het gebruik van het AI-systeem is bedoeld voor medische- of veiligheidsdoeleinden)\n - - gebruikt kan worden om natuurlijke personen individueel in categorie\xEBn in te delen op basis van biometrische gegevens om ras, politieke opvattingen, lidmaatschap van een vakbond, religieuze of levensbeschouwelijke overtuigingen, seksleven of seksuele geaardheid af te leiden? (Dit verbod geldt niet voor het labelen of filteren van rechtmatig verkregen biometrische datasets, zoals afbeeldingen, op basis van biometrische gegevens, of voor categorisering van biometrische gegevens op het gebied van rechtshandhaving) \n - - gebruikt kan worden als een biometrisch systeem in de publieke ruimte voor identificatie op afstand in real-time, met het oog op de rechtshandhaving?" - simplifiedQuestion: "Verboden AI" - category: publicatiecategorie_risico +# Uitzondering verboden AI + - questionId: "2.2" + question: "Is er sprake van een van de twee uitzonderingen voor verboden systemen?\n + \n + - Er is sprake van een rechtshandhavingsactiviteit i.v.m. een specifiek misdrijf (terrorisme, mensenhandel, seksuele uitbuiting van kinderen en materiaal over seksueel misbruik van kinderen, illegale handel in verdovende middelen en psychotrope stoffen, illegale handel in wapens, munitie en explosieven, moord, zware mishandeling, illegale handel in menselijke organen en weefsels, illegale handel in nucleaire en radioactieve stoffen, ontvoering, wederrechtelijke vrijheidsberoving en gijzeling, misdrijven die onder de rechtsmacht van het Internationaal Strafhof vallen, kaping van vliegtuigen/schepen, verkrachting, milieucriminaliteit, georganiseerde of gewapende diefstal, sabotage, deelneming aan een criminele organisatie die betrokken is bij een of meer van de bovengenoemde misdrijven).\n + - Er is sprake van gerichte opsporing van specifieke slachtoffers, ontvoering, mensenhandel en seksuele uitbuiting van mensen, vermiste personen; of het voorkomen van bedreigingen voor het leven of de fysieke veiligheid van personen of het reageren op de huidige of voorzienbare dreiging van een terreuraanslag." + simplifiedQuestion: "Uitzondering Verboden AI-systeem" + category: risicogroep + subcategory: risicogroep sources: - - source: Artikel 5 - Verboden AI-praktijken - url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2808-1-1 + - source: Artikel 5 - Verboden AI + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2816-1-1 + - source: Overweging 33 - Biometrische identificatie voor rechtshandhaving + - source: Overweging 34 - Biometrische identificatie in openbare ruimten voor rechtshandhaving - source: Begrippenlijst Algoritmekader url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst answers: - answer: Ja - subresult: "Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. Er kan echter sprake zijn van een uitzondering." - nextQuestionId: "3.1" + labels: + - "hoog-risico AI" + redirects: + - nextQuestionId: "2.3" + if: '"aanbieder" in labels || "gebruiksverantwoordelijke" in labels || "aanbieder & gebruiksverantwoordelijke" in labels' + - nextConclusionId: "16.0.1" + if: '"distributeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "16.1.1" + if: '"distributeur" in labels && "AI-systeem voor algemene doeleinden" in labels' + - nextConclusionId: "15.0.1" + if: '"importeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "15.1.1" + if: '"importeur" in labels && "AI-systeem voor algemene doeleinden" in labels' - answer: Nee - subresult: "Het AI-systeem is niet verboden. We gaan nu bepalen of er sprake is van een hoog-risico AI-systeem." - nextQuestionId: "4.0" + labels: + - "verboden AI" + nextConclusionId: "11.1" #conclusie verboden AI - ### check of er een uitzondering geldt voor het verboden AI-systeem - - questionId: "3.1" - question: "Is er sprake van een van de volgende uitzonderingen?:\n\n - - Er is sprake van een rechtshandhavingsactiviteit i.v.m. een specifiek misdrijf (terrorisme, mensenhandel, seksuele uitbuiting van kinderen en materiaal over seksueel misbruik van kinderen, illegale handel in verdovende middelen en psychotrope stoffen, illegale handel in wapens, munitie en explosieven, moord, zware mishandeling, illegale handel in menselijke organen en weefsels, illegale handel in nucleaire en radioactieve stoffen, ontvoering, wederrechtelijke vrijheidsberoving en gijzeling, misdrijven die onder de rechtsmacht van het Internationaal Strafhof vallen, kaping van vliegtuigen/schepen, verkrachting, milieucriminaliteit, georganiseerde of gewapende diefstal, sabotage, deelneming aan een criminale organisatie die betrokken is bij een of meer van de bovengenoemde misdrijven)\n - - Er is sprake van gerichte opsporing van specifieke slachtoffers, ontvoering, mensenhandel en seksuele uitbuiting van mensen, vermiste personen; of het voorkomen van bedreigingen voor het leven of de fysieke veiligheid van personen of het reageren op de huidige of voorzienbare dreiging van een terreuraanslag" - simplifiedQuestion: "Uitzondering verboden AI" - category: publicatiecategorie_risico +### Rol in of als veiligheidscomponent van een product onder Bijlage I + - questionId: "2.3" + question: "Is het AI-systeem bedoeld om te worden gebruikt als een veiligheidscomponent van een product dat valt onder de lijst in Bijlage I?\n\n + Specifiek, valt het AI-systeem onder de veiligheidscomponenten van:\n + - Sectie A van bijlage I, die wetgevingen omvat zoals richtlijnen voor machines, speelgoedveiligheid, pleziervaartuigen, liften, radioapparatuur, drukapparatuur, medische hulpmiddelen en gasverbrandingstoestellen.\n\n + Of valt het AI-systeem onder:\n + - Sectie B van bijlage I, die verordeningen bevat voor de beveiliging van de luchtvaart, motorvoertuigen, landbouwvoertuigen, zeeschepen, spoorwegsystemen, en luchtvaartveiligheid?" + simplifiedQuestion: "Hoog-risico Bijlage I A en B" + category: risicogroep + subcategory: risicogroep sources: - - source: Overweging 33 - Uitzondering verboden AI-systeem - - source: Overweging 34 - Uitzondering verboden AI-systeem + - source: Bijlage I - Lijst van harmonisatiewetgeving van de Unie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-124-1 + - source: Artikel 6.1 - Classificatieregels voor AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2986-1-1 + - source: Verordening (EG) Nr. 300/2008 - Beveiliging van de burgerluchtvaart en vervanging Verordening (EG) Nr. 2320/2002 + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32008R0300 + - source: Verordening (EU) Nr. 168/2013 - Goedkeuring en markttoezicht op twee-of driewielige voertuigen en vierwielers + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32013R0168&qid=1693934047233 + - source: Verordening (EU) Nr. 167/2013 - Goedkeuring en markttoezicht op landbouw- en bosvoertuigen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32013R0167 + - source: Richtlijn 2014/90/EU - Uitrusting van zeeschepen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX%3A32014L0090&qid=1693316316907 + - source: Richtlijn 2016/797 - Interoperabiliteit van het spoorwegsysteem in de EU + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016L0797 + - source: Verordening 2018/858 - Goedkeuring en markttoezicht op motorvoertuigen en aanhangwagens + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32018R0858 + - source: Verordening (EU) 2019/2144 - Typegoedkeuring van motorvoertuigen en aanhangwagens + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32019R2144 + - source: Verordening (EU) 2018/1139 - Regels op het gebied van burgerluchtvaart en Agentschap van de EU voor de veiligheid van de luchtvaart + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32018R1139 + - source: Richtlijn 2006/42/EG - Machines + url: https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2006:157:0024:0086:NL:PDF + - source: Richtlijn 2009/48/EG - Veiligheid van speelgoed + url: https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2009:170:0001:0037:nl:PDF + - source: Richtlijn 2013/53/EU - Pleziervaartuigen en waterscooters + url: https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2013:354:0090:0131:NL:PDF + - source: Richtlijn 2014/33/EU - Harmonisatie van de wetgevingen van de lidstaten inzake (veiligheidscomponenten voor) liften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0033 + - source: Richtlijn 2014/43/EU - Harmonisatie van wetgevingen van lidstaten over apparaten en beveiligingssystemen voor gebieden met ontploffingsgevaar + - source: Richtlijn 2014/53/EU - Harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van radioapparatuur + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0053 + - source: Richtlijn 2014/68/EU - Harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van drukapparatuur + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0068 + - source: Verordening 2016/424 - Kabelbaaninstallaties + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0424 + - source: Verordening (EU) 2016/425 - Persoonlijke beschermingsmiddelen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0425 + - source: Verordening (EU) 2016/426 - Gasverbrandingstoestellen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0426&from=DE + - source: Verordening (EU) 2017/745 - Medische hulpmiddelen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32017R0745 + - source: Verordening (EU) 2017/746 - Medische hulpmiddelen voor in-vitrodiagnostiek + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32017R0746 + - source: Overweging 47 - Veiligheidscomponent + - source: Overweging 49 - Veiligheidscomponent + - source: Begrippenlijst Algoritmekader + url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst answers: - - answer: Ja - subresult: "Er is sprake van een uitzondering op de lijst van verboden AI-systemen." + - answer: Ja Sectie A van Bijlage I labels: - "hoog-risico AI" - nextQuestionId: "7.0" - - answer: Nee + redirects: + - nextQuestionId: "2.4.1" #2.9 = transparantieverplichting, 2.4.1 = conformiteitsbeoordeling derde partij + if: '"aanbieder" in labels || "gebruiksverantwoordelijke" in labels || "aanbieder & gebruiksverantwoordelijke" in labels' + - nextConclusionId: "16.0.1" + if: '"distributeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "16.1.1" + if: '"distributeur" in labels && "AI-systeem voor algemene doeleinden" in labels' + - nextConclusionId: "15.0.1" + if: '"importeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "15.1.1" + if: '"importeur" in labels && "AI-systeem voor algemene doeleinden" in labels' + - answer: Ja Sectie B van Bijlage I labels: - - "verboden AI" - nextConclusionId: "15.1" + - "hoog-risico AI" + redirects: + - nextQuestionId: "2.9" #transparantieverplichting + if: '"aanbieder" in labels || "gebruiksverantwoordelijke" in labels || "aanbieder & gebruiksverantwoordelijke" in labels' + - nextConclusionId: "16.0.1" + if: '"distributeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "16.1.1" + if: '"distributeur" in labels && "AI-systeem voor algemene doeleinden" in labels' + - nextConclusionId: "15.0.1" + if: '"importeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "15.1.1" + if: '"importeur" in labels && "AI-systeem voor algemene doeleinden" in labels' + - answer: Geen van beide + nextQuestionId: "2.5" #2h - ### check op hoog risico AI-verordening (bijlage I Sectie B) - - questionId: "4.0" - question: - "Is er sprake van een veiligheidscomponent als bedoeld in Bijlage I Sectie B van de AI-verordening?:\n\n - - Verordening (EG) nr. 300/2008 inzake gemeenschappelijke regels op het gebied van de beveiliging van de burgerluchtvaart\n - - Verordening (EU) nr. 168/2013 betreffende de goedkeuring van en het markttoezicht op twee- of driewielige voertuigen en vierwielers\n - - Verordening (EU) nr. 167/2013 inzake de goedkeuring van en het markttoezicht op landbouw- en bosvoertuigen\n - - Richtlijn 2014/90/EU inzake uitrusting van zeeschepen\n - - Richtlijn 2016/797 betreffende de interoperabiliteit van het spoorwegsysteem in de Europese Unie\n - - Verordening 2018/858 betreffende de goedkeuring van en het markttoezicht op motorvoertuigen en aanhangwagens daarvan en systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd\n - - Verordening (EU) 2019/2144 betreffende de voorschriften voor de typegoedkeuring van motorvoertuigen en aanhangwagens daarvan en van systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd wat de algemene veiligheid ervan en de bescherming van de inzittenden van voertuigen en kwetsbare weggebruikers betreft\n - - Verordening (EU) 2018/1139 inzake gemeenschappelijke regels op het gebied van burgerluchtvaart en tot oprichting van een Agentschap van de Europese Unie voor de veiligheid van de luchtvaart, voor zover het gaat om het ontwerp, de productie en het in de handel brengen van luchtvaartuigen, en hun motoren, propellors, onderdelen en apparatuur om het luchtvaartuig op afstand te besturen" - simplifiedQuestion: "Veiligheidscomponent Bijlage 1B" - category: publicatiecategorie_risico +## Conformiteitsbeoordeling door derde partij bijlage IA + - questionId: "2.4.1" + question: "We gaan nu bepalen of het verplicht is om de conformiteitsbeoordeling uit te laten voeren door een derde partij?\n + Is jouw AI-systeem bedoeld voor gebruik door:\n + - Rechtshandhavingsinstanties?\n + - Immigratie- of asielautoriteiten?\n + - Instellingen, organen of instanties van de EU?\n\n + Of: Vereist dit product volgens de EU harmonisatiewegeving een conformiteitsbeoordeling door een derde partij?" + simplifiedQuestion: "Conformiteitsbeoordeling Bijlage 1A" + category: risicogroep + subcategory: conformiteitsbeoordeling sources: - - source: Bijlage 1 - Lijst van harmonisatiewetgeving van de Unie - url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-124-1 - - source: Verordening (EG) Nr. 300/2008 - Beveiliging van de burgerluchtvaart en vervanging Verordening (EG) Nr. 2320/2002 - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32008R0300 - - source: Verordening (EU) Nr. 168/2013 - Goedkeuring en markttoezicht op twee-of driewielige voertuigen en vierwielers - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32013R0168&qid=1693934047233 - - source: Verordening (EU) Nr. 167/2013 - Goedkeuring en markttoezicht op landbouw- en bosvoertuigen - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32013R0167 - - source: Richtlijn 2014/90/EU - Uitrusting van zeeschepen - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX%3A32014L0090&qid=1693316316907 - - source: Richtlijn 2016/797 - Interoperabiliteit van het spoorwegsysteem in de EU - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016L0797 - - source: Verordening 2018/858 - Goedkeuring en markttoezicht op motorvoertuigen en aanhangwagens - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32018R0858 - - source: Verorderning (EU) 2019/2144 - Typegoedkeuring van motorvoertuigen en aanhangwagens - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32019R2144 - - source: Verordening (EU) 2018/1139 - Regels op het gebied van burgerluchtvaart en Agentschap van de EU voor de veiligheid van de luchtvaart - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32018R1139 - - source: Overweging 47 - Veiligheidscomponent - - source: Overweging 49 - Veiligheidscomponent - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + - source: Artikel 43 - Conformiteitsbeoordeling + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1 + - source: Overweging 50 - Conformiteitsbeoordelingsprocedure + - source: Bijlage 1 - Lijst van harmonisatiewetgeving van de Unie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-124-1 + - source: Richtlijn 2006/42/EG - Machines + url: https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2006:157:0024:0086:NL:PDF + - source: Richtlijn 2009/48/EG - Veiligheid van speelgoed + url: https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2009:170:0001:0037:nl:PDF + - source: Richtlijn 2013/53/EU - Pleziervaartuigen en waterscooters + url: https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2013:354:0090:0131:NL:PDF + - source: Richtlijn 2014/33/EU - Harmonisatie van de wetgevingen van de lidstaten inzake (veiligheidscomponenten voor) liften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0033 + - source: Richtlijn 2014/43/EU - Harmonisatie van wetgevingen van lidstaten over apparaten en beveiligingssystemen voor gebieden met ontploffingsgevaar + - source: Richtlijn 2014/53/EU - Harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van radioapparatuur + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0053 + - source: Richtlijn 2014/68/EU - Harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van drukapparatuur + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0068 + - source: Verordening 2016/424 - Kabelbaaninstallaties + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0424 + - source: Verordening (EU) 2016/425 - Persoonlijke beschermingsmiddelen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0425 + - source: Verordening (EU) 2016/426 - Gasverbrandingstoestellen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0426&from=DE + - source: Verordening (EU) 2017/745 - Medische hulpmiddelen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32017R0745 + - source: Verordening (EU) 2017/746 - Medische hulpmiddelen voor in-vitrodiagnostiek + url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32017R0746 answers: - answer: Ja - subresult: "Het AI-systeem wordt beschouwd als een hoog-risico AI systeem en moet voldoen aan bepaalde verplichtingen/vereisten." labels: - - "hoog-risico AI" - nextQuestionId: "7.0" + - "derde partij" + nextQuestionId: "2.9" #transparantieverplichting - answer: Nee - nextQuestionId: "4.1" + labels: + - "interne controle" + nextQuestionId: "2.9" ##transparantieverplichting - ### check op hoog risico AI-verordening (bijlage I Sectie A) - - questionId: "4.1" - question: - "Is er sprake van een veiligheidscomponent als bedoeld in Bijlage I sectie A van de AI-verordening?:\n\n - - Richtlijn 2006/42/EG betreffende machines\n - - Richtlijn 2009/48/EG betreffende de veiligheid van speelgoed\n - - Richtlijn 2013/53/EU betreffende pleziervaartuigen en waterscooters\n - - Richtlijn 2014/33/EU betreffende de harmonisatie van de wetgevingen van de lidstaten inzake liften en veligheidscomponenten voor liften\n - - Richtlijn 2014/43/EU betreffende de harmonisatie van de wetgevingen van de lidstaten inzake apparaten en beveiligingssystemen bedoeld voor gebruik op plaatsen waar ontploffingsgevaar kan heersen\n - - Richtlijn 2014/53/EU betreffende de harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van radioapparatuur\n - - Richtlijn 2014/68/EU betreffende de harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van drukapparatuur\n - - Verordening 2016/424 betreffende kabelbaaninstallaties\n - - Verordening (EU) 2016/425 betreffende persoonlijke beschermingsmiddelen\n - - Verordening (EU) 2016/426 betreffende gasverbrandingstoestellen\n - - Verordening (EU) 2017/745 betreffende medische hulpmiddelen\n - - Verordening (EU) 2017/746 betreffende medische hulpmiddelen voor in-vitrodiagnostiek" - simplifiedQuestion: "Veiligheidscomponent Bijlage 1A" - category: publicatiecategorie_risico +## Conformiteitsbeoordeling door derde partij bijlage III + - questionId: "2.4.2" + question: "We gaan nu bepalen of het verplicht is om de conformiteitsbeoordeling uit te laten voeren door een derde partij?\n + Is het een toepassing voor biometrische identificatie en categorisering (bijlage III punt 1) EN is een van deze situaties van toepassing: \n + - Bestaan er geen geharmoniseerde normen of gemeenschappelijke specificaties?\n + - Heb je de geharmoniseerde norm niet of slechts gedeeltelijk toegepast?\n + - Bestaan er wel gemeenschappelijke specificaties maar heb je deze niet toegepast?\n + - Zijn er geharmoniseerde normen met beperkingen bekendgemaakt?\n\n + Of is jouw toepassing bedoeld voor gebruik door:\n + - Rechtshandhavingsinstanties?\n + - Immigratie- of asielautoriteiten?\n + - Instellingen, organen of instanties van de EU?\n" + simplifiedQuestion: "Conformiteitsbeoordeling Bijlage III" + category: risicogroep + subcategory: conformiteitsbeoordeling sources: - - source: Bijlage 1 - Lijst van harmonisatiewetgeving van de Unie - url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-124-1 - - source: Richtlijn 2006/42/EG - Machines - url: https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2006:157:0024:0086:NL:PDF - - source: Richtlijn 2009/48/EG - Veiligheid van speelgoed - url: https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2009:170:0001:0037:nl:PDF - - source: Richtlijn 2013/53/EU - Pleziervaartuigen en waterscooters - url: https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2013:354:0090:0131:NL:PDF - - source: Richtlijn 2014/33/EU - Harmonisatie van de wetgevingen van de lidstaten inzake (veiligheidscomponenten voor) liften - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0033 - - source: Richtlijn 2014/43/EU - Harmonisatie van wetgevingen van lidstaten over apparaten en beveiligingssystemen voor gebieden met ontploffingsgevaar - - source: Richtlijn 2014/53/EU - Harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van radioapparatuur - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0053 - - source: Richtlijn 2014/68/EU - Harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van drukapparatuur - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0068 - - source: Verordening 2016/424 - Kabelbaaninstallaties - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0424 - - source: Verordening (EU) 2016/425 - Persoonlijke beschermingsmiddelen - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0425 - - source: Verordening (EU) 2016/426 - Gasverbrandingstoestellen - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0426&from=DE - - source: Verordening (EU) 2017/745 - Medische hulpmiddelen - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32017R0745 - - source: Verordening (EU) 2017/746 - Medische hulpmiddelen voor in-vitrodiagnostiek - url: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32017R0746 - - source: Overweging 47 - Veiligheidscomponent - - source: Overweging 51 - Veiligheidscomponent + - source: Bijlage I answers: - answer: Ja - nextQuestionId: "4.2" + labels: + - "derde partij" + nextQuestionId: "2.9" #transparantieverplichting - answer: Nee - nextQuestionId: "5.0" - - questionId: "4.2" - question: "Moet het product waarvan het AI-systeem de veiligheidscomponent vormt een conformiteits-beoordeling door een derde partij laten uitgevoeren met het oog op het in de handel brengen of in gebruik stellen van dat product op grond van de in Bijlage I Sectie A opgenomen harmonisatiewetgeving van de Europese Unie?" - simplifiedQuestion: "Conformiteits-beoordeling" - category: publicatiecategorie_risico + labels: + - "interne controle" + nextQuestionId: "2.9" #transparantieverplichting + +# Profilering + - questionId: "2.5" + question: "Voert het AI-systeem profilering van natuurlijke personen uit? Bij profilering is er altijd sprake van een hoog risico." + simplifiedQuestion: "Profilering" + category: risicogroep + subcategory: risicogroep sources: - - source: Overweging 50 - Conformiteitsbeoordelingsprocedure - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + - source: Bijlage I - Lijst van harmonisatiewetgeving van de Unie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-124-1 + - source: Artikel 6 (lid 1)- Classificatieregels voor AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2986-1-1 answers: - answer: Ja - subresult: "Het AI-systeem wordt beschouwd als een hoog-risico AI systeem en moet voldoen aan bepaalde verplichtingen/vereisten." labels: - "hoog-risico AI" - nextQuestionId: "7.0" + redirects: + - nextQuestionId: "2.9" #transparantieverplichting + if: '"aanbieder" in labels || "gebruiksverantwoordelijke" in labels || "aanbieder & gebruiksverantwoordelijke" in labels' + - nextConclusionId: "16.0.1" + if: '"distributeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "16.1.1" + if: '"distributeur" in labels && "AI-systeem voor algemene doeleinden" in labels' + - nextConclusionId: "15.0.1" + if: '"importeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "15.1.1" + if: '"importeur" in labels && "AI-systeem voor algemene doeleinden" in labels' - answer: Nee - nextQuestionId: "5.0" + nextQuestionId: "2.6" - ### check op hoog risico AI-verordening (Bijlage III) - - questionId: "5.0" - question: "We gaan nu bepalen of het AI-systeem onder een van de hoog-risico systemen uit Bijlage 3 van de AI-verordening valt. Betreft het een AI-systeem die binnen een van de volgende toepassingsgebieden valt? Beweeg je muis over de opties om te zien welke systemen hieronder vallen.\n - - biometrie\n - - kritieke infrastructuur\n - - onderwijs en beroepsopleiding\n - - werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid\n - - toegang tot en gebruik van essentiele particuliere en publieke diensten en uitkeringen\n - - rechtshandhavingsinstanties\n - - migratie-, asiel- en grenstoezichtsbeheer\n - - rechtsbedeling en democratische processen" - simplifiedQuestion: "Hoog-risico AI" - category: publicatiecategorie_risico +# Hoog risico bijlage III + - questionId: "2.6" + question: "We gaan nu bepalen of het AI-systeem onder een van de hoog-risico systemen uit Bijlage III van de AI-verordening valt. Betreft het een AI-systeem op een van de volgende gebieden?\n + Beweeg je muis over de opties om te zien welke systemen hieronder vallen.\n + - biometrie\n + - kritieke infrastructuur\n + - onderwijs en beroepsopleiding\n + - werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid\n + - toegang tot en gebruik van essentiële particuliere en publieke diensten en uitkeringen\n + - rechtshandhavingsinstanties - migratie-, asiel- en grenstoezichtsbeheer\n + - rechtsbedeling en democratische processen\n" + simplifiedQuestion: "Hoog risico Bijlage III" + category: risicogroep + subcategory: risicogroep sources: - - source: Bijlage 3 - AI-systemen met een hoog risico + - source: Bijlage III - In artikel 6, lid 2, bedoelde AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-127-1 - - source: Overweging 54 - Biometrische identificatie op afstand - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + - source: Artikel 6 (lid 3) - Classificatieregels voor AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2986-1-1 answers: - answer: Ja - subresult: "Het AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Er kan sprake zijn van een uitzondering." - nextQuestionId: "5.1.0" + nextQuestionId: "2.7" #2j - answer: Nee labels: - "geen hoog-risico AI" - nextQuestionId: "7.0" + redirects: + - nextQuestionId: "2.9" #transparantieverplichting + if: '"aanbieder" in labels || "gebruiksverantwoordelijke" in labels || "aanbieder & gebruiksverantwoordelijke" in labels' + - nextConclusionId: "16.0.3" + if: '"distributeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "16.1.3" + if: '"distributeur" in labels && "AI-systeem voor algemene doeleinden" in labels' + - nextConclusionId: "15.0.3" + if: '"importeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "15.1.3" + if: '"importeur" in labels && "AI-systeem voor algemene doeleinden" in labels' - ### check op uitzonderingen hoog risico EU AI-verordening (bijlage III - toepassingsgebieden) - - questionId: "5.1.0" - question: "Voert het AI-systeem profilering van natuurlijke personen uit? Bij profilering is er altijd sprake van een hoog risico." - simplifiedQuestion: "Profilering" - category: publicatiecategorie_risico +# Uitzondering + - questionId: "2.7" + question: "We gaan nu bepalen of er sprake is van een uitzondering op de lijst van hoog-risico AI systemen. \n + Betreft het een AI-systeem dat is bedoeld voor een van de volgende doeleinden? \n + - Het uitvoeren van een beperkte procedurele taak waarbij er geen significant risico is op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen? + - Het verbeteren van het resultaat van een eerder voltooide menselijke activiteit en waarbij er geen significant risico is op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen? + - Het opsporen van besluitvormingspatronen of afwijkingen van eerdere besluitvormingspatronen en waarbij het niet bedoeld is om de eerder voltooide menselijke beoordeling zonder behoorlijke menselijke toetsing te vervangen of te beïnvloeden? + - Het uitvoeren van een voorbereidende taak voor een beoordeling die relevant is voor de in bijlage III vermelde gebruiksgevallen?" + simplifiedQuestion: "Uitzondering Hoog risico" + category: risicogroep + subcategory: risicogroep sources: - - source: Overweging 53 - Uitzonderingen hoog risico + - source: Overweging 53 - Laag risico answers: - answer: Ja - subresult: "Het AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem. Het zou dan moeten voldoen aan bepaalde vereisten." - labels: - - "hoog-risico AI" - nextQuestionId: "7.0" - - answer: Nee - subresult: "Het is mogelijk dat het AI-systeem toch geen hoog-risico systeem is. Het kan echter zijn dat het wel aan bepaalde transparantieverplichtingen moet voldoen." - nextQuestionId: "5.1.1" - - questionId: "5.1.1" - question: "We gaan nu bepalen of er sprake is van een uitzondering op de lijst van hoog-risico AI systemen.\n - Bent u een aanbieder van een AI-systeem dat is bedoeld voor een van de volgende doeleinden?\n - - Het uitvoeren van een beperkte procedurele taak waarbij er geen significant risico is op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen?\n - - Het verbeteren van het resultaat van een eerder voltooide menselijke activiteit en waarbij er geen significant risico is op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen?\n - - Het opsporen van besluitvormingspatronen of afwijkingen van eerdere besluitvormingspatronen en waarbij het niet bedoeld is om de eerder voltooide menselijke beoordeling zonder behoorlijke menselijke toetsing te vervangen of te be\xEFnvloeden?\n - - Het uitvoeren van een voorbereidende taak voor een beoordeling die relevant is voor de in bijlage III vermelde gebruiksgevallen?" - simplifiedQuestion: "Uitzondering hoog-risico AI" - category: publicatiecategorie_risico - sources: - - source: Bijlage 3 - AI-systemen met een hoog risico - url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-127-1 - - source: Overweging 53 - Uitzonderingen hoog risico - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - answers: - - answer: Ja - nextQuestionId: "7.0" labels: - "geen hoog-risico AI" + redirects: + - nextQuestionId: "2.9" #transparantieverplichting + if: '"aanbieder" in labels || "gebruiksverantwoordelijke" in labels || "aanbieder & gebruiksverantwoordelijke" in labels' + - nextConclusionId: "16.0.3" + if: '"distributeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "16.1.3" + if: '"distributeur" in labels && "AI-systeem voor algemene doeleinden" in labels' + - nextConclusionId: "15.0.3" + if: '"importeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "15.1.3" + if: '"importeur" in labels && "AI-systeem voor algemene doeleinden" in labels' - answer: Nee - subresult: "Het systeem valt niet onder een van de uitzonderingen. Het blijft beschouwd als een hoog-risico AI-systeem." labels: - "hoog-risico AI" - nextQuestionId: "7.0" + redirects: + - nextQuestionId: "2.4.2" #2.9 = transparantieverplichting, 2.4.2 =conformiteitsbeoordeling derde partij + if: '"aanbieder" in labels || "gebruiksverantwoordelijke" in labels || "aanbieder & gebruiksverantwoordelijke" in labels' + - nextConclusionId: "16.0.1" + if: '"distributeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "16.1.1" + if: '"distributeur" in labels && "AI-systeem voor algemene doeleinden" in labels' + - nextConclusionId: "15.0.1" + if: '"importeur" in labels && "AI-systeem" in labels' + - nextConclusionId: "15.1.1" + if: '"importeur" in labels && "AI-systeem voor algemene doeleinden" in labels' - ### check op systeem risico (alleen voor AI-modellen voor algemene doeleinden) - - questionId: "6.0" - question: "We gaan nu bepalen of er sprake is van een systeemrisico. \n\n - Is er sprake van een cumulatieve hoeveelheid rekenkracht van FLOPs groter dan 10^25?\n\n - - FLOPs zijn floating point operations per second.\n - - FLOPs is een eenheid die wordt gebruikt om de rekenkracht van CPU\u2019s aan te duiden.\n - - CPUs zijn Central Processing Units.\n - - Dit is de centrale verwerkingseenheid van een computer, smartphone of tablet. De CPU voert het rekenwerk uit waardoor programma\u2019s draaien en hardware wordt aangestuurd." +## Systeemrisico van het gebruike AI-model voor algemene doeleinden + - questionId: "2.8" + question: "We gaan nu bepalen of er sprake is van een systeemrisico.\n + Is er in het gebruikte AI-model sprake van een cumulatieve hoeveelheid rekenkracht van FLOPs groter dan 10^25?\n + + - FLOPs zijn floating point operations per second.\n + - FLOPs is een eenheid die wordt gebruikt om de rekenkracht van CPU’s aan te duiden.\n + - CPUs zijn Central Processing Units.\n + - Dit is de centrale verwerkingseenheid van een computer, smartphone of tablet. De CPU voert het rekenwerk uit waardoor programma’s draaien en hardware wordt aangestuurd." simplifiedQuestion: "Systeemrisico" - category: systeemrisico + category: risicogroep + subcategory: systeemrisico sources: - - source: Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico - url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1 - - source: Overweging 110 - Classificatie systeemrisico - - source: Overweging 111 - Classificatie systeemrisico - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + - source: Artikel 55 - Systeemrisico answers: - answer: Ja - subresult: "Er is sprake van een systeemrisico" labels: - "systeemrisico" - nextQuestionId: "8.0" + redirects: + - nextConclusionId: "12.2.1" + if: '"aanbieder" in labels' + - nextConclusionId: "14.2.1" + if: '"aanbieder & gebruiksverantwoordelijke" in labels' - answer: Nee - subresult: "Er is geen sprake van een systeemrisico" labels: - "geen systeemrisico" - nextQuestionId: "8.0" + redirects: + - nextQuestionId: "2.11" + if: '"aanbieder" in labels' + - nextConclusionId: "14.2.2" + if: '"aanbieder & gebruiksverantwoordelijke" in labels' - ### check op transparantieverplichtingen - - questionId: "7.0" - question: "We gaan nu bepalen of het AI-systeem onder de transparantieverplichtingen van Artikel 50 valt.\n\n Is er sprake van een AI-systeem dat:\n\n - - direct communiceert met mensen (zoals chatbots)?\n - - synthetische afbeeldingen, audio, video of tekst content genereert en manipuleert? Bijvoorbeeld een deepfake.\n - - aan emotieherkenning of biometrische categorisatie doet?" - simplifiedQuestion: "transparantieverplichtingen" - category: transparantieverplichting +## Transparantieverplichting + - questionId: "2.9" + question: "We gaan nu bepalen of het AI-systeem onder de transparantieverplichtingen van Artikel 50 valt.\n + Is er sprake van een AI-systeem dat:\n + - direct communiceert met mensen (zoals chatbots)?\n + - synthetische afbeeldingen, audio, video of tekst content genereert en manipuleert? Bijvoorbeeld een deepfake.\n + - aan emotieherkenning of biometrische categorisatie doet?\n" + simplifiedQuestion: "Transparantieverplichting" + category: risicogroep + subcategory: transparantieverplichting sources: - - source: Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + - source: Artikel 50 - Transparantieverplichting url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 - - source: Overweging 132 - transparantieverplichtingen - - source: Overweging 134 - transparantieverplichtingen - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst answers: - answer: Ja - nextQuestionId: "7.1" + nextQuestionId: "2.10" # uitzondering transparantieverplichting - answer: Nee - subresult: "Er is geen sprake van transparantieverplichtingen." labels: - - "geen transparantieverplichtingen" + - "geen transparantieverplichting" redirects: - - nextQuestionId: "8.0" - if: ('"geen open-source" in labels' || ('"open-source" in labels' && '"hoog-risico AI" in labels') || ('"open-source" in labels' && '"AI-model voor algemene doeleinden" in labels')) - - nextConclusionId: "15.3" - if: '"open-source" in labels && "geen hoog-risico AI" in labels' - - questionId: "7.1" - question: "Is er sprake van AI waarvan het bij wet is toegestaan om te gebruiken om strafbare feiten op te sporen, te voorkomen, te onderzoeken of te vervolgen?" - simplifiedQuestion: "Uitzondering transparantieverplichtingen" - category: transparantieverplichting + - nextConclusionId: "12.0.2" + if: '"aanbieder" in labels && "AI-systeem" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "12.0.4" + if: '"aanbieder" in labels && "AI-systeem" in labels && "geen hoog-risico AI" in labels' + - nextConclusionId: "12.1.2" + if: '"aanbieder" in labels && "AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels ' + - nextConclusionId: "12.1.4" + if: '"aanbieder" in labels && "AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels ' + - nextConclusionId: "13.0.2" + if: '"gebruiksverantwoordelijke" in labels && "AI-systeem" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "13.0.4" + if: '"gebruiksverantwoordelijke" in labels && "AI-systeem" in labels && "geen hoog-risico AI" in labels' + - nextConclusionId: "13.1.2" + if: '"gebruiksverantwoordelijke" in labels && "AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "13.1.4" + if: '"gebruiksverantwoordelijke" in labels && "AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels' + - nextConclusionId: "14.0.2" + if: '"aanbieder & gebruiksverantwoordelijke" in labels && "AI-systeem" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "14.0.4" + if: '"aanbieder & gebruiksverantwoordelijke" in labels && "AI-systeem" in labels && "geen hoog-risico AI" in labels' + - nextConclusionId: "14.1.2" + if: '"aanbieder & gebruiksverantwoordelijke" in labels && "AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "14.1.4" + if: '"aanbieder & gebruiksverantwoordelijke" in labels && "AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels' + +## Uitzondering Transparantieverplichting + - questionId: "2.10" + question: "Er is een uitzondering mogelijk op de transparantieverplichtingen. Is er sprake van AI waarvan het bij wet is toegestaan om te gebruiken om strafbare feiten op te sporen, te voorkomen, te onderzoeken of te vervolgen?" + simplifiedQuestion: "Uitzondering Transparantieverplichting" + category: risicogroep + subcategory: Uitzondering transparantieverplichting sources: - - source: Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + - source: Artikel 50 - Transparantieverplichting url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 answers: - answer: Ja - subresult: "Er is geen sprake van transparantieverplichtingen." - labels: - - "geen transparantieverplichtingen" - redirects: - - nextQuestionId: "8.0" - if: ('"geen open-source" in labels' || ('"open-source" in labels' && '"hoog-risico AI" in labels')) - - nextConclusionId: "15.3" - if: ('"open-source" in labels' && '"geen hoog-risico AI" in labels') - - answer: Nee - subresult: "Er is sprake van transparantieverplichtingen." - labels: - - "transparantieverplichtingen" - nextQuestionId: "8.0" - - ### check op entiteit/rol: aanbieder of gebruiksverantwoordelijke + uiteindelijke doorverwijzing naar verplichtingen - - questionId: "8.0" - question: "We gaan nu bepalen welke rol je hebt: aanbieder, gebruiksverantwoordelijke, of beide.\n\n Ga je een AI-systeem of een AI-model op de markt brengen of in gebruik stellen onder eigen naam of merk, al dan niet tegen betaling?" - simplifiedQuestion: "Aanbieder" - category: rol - answers: - - answer: Ja - subresult: "Je bent een aanbieder volgens de AI-verordening." labels: - - "aanbieder" + - "geen transparantieverplichting" redirects: - - nextConclusionId: "12.0.1" - if: '"AI-systeem" in labels && "hoog-risico AI" in labels && "transparantieverplichtingen" in labels' - nextConclusionId: "12.0.2" - if: '"AI-systeem" in labels && "hoog-risico AI" in labels && "geen transparantieverplichtingen" in labels' - - nextConclusionId: "12.0.3" - if: '"AI-systeem" in labels && "geen hoog-risico AI" in labels && "transparantieverplichtingen" in labels' + if: '"aanbieder" in labels && "AI-systeem" in labels && "hoog-risico AI" in labels' - nextConclusionId: "12.0.4" - if: '"AI-systeem" in labels && "geen hoog-risico AI" in labels && "geen transparantieverplichtingen" in labels' + if: '"aanbieder" in labels && "AI-systeem" in labels && "geen hoog-risico AI" in labels' - nextConclusionId: "12.1.2" - if: '"AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels && "transparantieverplichtingen" in labels' - - nextConclusionId: "12.1.3" - if: '"AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels && "geen transparantieverplichtingen" in labels' - - nextConclusionId: "12.1.6" - if: '"AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels && "transparantieverplichtingen" in labels' - - nextConclusionId: "12.1.7" - if: '"AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels && "geen transparantieverplichtingen" in labels' - - nextConclusionId: "12.2.1" - if: '"AI-model voor algemene doeleinden" in labels && "systeemrisico" in labels' - - nextConclusionId: "12.2.3" - if: '"AI-model voor algemene doeleinden" in labels && "geen systeemrisico" in labels && "geen open-source" in labels' - - nextConclusionId: "12.2.4" - if: '"AI-model voor algemene doeleinden" in labels && "geen systeemrisico" in labels && "open-source" in labels' - - answer: Nee - subresult: "Je bent geen aanbieder. We gaan kijken of je mogelijk een andere rol heeft." - nextQuestionId: "8.1" - - questionId: "8.1" - question: "Ben je een overheidsinstantie die een AI-systeem onder eigen verantwoordelijkheid gebruikt? (Het AI-systeem wordt niet gebruikt in het kader van een persoonlijke niet-beroepsactiviteit)." - simplifiedQuestion: "Gebruiksverantwoordelijke" - category: rol - sources: - - source: Overweging 13 - Overheidsinstanties, agentschappen of andere organen als gebruiksverantwoordelijke - answers: - - answer: Ja - subresult: "Je bent een gebruiksverantwoordelijke volgens de AI-verordening." - labels: - - "gebruiksverantwoordelijke" - redirects: - - nextQuestionId: "8.2" - if: '"hoog-risico AI" in labels' - - nextConclusionId: "13.0.3" - if: '"AI-systeem" in labels && "geen hoog-risico AI" in labels && "transparantieverplichtingen" in labels' + if: '"aanbieder" in labels && "AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels ' + - nextConclusionId: "12.1.4" + if: '"aanbieder" in labels && "AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels ' + - nextConclusionId: "13.0.2" + if: '"gebruiksverantwoordelijke" in labels && "AI-systeem" in labels && "hoog-risico AI" in labels' - nextConclusionId: "13.0.4" - if: '"AI-systeem" in labels && "geen hoog-risico AI" in labels && "geen transparantieverplichtingen" in labels' - - nextConclusionId: "13.1.6" - if: '"AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels && "transparantieverplichtingen" in labels' - - nextConclusionId: "13.1.7" - if: '"AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels && "geen transparantieverplichtingen" in labels' - - nextConclusionId: "13.2.1" - if: '"AI-model voor algemene doeleinden" in labels && "systeemrisico" in labels' - - nextConclusionId: "13.2.3" - if: '"AI-model voor algemene doeleinden" in labels && "geen systeemrisico" in labels' - - answer: Nee - nextConclusionId: "15.7" - - questionId: "8.2" - question: "Is een van de volgende situaties voor je van toepassing?\n - - Je zet je naam of merk op een AI-systeem met een hoog risico dat reeds in de handel is gebracht of in gebruik is gesteld (onverminderd contractuele regelingen waarin wordt bepaald dat de verplichtingen anders worden toegewezen)\n - - Je brengt een substantiële wijziging aan in een AI-systeem met een hoog risico dat reeds in de handel is gebracht of reeds in gebruik is gesteld, op zodanige wijze dat het systeem een AI-systeem met een hoog risico blijft op grond van Artikel 6?\n - - Je wijzigt het beoogde doel van een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, dat niet als een systeem met een hoog risico is geclassificeerd en reeds in de handel is gebracht of in gebruik is gesteld, op zodanige wijze dat het betrokken AI-systeem een AI-systeem met een hoog risico overeenkomstig Artikel 6 wordt?" - simplifiedQuestion: "Gebruiksverantwoordelijke en aanbieder" - category: rol - answers: - - answer: Ja - labels: - - "aanbieder" - redirects: - - nextConclusionId: "14.0.1" - if: '"AI-systeem" in labels && "hoog-risico AI" in labels && "transparantieverplichtingen" in labels' + if: '"gebruiksverantwoordelijke" in labels && "AI-systeem" in labels && "geen hoog-risico AI" in labels' + - nextConclusionId: "13.1.2" + if: '"gebruiksverantwoordelijke" in labels && "AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "13.1.4" + if: '"gebruiksverantwoordelijke" in labels && "AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels' - nextConclusionId: "14.0.2" - if: '"AI-systeem" in labels && "hoog-risico AI" in labels && "geen transparantieverplichtingen" in labels' - - nextConclusionId: "14.0.5" - if: '"AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels && "transparantieverplichtingen" in labels' - - nextConclusionId: "14.0.6" - if: '"AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels && "geen transparantieverplichtingen" in labels' + if: '"aanbieder & gebruiksverantwoordelijke" in labels && "AI-systeem" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "14.0.4" + if: '"aanbieder & gebruiksverantwoordelijke" in labels && "AI-systeem" in labels && "geen hoog-risico AI" in labels' + - nextConclusionId: "14.1.2" + if: '"aanbieder & gebruiksverantwoordelijke" in labels && "AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "14.1.4" + if: '"aanbieder & gebruiksverantwoordelijke" in labels && "AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels' - answer: Nee + labels: + - "transparantieverplichting" redirects: + - nextConclusionId: "12.0.1" + if: '"aanbieder" in labels && "AI-systeem" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "12.0.3" + if: '"aanbieder" in labels && "AI-systeem" in labels && "geen hoog-risico AI" in labels' + - nextConclusionId: "12.1.1" + if: '"aanbieder" in labels && "AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "12.1.3" + if: '"aanbieder" in labels && "AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels' - nextConclusionId: "13.0.1" - if: '"AI-systeem" in labels && "hoog-risico AI" in labels && "transparantieverplichtingen" in labels' - - nextConclusionId: "13.0.2" - if: '"AI-systeem" in labels && "hoog-risico AI" in labels && "geen transparantieverplichtingen" in labels' - - nextConclusionId: "13.1.2" - if: '"AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels && "transparantieverplichtingen" in labels' + if: '"gebruiksverantwoordelijke" in labels && "AI-systeem" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "13.0.3" + if: '"gebruiksverantwoordelijke" in labels && "AI-systeem" in labels && "geen hoog-risico AI" in labels' + - nextConclusionId: "13.1.1" + if: '"gebruiksverantwoordelijke" in labels && "AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels' - nextConclusionId: "13.1.3" - if: '"AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels && "geen transparantieverplichtingen" in labels' + if: '"gebruiksverantwoordelijke" in labels && "AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels' + - nextConclusionId: "14.0.1" + if: '"aanbieder & gebruiksverantwoordelijke" in labels && "AI-systeem" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "14.0.3" + if: '"aanbieder & gebruiksverantwoordelijke" in labels && "AI-systeem" in labels && "geen hoog-risico AI" in labels' + - nextConclusionId: "14.1.1" + if: '"aanbieder & gebruiksverantwoordelijke" in labels && "AI-systeem voor algemene doeleinden" in labels && "hoog-risico AI" in labels' + - nextConclusionId: "14.1.3" + if: '"aanbieder & gebruiksverantwoordelijke" in labels && "AI-systeem voor algemene doeleinden" in labels && "geen hoog-risico AI" in labels' - #### Buiten scope AI-verordening - - questionId: "9.0" - question: "Gebruik je een algoritme met impact (rechtsgevolgen voor de burger of classificatie van burgers of groepen) volgens categorie B van de Handreiking van het Algoritmeregister?" - simplifiedQuestion: "Impactvol algoritme" - category: publicatiecategorie_impactvol - sources: - - source: Handreiking Algoritmeregister - url: https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2023/12/Handreiking-Algoritmeregister-versie-1.0.pdf - answers: - - answer: Ja - nextQuestionId: "9.1" - - answer: Nee - labels: - - "niet-impactvol algoritme" - nextConclusionId: "15.6" - - questionId: "9.1" - question: "Valt de toepassing onder \xE9\xE9n van de uitzonderingsgronden categorie C of D van de Handreiking van het Algoritmeregister?" - simplifiedQuestion: "Uitzonderingsgronden Handreiking Algoritmeregister" - category: publicatiecategorie_impactvol +## Open-source "Zijn de broncodes en parameters openbaar voor eenieder?" + - questionId: "2.11" + question: "Wordt de toepassing onder een open of vrije licentie gedeeld? Zijn de broncodes en parameters openbaar voor eenieder?" + simplifiedQuestion: "Open of vrije licentie" + category: risicogroep + subcategory: open-source sources: - - source: Handreiking Algoritmeregister - url: https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2023/12/Handreiking-Algoritmeregister-versie-1.0.pdf + - source: Overweging 102 - Begrip open-source answers: - answer: Ja - subresult: "Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing. Je hoeft vanwege uitzonderingsgrond niet te publiceren in het register." - nextConclusionId: "15.5" labels: - - "impactvol algoritme" + - "open-source" + nextConclusionId: "12.2.2" - answer: Nee - nextConclusionId: "15.4" labels: - - "impactvol algoritme" + - "geen open-source" + nextConclusionId: "12.2.3" ### Conclusies conclusions: -###Conclusies 12.0.1 tm 12.2.3 voor aanbieders +###Conclusies 12.0.1 tm 12.1.2 voor aanbieders - conclusionId: "12.0.1" conclusion: "Je bent een aanbieder van een hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen. " - obligation: "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n + - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n - \n - Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n + - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n + Verplichtingen voor aanbieders en gebruiksverantwoordelijken van AI-systemen met transparantieverplichtingen (Artikel 50): \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten - en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n - \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." + en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n" sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 - source: Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 - - source: Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + - source: Artikel 17 - Systeem voor kwaliteitsbeheer + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1 + - source: Artikel 18 - Bewaring van documentatie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1 + - source: Artikel 19 - Automatisch gegenereerde logs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1 + - source: Artikel 20 - Corrigerende maatregelen en mededelingsverplichting + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1 + - source: Artikel 43 - Conformiteitsbeoordeling + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1 + - source: Artikel 47 - EU-conformiteitsverklaring + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1 + - source: Artikel 48 - CE-markering + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1 + - source: Artikel 49 - Registratie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1 + - source: Artikel 50 - Transparantieverplichtingen url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 - conclusionId: "12.0.2" conclusion: "Je bent een aanbieder van een hoog-risico AI-systeem." - obligation: "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n - \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n\n + - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n + - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n + - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n + - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n + - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n + - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n + - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n + - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n + - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n + - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n + - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n + - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n" sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 - source: Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + - source: Artikel 17 - Systeem voor kwaliteitsbeheer + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1 + - source: Artikel 18 - Bewaring van documentatie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1 + - source: Artikel 19 - Automatisch gegenereerde logs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1 + - source: Artikel 20 - Corrigerende maatregelen en mededelingsverplichting + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1 + - source: Artikel 43 - Conformiteitsbeoordeling + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1 + - source: Artikel 47 - EU-conformiteitsverklaring + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1 + - source: Artikel 48 - CE-markering + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1 + - source: Artikel 49 - Registratie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 - conclusionId: "12.0.3" conclusion: "Je bent een aanbieder van een niet-hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen." - obligation: "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld - dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde - en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext. - - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden - gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel - robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten - en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen voor aanbieders en gebruiksverantwoordelijken van AI-systemen met transparantieverplichtingen (Artikel 50): \n + - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld + dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde + en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n + - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden + gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel + robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten + en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n" sources: - - source: Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 + - source: Artikel 50 - Transparantieverplichtingen url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 - conclusionId: "12.0.4" conclusion: "Je bent een aanbieder van een niet-hoog-risico AI-systeem." - obligation: - "Er is geen sprake van een hoog risico. Dit betekent dat het AI-systeem niet in de risicovolle categorieen van de AI-verordening valt. \n - Wel moet deze AI-technologie uiteraard voldoen aan algemene veiligheidsstandaarden." - - - conclusionId: "12.1.2" + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n" + sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - conclusionId: "12.1.1" conclusion: "Je bent een aanbieder van een hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen." - obligation: "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n - \n - Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld - dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde - en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext. - - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden - gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel - robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten - en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n - \n - De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd:\n - \n - Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n + - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n + - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n + - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n + - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n + - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n + - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n + - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n + - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n + - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n + - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n + - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n + - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n + Verplichtingen voor aanbieders en gebruiksverantwoordelijken van AI-systemen met transparantieverplichtingen (Artikel 50): \n + - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld + dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde + en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n + - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden + gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel + robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten + en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n + + De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën \n - - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n - \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 - source: Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 - - source: Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + - source: Artikel 17 - Systeem voor kwaliteitsbeheer + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1 + - source: Artikel 18 - Bewaring van documentatie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1 + - source: Artikel 19 - Automatisch gegenereerde logs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1 + - source: Artikel 20 - Corrigerende maatregelen en mededelingsverplichting + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1 + - source: Artikel 43 - Conformiteitsbeoordeling + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1 + - source: Artikel 47 - EU-conformiteitsverklaring + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1 + - source: Artikel 48 - CE-markering + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1 + - source: Artikel 49 - Registratie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1 + - source: Artikel 50 - Transparantieverplichtingen url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - - conclusionId: "12.1.3" + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening + - conclusionId: "12.1.2" conclusion: "Je bent een aanbieder van een hoog-risico AI-systeem voor algemene doeleinden." - obligation: "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n - \n - De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd:\n - \n - Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n + - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n + - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n + - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n + - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n + - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n + - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n + - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n + - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n + - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n + - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n + - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n + - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n + + De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën \n - - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n - Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025.\n + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 - source: Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - source: Artikel 17 - Systeem voor kwaliteitsbeheer + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1 + - source: Artikel 18 - Bewaring van documentatie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1 + - source: Artikel 19 - Automatisch gegenereerde logs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1 + - source: Artikel 20 - Corrigerende maatregelen en mededelingsverplichting + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1 + - source: Artikel 43 - Conformiteitsbeoordeling + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1 + - source: Artikel 47 - EU-conformiteitsverklaring + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1 + - source: Artikel 48 - CE-markering + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1 + - source: Artikel 49 - Registratie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1 - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - - conclusionId: "12.1.6" + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening + - conclusionId: "12.1.3" conclusion: "Je bent een aanbieder van een niet-hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen." - obligation: "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld - dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde - en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext. - - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden - gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel - robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten - en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n - \n - De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd:\n - \n - Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen voor aanbieders en gebruiksverantwoordelijken van AI-systemen met transparantieverplichtingen (Artikel 50): \n + - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld + dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde + en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n + - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden + gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel + robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten + en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n + De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën \n - - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n - Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025." + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" sources: - - source: Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 + - source: Artikel 50 - Transparantieverplichtingen url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - - conclusionId: "12.1.7" + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening + - conclusionId: "12.1.4" conclusion: "Je bent een aanbieder van een niet-hoog-risico AI-systeem voor algemene doeleinden." - obligation: "De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd:\n - \n - Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n + De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - - informatie en dogitcumentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n + - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën \n - - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n - Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025." + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" sources: - - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden - url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 + - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening - conclusionId: "12.2.1" conclusion: "Je bent een aanbieder van een AI-model voor algemene doeleinden. Er is sprake van een systeemrisico." - obligation: "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n - - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën \n - - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n - \n - Artikel 55 - Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico: \n - - het uitvoeren van een modelevaluatie overeenkomstig gestandaardiseerde protocollen en instrumenten die de stand van de techniek weerspiegelen, met inbegrip van het uitvoeren en documenteren van tests gericht op het ontdekken van kwetsbaarheden van het model met als doel om systeemrisico’s in kaart te brengen en te beperken\n - - het beoordelen en beperken van mogelijke systeemrisico’s op Unieniveau, met inbegrip van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in de handel brengen of het gebruik van AI-modellen voor algemene doeleinden met een systeemrisico\n - - het bijhouden, documenteren en onverwijld rapporteren (aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten)) van relevante informatie over ernstige incidenten en mogelijke corrigerende maatregelen \n + obligation: " + Verplichtingen voor alle AI-modellen voor algemene doeleinden: \n + - Praktijkcodes (Artikel 56)\n\n + Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden (Artikel 53 en Artikel 54):\n + - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan.\n + - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren. \n + - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën. \n + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n + Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico (Artikel 55): \n + - het uitvoeren van een modelevaluatie overeenkomstig gestandaardiseerde protocollen en instrumenten die de stand van de techniek weerspiegelen, met inbegrip van het uitvoeren en documenteren van tests gericht op het ontdekken van kwetsbaarheden van het model met als doel om systeemrisico’s in kaart te brengen en te beperken.\n + - het beoordelen en beperken van mogelijke systeemrisico’s op Unieniveau, met inbegrip van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in de handel brengen of het gebruik van AI-modellen voor algemene doeleinden met een systeemrisico.\n + - het bijhouden, documenteren en onverwijld rapporteren (aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten)) van relevante informatie over ernstige incidenten en mogelijke corrigerende maatregelen. \n - het zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het AI-model voor algemene doeleinden en de fysieke infrastructuur van het model.\n - \n - Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025." + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" sources: - source: Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1 - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 - source: Artikel 55 - Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5730-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - - conclusionId: "12.2.3" - conclusion: "Je bent een aanbieder van een AI-model voor algemene doeleinden." - obligation: "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n - - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën \n - - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n - \n - Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025." + - source: Artikel 56 - Praktijkcodes + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5788-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening + - conclusionId: "12.2.2" + conclusion: "Je bent een aanbieder van een open-source AI-model voor algemene doeleinden." + obligation: " + Verplichtingen voor alle AI-modellen voor algemene doeleinden: \n + - Praktijkcodes (Artikel 56)\n\n + Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden (Artikel 53 en Artikel 54):\n + - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën. \n + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n + - Door overweging 104 voor open-source AI-modellen voor algemene doeleinden hoef je niet te voldoen aan: de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan. \n + - Door overweging 104 voor open-source AI-modellen voor algemene doeleinden hoef je niet te voldoen aan:hoef je niet te voldoen aan: informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren. \n + Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico (Artikel 55): \n + - het uitvoeren van een modelevaluatie overeenkomstig gestandaardiseerde protocollen en instrumenten die de stand van de techniek weerspiegelen, met inbegrip van het uitvoeren en documenteren van tests gericht op het ontdekken van kwetsbaarheden van het model met als doel om systeemrisico’s in kaart te brengen en te beperken.\n + - het beoordelen en beperken van mogelijke systeemrisico’s op Unieniveau, met inbegrip van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in de handel brengen of het gebruik van AI-modellen voor algemene doeleinden met een systeemrisico.\n + - het bijhouden, documenteren en onverwijld rapporteren (aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten)) van relevante informatie over ernstige incidenten en mogelijke corrigerende maatregelen. \n + - het zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het AI-model voor algemene doeleinden en de fysieke infrastructuur van het model.\n + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" sources: + - source: Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1 - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - - conclusionId: "12.2.4" - conclusion: "Je bent een aanbieder van een open-source AI-model voor algemene doeleinden." - obligation: "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n - - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën \n - - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n - \n - Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025." + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 + - source: Artikel 55 - Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5730-1-1 + - source: Artikel 56 - Praktijkcodes + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5788-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 104 - Transparantie-uitzonderingen open-source AI-modellen + - source: Overweging 179 - Ingangtreding verordening + - conclusionId: "12.2.3" + conclusion: "Je bent een aanbieder van een AI-model voor algemene doeleinden." + obligation: " + Verplichtingen voor alle AI-modellen voor algemene doeleinden: \n + - Praktijkcodes (Artikel 56)\n\n + Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden (Artikel 53 en Artikel 54):\n + - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan. In het geval van het label 'open-source' is er een uitzondering op deze verplichting (Overweging 104).\n + - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren. In het geval van het label 'open-source' is er een uitzondering op deze verplichting (Overweging 104).\n + - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën. \n + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n + Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico (Artikel 55): \n + - het uitvoeren van een modelevaluatie overeenkomstig gestandaardiseerde protocollen en instrumenten die de stand van de techniek weerspiegelen, met inbegrip van het uitvoeren en documenteren van tests gericht op het ontdekken van kwetsbaarheden van het model met als doel om systeemrisico’s in kaart te brengen en te beperken.\n + - het beoordelen en beperken van mogelijke systeemrisico’s op Unieniveau, met inbegrip van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in de handel brengen of het gebruik van AI-modellen voor algemene doeleinden met een systeemrisico.\n + - het bijhouden, documenteren en onverwijld rapporteren (aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten)) van relevante informatie over ernstige incidenten en mogelijke corrigerende maatregelen. \n + - het zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het AI-model voor algemene doeleinden en de fysieke infrastructuur van het model.\n + Geldig vanaf (Artikel 111 source: Overweging 179 - Ingangtreding verordening ):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" sources: + - source: Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1 - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 - -# Conclusies 13.0.1 tm 13.2.3 voor gebruiksverantwoordelijken + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 + - source: Artikel 55 - Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5730-1-1 + - source: Artikel 56 - Praktijkcodes + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5788-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening +# Conclusies 13.0.1 tm 13.2.2 voor gebruiksverantwoordelijken - conclusionId: "13.0.1" conclusion: "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen. " - obligation: "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - \n - Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n - \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n + - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n + - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n + - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n + - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n + - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n + - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n + - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n + - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n + - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n + - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n + - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n + - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n + Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen (Artikel 50): \n + - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n + - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n" sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 - source: Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1 - - source: Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + - source: Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1 + - source: Artikel 50 - Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + - source: Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1 + - source: Artikel 73 - Melding van ernstige incidenten + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1 + - source: Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 - conclusionId: "13.0.2" conclusion: "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem." - obligation: "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n + - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n + - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n + - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n + - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n + - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n + - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n + - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n + - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n + - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n + - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n + - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n + - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n" sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 - source: Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + - source: Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1 + - source: Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1 + - source: Artikel 73 - Melding van ernstige incidenten + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1 + - source: Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 - conclusionId: "13.0.3" conclusion: "Je bent een gebruiksverantwoordelijke van een niet-hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen." - obligation: "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen (Artikel 50): \n + - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n + - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n" sources: - - source: Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 + - source: Artikel 50 - Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 - conclusionId: "13.0.4" conclusion: "Je bent een gebruiksverantwoordelijke van een niet-hoog-risico AI-systeem." - obligation: "Er is geen sprake van een hoog risico. Dit betekent dat het AI-systeem niet in de risicovolle categorieen van de AI-verordening valt. \n - Wel moet deze AI-technologie uiteraard voldoen aan algemene veiligheidsstandaarden." - - conclusionId: "13.1.2" + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n" + sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - conclusionId: "13.1.1" conclusion: "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen." - obligation: "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening. - \n - Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n - \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n + - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n + - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n + - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n + - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n + - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n + - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n + - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n + - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n + - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n + - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n + - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n + - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n + Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen (Artikel 50): \n + - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n + - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n" sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 - source: Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1 - - source: Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + - source: Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1 + - source: Artikel 50 - Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - - conclusionId: "13.1.3" + - source: Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1 + - source: Artikel 73 - Melding van ernstige incidenten + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1 + - source: Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - conclusionId: "13.1.2" conclusion: "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem voor algemene doeleinden." - obligation: "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening. - \n - Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n - \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n + - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n + - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n + - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n + - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n + - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n + - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n + - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n + - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n + - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n + - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n + - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n + - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n" sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 - source: Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - - conclusionId: "13.1.6" + - source: Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1 + - source: Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1 + - source: Artikel 73 - Melding van ernstige incidenten + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1 + - source: Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - conclusionId: "13.1.3" conclusion: "Je bent een gebruiksverantwoordelijke van een niet-hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen." - obligation: "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen (Artikel 50): \n + - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n + - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n" sources: - - source: Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 + - source: Artikel 50 - Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - - conclusionId: "13.1.7" + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - conclusionId: "13.1.4" conclusion: "Je bent een gebruiksverantwoordelijke van een niet-hoog-risico AI-systeem voor algemene doeleinden." - obligation: "Er is geen sprake van een hoog risico. Dit betekent dat het AI-systeem niet in de risicovolle categorieen van de AI-verordening valt. - Doordat deze categorie niet genoemd wordt in de AI-verordening, gelden voor dit soort AI-technologie geen bijzondere wettelijke vereisten. - Wel moet deze AI-technologie uiteraard voldoen aan algemene veiligheidsstandaarden." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n" + sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening - conclusionId: "13.2.1" conclusion: "Je bent een gebruiksverantwoordelijke van een AI-model voor algemene doeleinden. Er is sprake van een systeemrisico." - obligation: "Als gebruiksverantwoordelijke van een AI-model voor algemene doeleinden gelden er geen verplichtingen vanuit het systeemrisico. + obligation: " + Verplichtingen voor alle AI-modellen voor algemene doeleinden: \n + - Praktijkcodes (Artikel 56)\n\n + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n + + Als gebruiksverantwoordelijke van een AI-model voor algemene doeleinden gelden er geen verplichtingen vanuit een mogelijk systeemrisico. Het is echter belangrijk om te realiseren dat als een AI-model voor algemene doeleinden verder wordt ontwikkeld het in een AI-systeem voor algemene doeleinden kan veranderen en er mogelijk minimale transparantieverplichtingen van toepassing zijn. - Daarnaast kan het systeem, afhankelijk van de specifieke toepassing, als een hoog-risico AI-systeem worden geclassificeerd. - Het is dus van groot belang om deze aspecten in overweging te nemen." + Daarnaast kan het systeem, afhankelijk van de specifieke toepassing, als een hoog-risico AI-systeem worden geclassificeerd." sources: - source: Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - - conclusionId: "13.2.3" - conclusion: "Je bent een gebruiksverantwoordelijke van een AI-model voor algemene doeleinden." - obligation: "Voor gebruiksverantwoordelijken van een AI-model voor algemene doeleinden, gelden er geen bijzondere vereisten vanuit de AI-verordening. - Het is echter belangrijk om te realiseren dat als een AI-model voor algemene doeleinden verder wordt ontwikkeld het in een AI-systeem voor algemene doeleinden kan veranderen en er mogelijk minimale transparantieverplichtingen van toepassing zijn. - Daarnaast kan het systeem, afhankelijk van de specifieke toepassing, als een hoog-risico AI-systeem worden geclassificeerd. - Het is dus van groot belang om deze aspecten in overweging te nemen." - sources: - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + - source: Artikel 56 - Praktijkcodes + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5788-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening -# Conclusies 14.0.1 tm 14.0.6 voor gebruiksverantwoordelijken && aanbieders + +# Conclusies 14.0.1 tm 14.1.2 voor gebruiksverantwoordelijken && aanbieders - conclusionId: "14.0.1" conclusion: "Je bent een gebruiksverantwoordelijke en aanbieder van een hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen." - obligation: "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n - \n - Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - \n - Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld - dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde - en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n - - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden - gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel - robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten - en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n - - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n - \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n + - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n + - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n + - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n + - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n + - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n + - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n + - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n + - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n + - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n + - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n + - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n + - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n + Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n + - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n + - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n + - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n + - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n + - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n + - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n + - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n + - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n + - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n + - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n + - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n + - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n + Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen (Artikel 50): \n + - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n + - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n" sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 - source: Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - source: Artikel 17 - Systeem voor kwaliteitsbeheer + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1 + - source: Artikel 18 - Bewaring van documentatie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1 + - source: Artikel 19 - Automatisch gegenereerde logs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1 + - source: Artikel 20 - Corrigerende maatregelen en mededelingsverplichting + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1 - source: Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1 - - source: Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + - source: Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1 + - source: Artikel 43 - Conformiteitsbeoordeling + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1 + - source: Artikel 47 - EU-conformiteitsverklaring + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1 + - source: Artikel 48 - CE-markering + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1 + - source: Artikel 49 - Registratie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1 + - source: Artikel 50 - Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst + - source: Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1 + - source: Artikel 73 - Melding van ernstige incidenten + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1 + - source: Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 - conclusionId: "14.0.2" conclusion: "Je bent een gebruiksverantwoordelijke en aanbieder van een hoog-risico AI-systeem." - obligation: "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n - \n - Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n + - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n + - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n + - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n + - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n + - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n + - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n + - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n + - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n + - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n + - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n + - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n + - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n + Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n + - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n + - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n + - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n + - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n + - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n + - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n + - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n + - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n + - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n + - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n + - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n + - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n" sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 - source: Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - source: Artikel 17 - Systeem voor kwaliteitsbeheer + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1 + - source: Artikel 18 - Bewaring van documentatie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1 + - source: Artikel 19 - Automatisch gegenereerde logs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1 + - source: Artikel 20 - Corrigerende maatregelen en mededelingsverplichting + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1 - source: Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - - conclusionId: "14.0.5" + - source: Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1 + - source: Artikel 43 - Conformiteitsbeoordeling + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1 + - source: Artikel 47 - EU-conformiteitsverklaring + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1 + - source: Artikel 48 - CE-markering + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1 + - source: Artikel 49 - Registratie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1 + - source: Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1 + - source: Artikel 73 - Melding van ernstige incidenten + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1 + - source: Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - conclusionId: "14.0.3" + conclusion: "Je bent een gebruiksverantwoordelijke en aanbieder van een niet-hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen (Artikel 50): \n + - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n + - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n" + sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 + - source: Artikel 50 - Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - conclusionId: "14.0.4" + conclusion: "Je bent een gebruiksverantwoordelijke en aanbieder van een niet-hoog-risico AI-systeem." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n" + sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - conclusionId: "14.1.1" conclusion: "Je bent een gebruiksverantwoordelijke en aanbieder van een hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen." - obligation: "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n - \n - Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening. - \n - Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld - dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde - en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n - - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden - gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel - robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten - en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n - - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n - \n - De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd:\n - \n - Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n + - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n + - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n + - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n + - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n + - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n + - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n + - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n + - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n + - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n + - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n + - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n + - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n + Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n + - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n + - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n + - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n + - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n + - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n + - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n + - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n + - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n + - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n + - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n + - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n + - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n + Verplichtingen voor aanbieders en gebruiksverantwoordelijken van AI-systemen met transparantieverplichtingen (Artikel 50): \n + - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld + dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde + en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n + - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden + gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel + robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten + en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n + De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën \n - - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n - Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025.\n - \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 - source: Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - source: Artikel 17 - Systeem voor kwaliteitsbeheer + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1 + - source: Artikel 18 - Bewaring van documentatie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1 + - source: Artikel 19 - Automatisch gegenereerde logs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1 + - source: Artikel 20 - Corrigerende maatregelen en mededelingsverplichting + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1 - source: Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1 - - source: Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen + - source: Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1 + - source: Artikel 43 - Conformiteitsbeoordeling + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1 + - source: Artikel 47 - EU-conformiteitsverklaring + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1 + - source: Artikel 48 - CE-markering + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1 + - source: Artikel 49 - Registratie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1 + - source: Artikel 50 - Transparantieverplichting url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - - conclusionId: "14.0.6" + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 + - source: Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1 + - source: Artikel 73 - Melding van ernstige incidenten + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1 + - source: Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening + - conclusionId: "14.1.2" conclusion: "Je bent een gebruiksverantwoordelijke en aanbieder van een hoog-risico AI-systeem voor algemene doeleinden." - obligation: "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n - \n - Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - \n - De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd:\n - \n - Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n + - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n + - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n + - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n + - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n + - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n + - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n + - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n + - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n + - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n + - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n + - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n + - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n + Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n + - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n + - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n + - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n + - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n + - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n + - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n + - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n + - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n + - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n + - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n + - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n + - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n + De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën \n - - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n - Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025.\n - \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 - source: Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - source: Artikel 17 - Systeem voor kwaliteitsbeheer + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1 + - source: Artikel 18 - Bewaring van documentatie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1 + - source: Artikel 19 - Automatisch gegenereerde logs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1 + - source: Artikel 20 - Corrigerende maatregelen en mededelingsverplichting + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1 - source: Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1 + - source: Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1 + - source: Artikel 43 - Conformiteitsbeoordeling + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1 + - source: Artikel 47 - EU-conformiteitsverklaring + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1 + - source: Artikel 48 - CE-markering + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1 + - source: Artikel 49 - Registratie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1 - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 - - source: Begrippenlijst Algoritmekader - url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - # Conclusies 15.0 tm 15.8 zijn overig - - conclusionId: "15.0" - conclusion: "Je gebruikt geen algoritme. De AI-verordening is niet van toepassing." + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 + - source: Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1 + - source: Artikel 73 - Melding van ernstige incidenten + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1 + - source: Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening + - conclusionId: "14.1.3" + conclusion: "Je bent een gebruiksverantwoordelijke en aanbieder van een niet-hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Verplichtingen voor aanbieders en gebruiksverantwoordelijken van AI-systemen met transparantieverplichtingen (Artikel 50): \n + - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld + dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde + en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n + - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden + gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel + robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten + en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n + De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n + - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n + - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n + - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën \n + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" + sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 + - source: Artikel 50 - Transparantieverplichting + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1 + - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening + - conclusionId: "14.1.4" + conclusion: "Je bent een gebruiksverantwoordelijke en aanbieder van een niet-hoog-risico AI-systeem voor algemene doeleinden." + obligation: " + Verplichtingen voor alle AI-systemen: \n + - AI-geletterdheid (Artikel 4)\n + - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n + Geldig vanaf (Artikel 111):\n + - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n + - Voor AI-systemen in gebruik die vóór 2 augustus 2026 zijn geïntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n + De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n + - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n + - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n + - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën \n + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" + sources: + - source: Artikel 4 - AI-geletterdheid + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1 + - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 + - source: Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening + - conclusionId: "14.2.1" + conclusion: "Je bent een aanbieder en gebruiksverantwoordelijke van een AI-model voor algemene doeleinden. Er is sprake van een systeemrisico." + obligation: " + Verplichtingen voor alle AI-modellen voor algemene doeleinden: \n + - Praktijkcodes (Artikel 56)\n\n + Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden (Artikel 53 en Artikel 54):\n + - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan.\n + - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren. \n + - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën. \n + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n + Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico (Artikel 55): \n + - het uitvoeren van een modelevaluatie overeenkomstig gestandaardiseerde protocollen en instrumenten die de stand van de techniek weerspiegelen, met inbegrip van het uitvoeren en documenteren van tests gericht op het ontdekken van kwetsbaarheden van het model met als doel om systeemrisico’s in kaart te brengen en te beperken.\n + - het beoordelen en beperken van mogelijke systeemrisico’s op Unieniveau, met inbegrip van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in de handel brengen of het gebruik van AI-modellen voor algemene doeleinden met een systeemrisico.\n + - het bijhouden, documenteren en onverwijld rapporteren (aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten)) van relevante informatie over ernstige incidenten en mogelijke corrigerende maatregelen. \n + - het zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het AI-model voor algemene doeleinden en de fysieke infrastructuur van het model.\n + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" + sources: + - source: Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1 + - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 + - source: Artikel 55 - Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5730-1-1 + - source: Artikel 56 - Praktijkcodes + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5788-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening + - conclusionId: "14.2.2" + conclusion: "Je bent een aanbieder en gebruiksverantwoordelijke van een AI-model voor algemene doeleinden." + obligation: " + Verplichtingen voor alle AI-modellen voor algemene doeleinden: \n + - Praktijkcodes (Artikel 56)\n\n + Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden (Artikel 53 en Artikel 54):\n + - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan.\n + - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren. \n + - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologieën. \n + - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n + Geldig vanaf (Artikel 111 en Overweging 179):\n + - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n + - Voor AI-modellen in gebruik die vóór 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n" + sources: + - source: Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1 + - source: Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1 + - source: Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1 + - source: Artikel 56 - Praktijkcodes + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5788-1-1 + - source: Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1 + - source: Overweging 179 - Ingangtreding verordening + +## Conclusies voor importeur (13) + - conclusionId: "15.0.1" + conclusion: "Je bent een importeur van een AI-systeem een hoog risico." + obligation: " + Verplichtingen voor importeur van een hoog risico AI-systeem (Artikel 23):\n + - Importeurs zorgen ervoor dat een AI-systeem met een hoog risico in overeenstemming is met de verordening voordat het in de handel wordt gebracht door na te gaan of de relevante conformiteitsbeoordelingsprocedure is uitgevoerd (artikel 43), de technische documentatie is opgesteld (artikel 11 en bijlage IV), de CE-markering is aangebracht en de EU-conformiteitsverklaring en gebruiksaanwijzingen aanwezig zijn (artikel 47), en of de aanbieder een gemachtigde heeft aangewezen (artikel 22, lid 1).\n + - Indien een importeur vermoedt dat het AI-systeem met een hoog risico niet in overeenstemming is met de verordening, vervalst is of vergezeld gaat van vervalste documenten, mag het systeem niet in de handel worden gebracht totdat het aan de eisen voldoet. Als het systeem een risico vormt (artikel 79, lid 1), moet de importeur de aanbieder, gemachtigden en markttoezichtautoriteiten informeren.\n + - Importeurs moeten hun naam, geregistreerde handelsnaam of merk en contactadres vermelden op de verpakking of in de bijgevoegde documentatie van het AI-systeem met een hoog risico.\n + - Importeurs zorgen ervoor dat de opslag- en vervoersomstandigheden van het AI-systeem met een hoog risico de naleving van de eisen van afdeling 2 niet in gevaar brengen.\n + - Importeurs moeten gedurende tien jaar een kopie bewaren van het door de aangemelde instantie afgegeven certificaat en, indien van toepassing, de gebruiksaanwijzing en de EU-conformiteitsverklaring (artikel 47).\n + - Bij verzoek van bevoegde autoriteiten moeten importeurs alle benodigde informatie en documentatie verstrekken ter staving van de naleving van de eisen van afdeling 2, in een voor de autoriteit begrijpelijke taal.\n + - Importeurs werken samen met bevoegde autoriteiten bij het nemen van maatregelen om de risico’s van het AI-systeem te verminderen en te beperken.\n" + sources: + - source: Artikel 11 - Technische documentatie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3472-1-1 + - source: Artikel 22 - Gemachtigden van aanbieders van AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4119-1-1 + - source: Artikel 23 - Verplichtingen van importeurs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - source: Artikel 43 - Conformiteitsbeoordeling + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1 + - source: Artikel 47 - EU-conformiteitsverklaring + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1 + - source: Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1 + - conclusionId: "15.0.3" + conclusion: "Je bent een importeur van een niet-hoog-risico AI-systeem." + obligation: "Er zijn geen verplichtingen voor importeurs van niet-hoog-risico AI-systemen, alleen voor hoog-risico." + sources: + - source: Artikel 23 - Verplichtingen van importeurs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - conclusionId: "15.1.1" + conclusion: "Je bent een importeur van een hoog risico AI-systeem voor algemene doeleinden." + obligation: " + Verplichtingen voor importeur van een hoog risico AI-systeem (Artikel 23):\n + - Importeurs zorgen ervoor dat een AI-systeem met een hoog risico in overeenstemming is met de verordening voordat het in de handel wordt gebracht door na te gaan of de relevante conformiteitsbeoordelingsprocedure is uitgevoerd (artikel 43), de technische documentatie is opgesteld (artikel 11 en bijlage IV), de CE-markering is aangebracht en de EU-conformiteitsverklaring en gebruiksaanwijzingen aanwezig zijn (artikel 47), en of de aanbieder een gemachtigde heeft aangewezen (artikel 22, lid 1).\n + - Indien een importeur vermoedt dat het AI-systeem met een hoog risico niet in overeenstemming is met de verordening, vervalst is of vergezeld gaat van vervalste documenten, mag het systeem niet in de handel worden gebracht totdat het aan de eisen voldoet. Als het systeem een risico vormt (artikel 79, lid 1), moet de importeur de aanbieder, gemachtigden en markttoezichtautoriteiten informeren.\n + - Importeurs moeten hun naam, geregistreerde handelsnaam of merk en contactadres vermelden op de verpakking of in de bijgevoegde documentatie van het AI-systeem met een hoog risico.\n + - Importeurs zorgen ervoor dat de opslag- en vervoersomstandigheden van het AI-systeem met een hoog risico de naleving van de eisen van afdeling 2 niet in gevaar brengen.\n + - Importeurs moeten gedurende tien jaar een kopie bewaren van het door de aangemelde instantie afgegeven certificaat en, indien van toepassing, de gebruiksaanwijzing en de EU-conformiteitsverklaring (artikel 47).\n + - Bij verzoek van bevoegde autoriteiten moeten importeurs alle benodigde informatie en documentatie verstrekken ter staving van de naleving van de eisen van afdeling 2, in een voor de autoriteit begrijpelijke taal.\n + - Importeurs werken samen met bevoegde autoriteiten bij het nemen van maatregelen om de risico’s van het AI-systeem te verminderen en te beperken.\n" + sources: + - source: Artikel 11 - Technische documentatie + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3472-1-1 + - source: Artikel 22 - Gemachtigden van aanbieders van AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4119-1-1 + - source: Artikel 23 - Verplichtingen van importeurs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - source: Artikel 43 - Conformiteitsbeoordeling + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1 + - source: Artikel 47 - EU-conformiteitsverklaring + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1 + - source: Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1 + - conclusionId: "15.1.3" + conclusion: "Je bent een importeur van een niet-hoog-risico AI-systeem voor algemene doeleinden." + obligation: "Er zijn geen verplichtingen voor importeurs van niet-hoog-risico AI-systemen voor algemene doeleinden, alleen voor hoog-risico." + sources: + - source: Artikel 23 - Verplichtingen van importeurs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - conclusionId: "15.2.1" + conclusion: "Je bent een importeur van een AI-model voor algemene doeleinden." + obligation: "Er zijn geen verplichtingen voor importeurs van AI-modellen voor algemene doeleinden, alleen voor hoog-risico AI-systemen." + sources: + - source: Artikel 23 - Verplichtingen van importeurs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + + +## Conclusies voor distributeur (14) + - conclusionId: "16.0.1" + conclusion: "Je bent een distributeur van een hoog-risico AI-systeem." + obligation: " + Verplichtingen voor distributeur van een hoog risico AI-systeem (Artikel 24):\n + - Distributeurs controleren of het AI-systeem met een hoog risico de vereiste CE-markering heeft, vergezeld gaat van de EU-conformiteitsverklaring en gebruiksinstructies, en of de aanbieder en importeur hun verplichtingen uit Artikel 16 (b en c) en Artikel 23 (3) hebben nageleefd.\n + - Wanneer een distributeur vermoedt dat een AI-systeem met een hoog risico niet voldoet aan de eisen, mag het systeem niet op de markt worden gebracht totdat het in overeenstemming is gebracht met de vereisten en de aanbieder of importeur moet worden geïnformeerd als het systeem een risico vormt (Artikel 79 (1)).\n + - Distributeurs zorgen ervoor dat de opslag- en vervoersomstandigheden van het AI-systeem met een hoog risico geen invloed hebben op de naleving van de eisen van afdeling 2.\n + - Wanneer een distributeur vermoedt dat een AI-systeem met een hoog risico niet voldoet aan de eisen na het op de markt te hebben gebracht, moet de distributeur corrigerende maatregelen nemen of zorgen dat de aanbieder/importeur dit doet, zoals het systeem uit de handel nemen of terugroepen, en de bevoegde autoriteiten informeren.\n + - Distributeurs moeten op verzoek van bevoegde autoriteiten de nodige informatie en documentatie verstrekken om aan te tonen dat het AI-systeem voldoet aan de eisen van afdeling 2.\n + - Distributeurs werken samen met de bevoegde autoriteiten met betrekking tot maatregelen die genomen worden om de risico's van het AI-systeem dat zij op de markt hebben aangeboden te verminderen of te beperken." + sources: + - source: Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - source: Artikel 24 - Verplichtingen van distributeurs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4246-1-1 + - source: Artikel 23 - Verplichtingen van importeurs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - source: Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1 + - conclusionId: "16.0.3" + conclusion: "Je bent een distributeur van een niet-hoog-risico AI-systeem." + obligation: "Er zijn geen verplichtingen voor distributeurs van niet-hoog-risico AI-systemen, alleen voor hoog-risico." + sources: + - source: Artikel 24 - Verplichtingen van distributeurs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4246-1-1 + - conclusionId: "16.1.1" + conclusion: "Je bent een distributeur van een hoog-risico AI-systeem voor algemene doeleinden." + obligation: " + Verplichtingen voor distributeur van een hoog risico AI-systeem (Artikel 24):\n + - Distributeurs controleren of het AI-systeem met een hoog risico de vereiste CE-markering heeft, vergezeld gaat van de EU-conformiteitsverklaring en gebruiksinstructies, en of de aanbieder en importeur hun verplichtingen uit Artikel 16 (b en c) en Artikel 23 (3) hebben nageleefd.\n + - Wanneer een distributeur vermoedt dat een AI-systeem met een hoog risico niet voldoet aan de eisen, mag het systeem niet op de markt worden gebracht totdat het in overeenstemming is gebracht met de vereisten en de aanbieder of importeur moet worden geïnformeerd als het systeem een risico vormt (Artikel 79 (1)).\n + - Distributeurs zorgen ervoor dat de opslag- en vervoersomstandigheden van het AI-systeem met een hoog risico geen invloed hebben op de naleving van de eisen van afdeling 2.\n + - Wanneer een distributeur vermoedt dat een AI-systeem met een hoog risico niet voldoet aan de eisen na het op de markt te hebben gebracht, moet de distributeur corrigerende maatregelen nemen of zorgen dat de aanbieder/importeur dit doet, zoals het systeem uit de handel nemen of terugroepen, en de bevoegde autoriteiten informeren.\n + - Distributeurs moeten op verzoek van bevoegde autoriteiten de nodige informatie en documentatie verstrekken om aan te tonen dat het AI-systeem voldoet aan de eisen van afdeling 2.\n + - Distributeurs werken samen met de bevoegde autoriteiten met betrekking tot maatregelen die genomen worden om de risico's van het AI-systeem dat zij op de markt hebben aangeboden te verminderen of te beperken." + sources: + - source: Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - source: Artikel 24 - Verplichtingen van distributeurs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4246-1-1 + - source: Artikel 23 - Verplichtingen van importeurs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1 + - source: Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1 + - conclusionId: "16.1.3" + conclusion: "Je bent een distributeur van een niet-hoog-risico AI-systeem voor algemene doeleinden" + obligation: "Er zijn geen verplichtingen voor distributeurs van niet-hoog-risico AI-systemen voor algemene doeleinden, alleen voor hoog-risico." + sources: + - source: Artikel 24 - Verplichtingen van distributeurs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4246-1-1 + - conclusionId: "16.2.1" + conclusion: "Je bent een distributeur van een AI-model voor algemene doeleinden" + obligation: "Er zijn geen verplichtingen voor distributeurs van AI-model voor algemene doeleinden, alleen voor hoog-risico AI-systemen. " + sources: + - source: Artikel 24 - Verplichtingen van distributeurs + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4246-1-1 + + +## COnclusies voor geen rol (15) + - conclusionId: "11.0" + conclusion: "Je hebt geantwoord dat er geen sprake is van een algoritme. Op basis van je antwoorden is het niet nodig om door te gaan naar Stap 2 – bepalen risicogroep. " obligation: "Houd je aan bestaande wet- en regelgeving (bijv. AVG wanneer je persoonsgegevens verwerkt)." - - conclusionId: "15.1" - conclusion: "Het is verboden om dit AI-systeem te gebruiken. Er is geen sprake van een uitzondering op de lijst van verboden AI-systemen." + - conclusionId: "11.1" + conclusion: "Het is verboden om dit AI-systeem of model te gebruiken." obligation: "Het is verboden om dit AI-systeem te gebruiken. Let op: dit verbod geldt vanaf 1 februari 2025." - - conclusionId: "15.2" - conclusion: "Er is sprake van een uitzondering op de lijst van verboden AI-systemen. Dit betekent dat je moet voldoen aan de verplichtingen voor hoog-risico AI-systemen." - obligation: - "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n - \n - Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - \n - Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n - De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n - De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030." sources: - - source: Artikel 5 - Verboden AI-praktijken - url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2808-1-1 - - conclusionId: "15.3" - conclusion: "Er is sprake van een uitzonderingsgrond. De AI-verordening is niet van toepassing." - obligation: "Er is geen sprake van een verplichting." - - conclusionId: "15.4" + - source: Artikel 5 - Verboden AI praktijken + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2816-1-1 + - conclusionId: "11.2" + conclusion: "De AI-verordening niet van toepassing, want je hebt een uitzonderingsgrond geselecteerd." + obligation: "Zorg ervoor dat het algoritme voldoet aan bestaande wet- en regelgeving (bijv. AVG wanneer het algoritme persoonsgegevens verwerkt)." + sources: + - source: Artikel 2 - Toepassingsgebied + url: https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e1978-1-1 + - conclusionId: "11.3" conclusion: "Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing." - obligation: "Omdat het een algoritme met impact betreft, dien je in algoritmeregister te publiceren." - - conclusionId: "15.5" + obligation: "Omdat het een algoritme met impact betreft, dien je in algoritmeregister te publiceren. Zorg ervoor dat het algoritme voldoet aan bestaande wet- en regelgeving (bijv. AVG wanneer het algoritme persoonsgegevens verwerkt)." + - conclusionId: "11.4" conclusion: "Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing." - obligation: "Je hoeft vanwege uitzonderingsgrond niet te publiceren in het register." - - conclusionId: "15.6" + obligation: "Je hoeft vanwege uitzonderingsgrond niet te publiceren in het algoritmeregister. Zorg ervoor dat het algoritme voldoet aan bestaande wet- en regelgeving (bijv. AVG wanneer het algoritme persoonsgegevens verwerkt)." + - conclusionId: "11.5" conclusion: "Het algoritme is niet impactvol en de AI-verordening is niet van toepassing." obligation: "Zorg ervoor dat het algoritme voldoet aan bestaande wet- en regelgeving (bijv. AVG wanneer het algoritme persoonsgegevens verwerkt)." - - conclusionId: "15.7" - conclusion: "Je bent geen aanbieder en geen gebruiksverantwoordelijke. Deze beslisboom is gemaakt voor alleen deze twee rollen. Controleer nog een keer goed of één van deze rollen misschien toch op jou van toepassing is." + - conclusionId: "11.6" + conclusion: "Je bent geen aanbieder, gebruiksverantwoordelijke, importeur of distributeur. De AI-verordening is alleen voor deze vier rollen van toepassing. Controleer nog een keer goed of één van deze rollen misschien toch op jou van toepassing is." obligation: "Er is geen sprake van een verplichting." diff --git a/frontend/src/assets/categories.json b/frontend/src/assets/categories.json index d48e9695..723f3e2f 100644 --- a/frontend/src/assets/categories.json +++ b/frontend/src/assets/categories.json @@ -1 +1 @@ -[{"questionId": "0", "topic": "Soort toepassing", "topic_details": "Definitie Algoritme"}, {"questionId": "1", "topic": "Soort toepassing", "topic_details": "AI-systeem, AI-model of AI-model voor algemene doeleinden"}, {"questionId": "1.0.1", "topic": "Open-source", "topic_details": "Open-source"}, {"questionId": "1.0.2", "topic": "Open-source", "topic_details": "Open-source"}, {"questionId": "2", "topic": "Publicatiecategorie", "topic_details": "Uitzonderingsgrond"}, {"questionId": "3.0", "topic": "Publicatiecategorie", "topic_details": "Verboden AI"}, {"questionId": "3.1", "topic": "Publicatiecategorie", "topic_details": "Uitzondering verboden AI"}, {"questionId": "4", "topic": "Publicatiecategorie", "topic_details": "Hoog risico AI (Veiligheidscomponent)"}, {"questionId": "5.0", "topic": "Publicatiecategorie", "topic_details": "Hoog risico AI (Bijlage 3)"}, {"questionId": "5.1.0", "topic": "Publicatiecategorie", "topic_details": "Uitzondering hoog risico AI"}, {"questionId": "5.1.1", "topic": "Publicatiecategorie", "topic_details": "Profilering"}, {"questionId": "6", "topic": "Systeemrisico", "topic_details": "Systeemrisico"}, {"questionId": "7", "topic": "Transparantieverplichtingen", "topic_details": "Transparantieverplichtingen"}, {"questionId": "8", "topic": "Rol", "topic_details": "Rol"}, {"questionId": "9", "topic": "Publicatiecategorie", "topic_details": "Impactvol"}, {"questionId": "12", "topic": "Conclusie", "topic_details": "Conclusie"}, {"questionId": "13", "topic": "Conclusie", "topic_details": "Conclusie"}, {"questionId": "14", "topic": "Conclusie", "topic_details": "Conclusie"}, {"questionId": "15", "topic": "Conclusie", "topic_details": "Conclusie"}] \ No newline at end of file +[{"questionId": "1.2", "category": "AI verordening van toepassing?", "subcategory": "Soort toepassing"}, {"questionId": "1.3", "category": "AI verordening van toepassing?", "subcategory": "Rol"}, {"questionId": "1.4", "category": "AI verordening van toepassing?", "subcategory": "Operationeel"}, {"questionId": "1.5", "category": "AI verordening van toepassing?", "subcategory": "Soort toepassing"}, {"questionId": "1.6", "category": "AI verordening van toepassing?", "subcategory": "Soort toepassing"}, {"questionId": "1.7", "category": "AI verordening van toepassing?", "subcategory": "Soort toepassing"}, {"questionId": "1.8", "category": "AI verordening van toepassing?", "subcategory": "Soort toepassing"}, {"questionId": "2", "category": "Welke risicogroep?", "subcategory": "Risicogroep"}, {"questionId": "2.4.1", "category": "Welke risicogroep?", "subcategory": "Conformiteitsbeoordeling"}, {"questionId": "2.4.2", "category": "Welke risicogroep?", "subcategory": "Conformiteitsbeoordeling"}, {"questionId": "2.8", "category": "Welke risicogroep?", "subcategory": "Systeemrisico"}, {"questionId": "2.9", "category": "Welke risicogroep?", "subcategory": "Transparantieverplichting"}, {"questionId": "2.10", "category": "Welke risicogroep?", "subcategory": "Transparantieverplichting"}, {"questionId": "2.11", "category": "Welke risicogroep?", "subcategory": "Open source"}, {"questionId": "10", "category": "Conclusie", "subcategory": "Conclusie"}, {"questionId": "11", "category": "Conclusie", "subcategory": "Conclusie"}, {"questionId": "12", "category": "Conclusie", "subcategory": "Conclusie"}, {"questionId": "13", "category": "Conclusie", "subcategory": "Conclusie"}, {"questionId": "14", "category": "Conclusie", "subcategory": "Conclusie"}, {"questionId": "15", "category": "Conclusie", "subcategory": "Conclusie"}, {"questionId": "16", "category": "Conclusie", "subcategory": "Conclusie"}] \ No newline at end of file diff --git a/frontend/src/assets/decision-tree.json b/frontend/src/assets/decision-tree.json index a2ae1e5d..f3e44b5c 100644 --- a/frontend/src/assets/decision-tree.json +++ b/frontend/src/assets/decision-tree.json @@ -1 +1 @@ -{"version": "1.0.0", "name": "Beslisboom AI Verordening", "questions": [{"questionId": "0", "question": "Bevat de (beoogde) toepassing een algoritme?", "simplifiedQuestion": "Algoritme", "category": "soort_toepassing", "sources": [{"source": "Aandacht voor Algoritmes, Algemene Rekenkamer, 2021", "url": "https://www.rekenkamer.nl/onderwerpen/algoritmes/documenten/rapporten/2021/01/26/aandacht-voor-algoritmes"}, {"source": "Handreiking Algoritmeregister", "url": "https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2023/12/Handreiking-Algoritmeregister-versie-1.0.pdf"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "subresult": "Er is sprake van een algoritme.", "nextQuestionId": "1.0"}, {"answer": "Nee", "labels": ["geen algoritme"], "nextConclusionId": "15.0"}]}, {"questionId": "1.0", "question": "Is de (beoogde) toepassing een AI-systeem?", "simplifiedQuestion": "AI-systeem", "category": "soort_toepassing", "sources": [{"source": "Overweging 12 - Begrip \"AI-systeem\""}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "nextQuestionId": "1.1"}, {"answer": "Nee", "nextQuestionId": "1.2"}]}, {"questionId": "1.1", "question": "Is de (beoogde) toepassing een AI-systeem voor algemene doeleinden?", "simplifiedQuestion": "AI-systeem voor algemene doeleinden", "category": "soort_toepassing", "sources": [{"source": "Overweging 12 - Begrip AI-systeem"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "subresult": "Er is sprake van een AI-systeem voor algemene doeleinden.", "labels": ["AI-systeem voor algemene doeleinden"], "nextQuestionId": "1.0.1"}, {"answer": "Nee", "subresult": "Er is sprake van een AI-systeem", "labels": ["AI-systeem"], "nextQuestionId": "1.0.1"}]}, {"questionId": "1.2", "question": "Is de (beoogde) toepassing een AI-model voor algemene doeleinden?", "simplifiedQuestion": "AI-model voor algemene doeleinden", "category": "soort_toepassing", "sources": [{"source": "Lid 63 - \"AI-model voor algemene doeleinden\""}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "labels": ["AI-model voor algemene doeleinden"], "nextQuestionId": "1.0.1"}, {"answer": "Nee", "nextQuestionId": "9.0"}]}, {"questionId": "1.0.1", "question": "Wordt de toepassing onder een open of vrije licentie gedeeld?", "simplifiedQuestion": "Open of vrije licentie", "category": "open_source", "sources": [{"source": "Overweging 102 - Begrip open-source"}], "answers": [{"answer": "Ja", "nextQuestionId": "1.0.2"}, {"answer": "Nee", "subresult": "Er is geen sprake van een open-source model.", "labels": ["geen open-source"], "nextQuestionId": "2.0"}]}, {"questionId": "1.0.2", "question": "Zijn de broncodes en parameters openbaar voor eenieder?", "simplifiedQuestion": "Openbare broncodes en parameters", "category": "open_source", "sources": [{"source": "Overweging 102 - Begrip open-source"}], "answers": [{"answer": "Ja", "subresult": "Er is sprake van een open-source model.", "labels": ["open-source"], "nextQuestionId": "2.0"}, {"answer": "Nee", "subresult": "Er is geen sprake van een open-source model.", "labels": ["geen open-source"], "nextQuestionId": "2.0"}]}, {"questionId": "2.0", "question": "We gaan nu bepalen of er sprake is van een uitzondering op de AI-verordening.\n\n Valt de (beoogde) toepassing onder een van de volgende categorieen? \n\n - AI-systemen die uitsluitend in de handel worden gebracht, in gebruik worden gesteld of, al dan niet gewijzigd, worden gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden \n - AI-systemen die niet in de Unie in de handel worden gebracht of in gebruik worden gesteld en waarvan de output in de Unie uitsluitend wordt gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden \n - overheidsinstanties in derde landen of internationale organisaties die binnen het toepassingsgebied van de AI-verordening vallen, wanneer deze instanties of organisaties AI-systemen gebruiken in het kader van internationale samenwerking of overeenkomsten met de Unie of een of meer lidstaten op het gebied van rechtshandhaving en justitie \n - onderzoeks-, test- of ontwikkelingsactiviteiten met betrekking tot AI-systemen of AI-modellen voor zij in de handel worden gebracht of in gebruik worden gesteld (testen onder re\u00eble omstandigheden valt hier niet onder) \n - AI-systemen of AI-modellen, met inbegrip van hun output, die specifiek zijn ontwikkeld en in gebruik worden gesteld met wetenschappelijk onderzoek en wetenschappelijke ontwikkeling als enig doel", "simplifiedQuestion": "Uitzondering AI-verordening", "category": "publicatiecategorie_risico", "sources": [{"source": "Artikel 2 - Toepassingsgebied", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e1978-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "labels": ["uitzondering van toepassing"], "nextConclusionId": "15.3"}, {"answer": "Nee", "subresult": "Er is geen sprake van een uitzonderingsgrond. De AI-verordening is van toepassing.", "redirects": [{"nextQuestionId": "3.0", "if": "\"AI-systeem\" in labels || \"AI-systeem voor algemene doeleinden\" in labels"}, {"nextQuestionId": "6.0", "if": "\"AI-model voor algemene doeleinden\" in labels"}]}]}, {"questionId": "3.0", "question": "We gaan nu bepalen of het AI-systeem onder een van de verboden systemen uit Artikel 5 van de AI-verordening valt.\n\n Betreft het een AI-systeem dat: \n\n - gebruik kan gaan maken van subliminale technieken om mensen onbewust of bewust kunnen manipuleren, waardoor ze beslissingen nemen die ze anders niet zouden hebben genomen?\n - gebruik kan gaan maken van kwetsbaarheden van individuen of specifieke groepen, zoals leeftijd, handicaps of sociale/economische omstandigheden, om het gedrag van die personen aanzienlijk te verstoren, wat kan leiden tot aanzienlijke schade bij henzelf of anderen?\n - gebruikt kan worden om natuurlijke personen of groepen gedurende een periode te evalueren of te classificeren op basis van hun sociale gedrag of afgeleide persoonlijke kenmerken? \n - gebruikt kan worden voor risicobeoordelingen van natuurlijke personen om het risico op crimineel gedrag te voorspellen, gebaseerd op profilering of persoonlijkheidskenmerken? (Dit geldt niet voor AI-systemen die worden gebruikt om menselijke beoordelingen te ondersteunen, gebaseerd op objectieve en verifieerbare feiten die rechtstreeks verband houden met criminele activiteiten) \n - gebruikt kan worden om databanken voor gezichtsherkenning aan te leggen of aan te vullen door willkeurige gezichtsafbeeldingen van internet of CCTV-beelden te scrapen? \n - gebruikt kan worden om emoties van een persoon op de werkplek of in het onderwijs af te leiden? (Dit is niet van toepassing als het gebruik van het AI-systeem is bedoeld voor medische- of veiligheidsdoeleinden)\n - gebruikt kan worden om natuurlijke personen individueel in categorie\u00ebn in te delen op basis van biometrische gegevens om ras, politieke opvattingen, lidmaatschap van een vakbond, religieuze of levensbeschouwelijke overtuigingen, seksleven of seksuele geaardheid af te leiden? (Dit verbod geldt niet voor het labelen of filteren van rechtmatig verkregen biometrische datasets, zoals afbeeldingen, op basis van biometrische gegevens, of voor categorisering van biometrische gegevens op het gebied van rechtshandhaving) \n - gebruikt kan worden als een biometrisch systeem in de publieke ruimte voor identificatie op afstand in real-time, met het oog op de rechtshandhaving?", "simplifiedQuestion": "Verboden AI", "category": "publicatiecategorie_risico", "sources": [{"source": "Artikel 5 - Verboden AI-praktijken", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2808-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "subresult": "Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. Er kan echter sprake zijn van een uitzondering.", "nextQuestionId": "3.1"}, {"answer": "Nee", "subresult": "Het AI-systeem is niet verboden. We gaan nu bepalen of er sprake is van een hoog-risico AI-systeem.", "nextQuestionId": "4.0"}]}, {"questionId": "3.1", "question": "Is er sprake van een van de volgende uitzonderingen?:\n\n - Er is sprake van een rechtshandhavingsactiviteit i.v.m. een specifiek misdrijf (terrorisme, mensenhandel, seksuele uitbuiting van kinderen en materiaal over seksueel misbruik van kinderen, illegale handel in verdovende middelen en psychotrope stoffen, illegale handel in wapens, munitie en explosieven, moord, zware mishandeling, illegale handel in menselijke organen en weefsels, illegale handel in nucleaire en radioactieve stoffen, ontvoering, wederrechtelijke vrijheidsberoving en gijzeling, misdrijven die onder de rechtsmacht van het Internationaal Strafhof vallen, kaping van vliegtuigen/schepen, verkrachting, milieucriminaliteit, georganiseerde of gewapende diefstal, sabotage, deelneming aan een criminale organisatie die betrokken is bij een of meer van de bovengenoemde misdrijven)\n - Er is sprake van gerichte opsporing van specifieke slachtoffers, ontvoering, mensenhandel en seksuele uitbuiting van mensen, vermiste personen; of het voorkomen van bedreigingen voor het leven of de fysieke veiligheid van personen of het reageren op de huidige of voorzienbare dreiging van een terreuraanslag", "simplifiedQuestion": "Uitzondering verboden AI", "category": "publicatiecategorie_risico", "sources": [{"source": "Overweging 33 - Uitzondering verboden AI-systeem"}, {"source": "Overweging 34 - Uitzondering verboden AI-systeem"}], "answers": [{"answer": "Ja", "subresult": "Er is sprake van een uitzondering op de lijst van verboden AI-systemen.", "labels": ["hoog-risico AI"], "nextConclusionId": "15.2"}, {"answer": "Nee", "labels": ["verboden AI"], "nextConclusionId": "15.1"}]}, {"questionId": "4.0", "question": "Is er sprake van een veiligheidscomponent als bedoeld in Bijlage I Sectie B van de AI-verordening?:\n\n - Verordening (EG) nr. 300/2008 inzake gemeenschappelijke regels op het gebied van de beveiliging van de burgerluchtvaart\n - Verordening (EU) nr. 168/2013 betreffende de goedkeuring van en het markttoezicht op twee- of driewielige voertuigen en vierwielers\n - Verordening (EU) nr. 167/2013 inzake de goedkeuring van en het markttoezicht op landbouw- en bosvoertuigen\n - Richtlijn 2014/90/EU inzake uitrusting van zeeschepen\n - Richtlijn 2016/797 betreffende de interoperabiliteit van het spoorwegsysteem in de Europese Unie\n - Verordening 2018/858 betreffende de goedkeuring van en het markttoezicht op motorvoertuigen en aanhangwagens daarvan en systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd\n - Verordening (EU) 2019/2144 betreffende de voorschriften voor de typegoedkeuring van motorvoertuigen en aanhangwagens daarvan en van systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd wat de algemene veiligheid ervan en de bescherming van de inzittenden van voertuigen en kwetsbare weggebruikers betreft\n - Verordening (EU) 2018/1139 inzake gemeenschappelijke regels op het gebied van burgerluchtvaart en tot oprichting van een Agentschap van de Europese Unie voor de veiligheid van de luchtvaart, voor zover het gaat om het ontwerp, de productie en het in de handel brengen van luchtvaartuigen, en hun motoren, propellors, onderdelen en apparatuur om het luchtvaartuig op afstand te besturen", "simplifiedQuestion": "Veiligheidscomponent Bijlage 1B", "category": "publicatiecategorie_risico", "sources": [{"source": "Bijlage 1 - Lijst van harmonisatiewetgeving van de Unie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-124-1"}, {"source": "Overweging 47 - Veiligheidscomponent"}, {"source": "Overweging 49 - Veiligheidscomponent"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "subresult": "Het AI-systeem wordt beschouwd als een hoog-risico AI systeem en moet voldoen aan bepaalde verplichtingen/vereisten.", "labels": ["hoog-risico AI"], "nextQuestionId": "7.0"}, {"answer": "Nee", "nextQuestionId": "4.1"}]}, {"questionId": "4.1", "question": "Is er sprake van een veiligheidscomponent als bedoeld in Bijlage I sectie A van de AI-verordening?:\n\n - Richtlijn 2006/42/EG betreffende machines\n - Richtlijn 2009/48/EG betreffende de veiligheid van speelgoed\n - Richtlijn 2013/53/EU betreffende pleziervaartuigen en waterscooters\n - Richtlijn 2014/33/EU betreffende de harmonisatie van de wetgevingen van de lidstaten inzake liften en veligheidscomponenten voor liften\n - Richtlijn 2014/43/EU betreffende de harmonisatie van de wetgevingen van de lidstaten inzake apparaten en beveiligingssystemen bedoeld voor gebruik op plaatsen waar ontploffingsgevaar kan heersen\n - Richtlijn 2014/53/EU betreffende de harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van radioapparatuur\n - Richtlijn 2014/68/EU betreffende de harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van drukapparatuur\n - Verordening 2016/424 betreffende kabelbaaninstallaties\n - Verordening (EU) 2016/425 betreffende persoonlijke beschermingsmiddelen\n - Verordening (EU) 2016/426 betreffende gasverbrandingstoestellen\n - Verordening (EU) 2017/745 betreffende medische hulpmiddelen\n - Verordening (EU) 2017/746 betreffende medische hulpmiddelen voor in-vitrodiagnostiek", "simplifiedQuestion": "Veiligheidscomponent Bijlage 1A", "category": "publicatiecategorie_risico", "sources": [{"source": "Bijlage 1 - Lijst van harmonisatiewetgeving van de Unie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-124-1"}, {"source": "Overweging 47 - Veiligheidscomponent"}, {"source": "Overweging 51 - Veiligheidscomponent"}], "answers": [{"answer": "Ja", "nextQuestionId": "4.2"}, {"answer": "Nee", "nextQuestionId": "5.0"}]}, {"questionId": "4.2", "question": "Moet het product waarvan het AI-systeem de veiligheidscomponent vormt een conformiteits-beoordeling door een derde partij laten uitgevoeren met het oog op het in de handel brengen of in gebruik stellen van dat product op grond van de in Bijlage I Sectie A opgenomen harmonisatiewetgeving van de Europese Unie?", "simplifiedQuestion": "Conformiteits-beoordeling", "category": "publicatiecategorie_risico", "sources": [{"source": "Overweging 50 - Conformiteitsbeoordelingsprocedure"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "subresult": "Het AI-systeem wordt beschouwd als een hoog-risico AI systeem en moet voldoen aan bepaalde verplichtingen/vereisten.", "labels": ["hoog-risico AI"], "nextQuestionId": "7.0"}, {"answer": "Nee", "nextQuestionId": "5.0"}]}, {"questionId": "5.0", "question": "We gaan nu bepalen of het AI-systeem onder een van de hoog-risico systemen uit Bijlage 3 van de AI-verordening valt. Betreft het een AI-systeem op een van de volgende gebieden? Beweeg je muis over de opties om te zien welke systemen hieronder vallen.\n - biometrie\n - kritieke infrastructuur\n - onderwijs en beroepsopleiding\n - werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid\n - toegang tot en gebruik van essentiele particuliere en publieke diensten en uitkeringen\n - rechtshandhavingsinstanties\n - migratie-, asiel- en grenstoezichtsbeheer\n - rechtsbedeling en democratische processen", "simplifiedQuestion": "Hoog-risico AI", "category": "publicatiecategorie_risico", "sources": [{"source": "Bijlage 3 - AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-127-1"}, {"source": "Overweging 54 - Biometrische identificatie op afstand"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "subresult": "Het AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Er kan sprake zijn van een uitzondering.", "nextQuestionId": "5.1.0"}, {"answer": "Nee", "labels": ["geen hoog-risico AI"], "nextQuestionId": "7.0"}]}, {"questionId": "5.1.0", "question": "We gaan nu bepalen of er sprake is van een uitzondering op de lijst van hoog-risico AI systemen.\n Bent u een aanbieder van een AI-systeem dat is bedoeld voor een van de volgende doeleinden?\n - Het uitvoeren van een beperkte procedurele taak waarbij er geen significant risico is op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen?\n - Het verbeteren van het resultaat van een eerder voltooide menselijke activiteit en waarbij er geen significant risico is op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen?\n - Het opsporen van besluitvormingspatronen of afwijkingen van eerdere besluitvormingspatronen en waarbij het niet bedoeld is om de eerder voltooide menselijke beoordeling zonder behoorlijke menselijke toetsing te vervangen of te be\u00efnvloeden?\n - Het uitvoeren van een voorbereidende taak voor een beoordeling die relevant is voor de in bijlage III vermelde gebruiksgevallen?", "simplifiedQuestion": "Uitzondering hoog-risico AI", "category": "publicatiecategorie_risico", "sources": [{"source": "Bijlage 3 - AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-127-1"}, {"source": "Overweging 53 - Uitzonderingen hoog risico"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "nextQuestionId": "5.1.1"}, {"answer": "Nee", "subresult": "Het systeem valt niet onder een van de uitzonderingen. Het blijft beschouwd als een hoog-risico AI-systeem.", "labels": ["hoog-risico AI"], "nextQuestionId": "7.0"}]}, {"questionId": "5.1.1", "question": "Voert het AI-systeem profilering van natuurlijke personen uit? Bij profilering is er altijd sprake van een hoog risico.", "simplifiedQuestion": "Profilering", "category": "publicatiecategorie_risico", "sources": [{"source": "Overweging 53 - Uitzonderingen hoog risico"}], "answers": [{"answer": "Ja", "subresult": "Het AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem. Het zou dan moeten voldoen aan bepaalde vereisten.", "labels": ["hoog-risico AI"], "nextQuestionId": "7.0"}, {"answer": "Nee", "subresult": "Het is mogelijk dat het AI-systeem toch geen hoog-risico systeem is. Het kan echter zijn dat het wel aan bepaalde transparantieverplichtingen moet voldoen.", "labels": ["geen hoog-risico AI"], "nextQuestionId": "7.0"}]}, {"questionId": "6.0", "question": "We gaan nu bepalen of er sprake is van een systeemrisico. \n\n Is er sprake van een cumulatieve hoeveelheid rekenkracht van FLOPs groter dan 10^25?\n\n - FLOPs zijn floating point operations per second.\n - FLOPs is een eenheid die wordt gebruikt om de rekenkracht van CPU\u2019s aan te duiden.\n - CPUs zijn Central Processing Units.\n - Dit is de centrale verwerkingseenheid van een computer, smartphone of tablet. De CPU voert het rekenwerk uit waardoor programma\u2019s draaien en hardware wordt aangestuurd.", "simplifiedQuestion": "Systeemrisico", "category": "systeemrisico", "sources": [{"source": "Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1"}, {"source": "Overweging 110 - Classificatie systeemrisico"}, {"source": "Overweging 111 - Classificatie systeemrisico"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "subresult": "Er is sprake van een systeemrisico", "labels": ["systeemrisico"], "nextQuestionId": "8.0"}, {"answer": "Nee", "subresult": "Er is geen sprake van een systeemrisico", "labels": ["geen systeemrisico"], "nextQuestionId": "8.0"}]}, {"questionId": "7.0", "question": "We gaan nu bepalen of het AI-systeem onder de transparantieverplichtingen van Artikel 50 valt.\n\n Is er sprake van een AI-systeem dat:\n\n - direct communiceert met mensen (zoals chatbots)?\n - synthetische afbeeldingen, audio, video of tekst content genereert en manipuleert? Bijvoorbeeld een deepfake.\n - aan emotieherkenning of biometrische categorisatie doet?", "simplifiedQuestion": "transparantieverplichtingen", "category": "transparantieverplichting", "sources": [{"source": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Overweging 132 - transparantieverplichtingen"}, {"source": "Overweging 134 - transparantieverplichtingen"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "nextQuestionId": "7.1"}, {"answer": "Nee", "subresult": "Er is geen sprake van transparantieverplichtingen.", "labels": ["geen transparantieverplichtingen"], "redirects": [{"nextQuestionId": "8.0", "if": "('\"geen open-source\" in labels' || ('\"open-source\" in labels' && '\"hoog-risico AI\" in labels') || ('\"open-source\" in labels' && '\"AI-model voor algemene doeleinden\" in labels'))"}, {"nextConclusionId": "15.3", "if": "('\"open-source\" in labels' && '\"geen hoog-risico AI\" in labels')"}]}]}, {"questionId": "7.1", "question": "Is er sprake van AI waarvan het bij wet is toegestaan om te gebruiken om strafbare feiten op te sporen, te voorkomen, te onderzoeken of te vervolgen?", "simplifiedQuestion": "Uitzondering transparantieverplichtingen", "category": "transparantieverplichting", "sources": [{"source": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}], "answers": [{"answer": "Ja", "subresult": "Er is geen sprake van transparantieverplichtingen.", "labels": ["geen transparantieverplichtingen"], "redirects": [{"nextQuestionId": "8.0", "if": "('\"geen open-source\" in labels' || ('\"open-source\" in labels' && '\"hoog-risico AI\" in labels'))"}, {"nextConclusionId": "15.3", "if": "('\"open-source\" in labels' && '\"geen hoog-risico AI\" in labels')"}]}, {"answer": "Nee", "subresult": "Er is sprake van transparantieverplichtingen.", "labels": ["transparantieverplichtingen"], "nextQuestionId": "8.0"}]}, {"questionId": "8.0", "question": "We gaan nu bepalen welke rol je hebt: aanbieder, gebruiksverantwoordelijke, of beide.\n\n Ga je een AI-systeem of een AI-model op de markt brengen of in gebruik stellen onder eigen naam of merk, al dan niet tegen betaling?", "simplifiedQuestion": "Aanbieder", "category": "rol", "answers": [{"answer": "Ja", "subresult": "Je bent een aanbieder volgens de AI-verordening.", "labels": ["aanbieder"], "redirects": [{"nextConclusionId": "12.0.1", "if": "\"AI-systeem\" in labels && \"hoog-risico AI\" in labels && \"transparantieverplichtingen\" in labels"}, {"nextConclusionId": "12.0.2", "if": "\"AI-systeem\" in labels && \"hoog-risico AI\" in labels && \"geen transparantieverplichtingen\" in labels"}, {"nextConclusionId": "12.0.3", "if": "\"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels && \"transparantieverplichtingen\" in labels"}, {"nextConclusionId": "12.0.4", "if": "\"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels && \"geen transparantieverplichtingen\" in labels"}, {"nextConclusionId": "12.1.2", "if": "\"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels && \"transparantieverplichtingen\" in labels"}, {"nextConclusionId": "12.1.3", "if": "\"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels && \"geen transparantieverplichtingen\" in labels"}, {"nextConclusionId": "12.1.6", "if": "\"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels && \"transparantieverplichtingen\" in labels"}, {"nextConclusionId": "12.1.7", "if": "\"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels && \"geen transparantieverplichtingen\" in labels"}, {"nextConclusionId": "12.2.1", "if": "\"AI-model voor algemene doeleinden\" in labels && \"systeemrisico\" in labels"}, {"nextConclusionId": "12.2.3", "if": "\"AI-model voor algemene doeleinden\" in labels && \"geen systeemrisico\" in labels && \"geen open-source\" in labels"}, {"nextConclusionId": "12.2.4", "if": "\"AI-model voor algemene doeleinden\" in labels && \"geen systeemrisico\" in labels && \"open-source\" in labels"}]}, {"answer": "Nee", "subresult": "Je bent geen aanbieder. We gaan kijken of je mogelijk een andere rol heeft.", "nextQuestionId": "8.1"}]}, {"questionId": "8.1", "question": "Ben je een overheidsinstantie die een AI-systeem onder eigen verantwoordelijkheid gebruikt? (Het AI-systeem wordt niet gebruikt in het kader van een persoonlijke niet-beroepsactiviteit).", "simplifiedQuestion": "Gebruiksverantwoordelijke", "category": "rol", "sources": [{"source": "Overweging 13 - Overheidsinstanties, agentschappen of andere organen als gebruiksverantwoordelijke"}], "answers": [{"answer": "Ja", "subresult": "Je bent een gebruiksverantwoordelijke volgens de AI-verordening.", "labels": ["gebruiksverantwoordelijke"], "redirects": [{"nextQuestionId": "8.2", "if": "\"hoog-risico AI\" in labels"}, {"nextConclusionId": "13.0.3", "if": "\"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels && \"transparantieverplichtingen\" in labels"}, {"nextConclusionId": "13.0.4", "if": "\"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels && \"geen transparantieverplichtingen\" in labels"}, {"nextConclusionId": "13.1.6", "if": "\"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels && \"transparantieverplichtingen\" in labels"}, {"nextConclusionId": "13.1.7", "if": "\"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels && \"geen transparantieverplichtingen\" in labels"}, {"nextConclusionId": "13.2.1", "if": "\"AI-model voor algemene doeleinden\" in labels && \"systeemrisico\" in labels"}, {"nextConclusionId": "13.2.3", "if": "\"AI-model voor algemene doeleinden\" in labels && \"geen systeemrisico\" in labels"}]}, {"answer": "Nee", "nextConclusionId": "15.7"}]}, {"questionId": "8.2", "question": "Is een van de volgende situaties voor je van toepassing?\n - Je zet je naam of merk op een AI-systeem met een hoog risico dat reeds in de handel is gebracht of in gebruik is gesteld (onverminderd contractuele regelingen waarin wordt bepaald dat de verplichtingen anders worden toegewezen)\n - Je brengt een substanti\u00eble wijziging aan in een AI-systeem met een hoog risico dat reeds in de handel is gebracht of reeds in gebruik is gesteld, op zodanige wijze dat het systeem een AI-systeem met een hoog risico blijft op grond van Artikel 6?\n - Je wijzigt het beoogde doel van een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, dat niet als een systeem met een hoog risico is geclassificeerd en reeds in de handel is gebracht of in gebruik is gesteld, op zodanige wijze dat het betrokken AI-systeem een AI-systeem met een hoog risico overeenkomstig Artikel 6 wordt?", "simplifiedQuestion": "Gebruiksverantwoordelijke en aanbieder", "category": "rol", "answers": [{"answer": "Ja", "labels": ["aanbieder + gebruiksverantwoordelijke"], "redirects": [{"nextConclusionId": "14.0.1", "if": "\"AI-systeem\" in labels && \"hoog-risico AI\" in labels && \"transparantieverplichtingen\" in labels"}, {"nextConclusionId": "14.0.2", "if": "\"AI-systeem\" in labels && \"hoog-risico AI\" in labels && \"geen transparantieverplichtingen\" in labels"}, {"nextConclusionId": "14.0.5", "if": "\"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels && \"transparantieverplichtingen\" in labels"}, {"nextConclusionId": "14.0.6", "if": "\"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels && \"geen transparantieverplichtingen\" in labels"}]}, {"answer": "Nee", "redirects": [{"nextConclusionId": "13.0.1", "if": "\"AI-systeem\" in labels && \"hoog-risico AI\" in labels && \"transparantieverplichtingen\" in labels"}, {"nextConclusionId": "13.0.2", "if": "\"AI-systeem\" in labels && \"hoog-risico AI\" in labels && \"geen transparantieverplichtingen\" in labels"}, {"nextConclusionId": "13.1.2", "if": "\"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels && \"transparantieverplichtingen\" in labels"}, {"nextConclusionId": "13.1.3", "if": "\"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels && \"geen transparantieverplichtingen\" in labels"}]}]}, {"questionId": "9.0", "question": "Gebruik je een algoritme met impact (rechtsgevolgen voor de burger of classificatie van burgers of groepen) volgens categorie B van de Handreiking van het Algoritmeregister?", "simplifiedQuestion": "Impactvol algoritme", "category": "publicatiecategorie_impactvol", "sources": [{"source": "Handreiking Algoritmeregister", "url": "https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2023/12/Handreiking-Algoritmeregister-versie-1.0.pdf"}], "answers": [{"answer": "Ja", "nextQuestionId": "9.1"}, {"answer": "Nee", "labels": ["niet-impactvol algoritme"], "nextConclusionId": "15.6"}]}, {"questionId": "9.1", "question": "Valt de toepassing onder \u00e9\u00e9n van de uitzonderingsgronden categorie C of D van de Handreiking van het Algoritmeregister?", "simplifiedQuestion": "Uitzonderingsgronden Handreiking Algoritmeregister", "category": "publicatiecategorie_impactvol", "sources": [{"source": "Handreiking Algoritmeregister", "url": "https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2023/12/Handreiking-Algoritmeregister-versie-1.0.pdf"}], "answers": [{"answer": "Ja", "subresult": "Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing. Je hoeft vanwege uitzonderingsgrond niet te publiceren in het register.", "nextConclusionId": "15.5", "labels": ["impactvol algoritme"]}, {"answer": "Nee", "nextConclusionId": "15.4", "labels": ["impactvol algoritme"]}]}], "conclusions": [{"conclusionId": "12.0.1", "conclusion": "Je bent een aanbieder van een hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen. ", "obligation": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n \n Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "12.0.2", "conclusion": "Je bent een aanbieder van een hoog-risico AI-systeem.", "obligation": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "12.0.3", "conclusion": "Je bent een aanbieder van een niet-hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext. - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.", "sources": [{"source": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "12.0.4", "conclusion": "Je bent een aanbieder van een niet-hoog-risico AI-systeem.", "obligation": "Er is geen sprake van een hoog risico. Dit betekent dat het AI-systeem niet in de risicovolle categorieen van de AI-verordening valt. \n Wel moet deze AI-technologie uiteraard voldoen aan algemene veiligheidsstandaarden."}, {"conclusionId": "12.1.2", "conclusion": "Je bent een aanbieder van een hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n \n Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext. - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n \n De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd:\n \n Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "12.1.3", "conclusion": "Je bent een aanbieder van een hoog-risico AI-systeem voor algemene doeleinden.", "obligation": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n \n De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd:\n \n Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "12.1.6", "conclusion": "Je bent een aanbieder van een niet-hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext. - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n \n De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd:\n \n Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025.", "sources": [{"source": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "12.1.7", "conclusion": "Je bent een aanbieder van een niet-hoog-risico AI-systeem voor algemene doeleinden.", "obligation": "De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd:\n \n Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en dogitcumentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025.", "sources": [{"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "12.2.1", "conclusion": "Je bent een aanbieder van een AI-model voor algemene doeleinden. Er is sprake van een systeemrisico.", "obligation": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n \n Artikel 55 - Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico: \n - het uitvoeren van een modelevaluatie overeenkomstig gestandaardiseerde protocollen en instrumenten die de stand van de techniek weerspiegelen, met inbegrip van het uitvoeren en documenteren van tests gericht op het ontdekken van kwetsbaarheden van het model met als doel om systeemrisico\u2019s in kaart te brengen en te beperken\n - het beoordelen en beperken van mogelijke systeemrisico\u2019s op Unieniveau, met inbegrip van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in de handel brengen of het gebruik van AI-modellen voor algemene doeleinden met een systeemrisico\n - het bijhouden, documenteren en onverwijld rapporteren (aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten)) van relevante informatie over ernstige incidenten en mogelijke corrigerende maatregelen \n - het zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het AI-model voor algemene doeleinden en de fysieke infrastructuur van het model.\n \n Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025.", "sources": [{"source": "Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 55 - Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5730-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "12.2.3", "conclusion": "Je bent een aanbieder van een AI-model voor algemene doeleinden.", "obligation": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n \n Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025.", "sources": [{"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "12.2.4", "conclusion": "Je bent een aanbieder van een open-source AI-model voor algemene doeleinden.", "obligation": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n \n Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025.", "sources": [{"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}]}, {"conclusionId": "13.0.1", "conclusion": "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen. ", "obligation": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n \n Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "13.0.2", "conclusion": "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem.\"", "obligation": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "13.0.3", "conclusion": "Je bent een gebruiksverantwoordelijke van een niet-hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.", "sources": [{"source": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}]}, {"conclusionId": "13.0.4", "conclusion": "Je bent een gebruiksverantwoordelijke van een niet-hoog-risico AI-systeem.", "obligation": "Er is geen sprake van een hoog risico. Dit betekent dat het AI-systeem niet in de risicovolle categorieen van de AI-verordening valt. \n Wel moet deze AI-technologie uiteraard voldoen aan algemene veiligheidsstandaarden."}, {"conclusionId": "13.1.2", "conclusion": "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening. \n Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "13.1.3", "conclusion": "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem voor algemene doeleinden.", "obligation": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening. \n Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "13.1.6", "conclusion": "Je bent een gebruiksverantwoordelijke van een niet-hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.", "sources": [{"source": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "13.1.7", "conclusion": "Je bent een gebruiksverantwoordelijke van een niet-hoog-risico AI-systeem voor algemene doeleinden.", "obligation": "Er is geen sprake van een hoog risico. Dit betekent dat het AI-systeem niet in de risicovolle categorieen van de AI-verordening valt. Doordat deze categorie niet genoemd wordt in de AI-verordening, gelden voor dit soort AI-technologie geen bijzondere wettelijke vereisten. Wel moet deze AI-technologie uiteraard voldoen aan algemene veiligheidsstandaarden."}, {"conclusionId": "13.2.1", "conclusion": "Je bent een gebruiksverantwoordelijke van een AI-model voor algemene doeleinden. Er is sprake van een systeemrisico.", "obligation": "Als gebruiksverantwoordelijke van een AI-model voor algemene doeleinden gelden er geen verplichtingen vanuit het systeemrisico.", "sources": [{"source": "Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "13.2.3", "conclusion": "Je bent een gebruiksverantwoordelijke van een AI-model voor algemene doeleinden.", "obligation": "Voor gebruiksverantwoordelijken van een AI-model voor algemene doeleinden, gelden er geen bijzondere vereisten vanuit de AI-verordening.", "sources": [{"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "14.0.1", "conclusion": "Je bent een gebruiksverantwoordelijke en aanbieder van een hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n \n Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n \n Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "14.0.2", "conclusion": "Je bent een gebruiksverantwoordelijke en aanbieder van een hoog-risico AI-systeem.", "obligation": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n \n Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "14.0.5", "conclusion": "Je bent een gebruiksverantwoordelijke en aanbieder van een hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n \n Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening. \n Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen: \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n \n De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd:\n \n Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 50 - transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "14.0.6", "conclusion": "Je bent een gebruiksverantwoordelijke en aanbieder van een hoog-risico AI-systeem voor algemene doeleinden.", "obligation": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.\n \n Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n \n De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd:\n \n Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden:\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n Let op: de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden gelden vanaf 1 augustus 2025.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}]}, {"conclusionId": "15.0", "conclusion": "Je gebruikt geen algoritme. De AI-verordening is niet van toepassing.", "obligation": "Houd je aan bestaande wet- en regelgeving (bijv. AVG wanneer je persoonsgegevens verwerkt)."}, {"conclusionId": "15.1", "conclusion": "Het is verboden om dit AI-systeem te gebruiken. Er is geen sprake van een uitzondering op de lijst van verboden AI-systemen.", "obligation": "Het is verboden om dit AI-systeem te gebruiken. Let op: dit verbod geldt vanaf 1 februari 2025."}, {"conclusionId": "15.2", "conclusion": "Er is sprake van een uitzondering op de lijst van verboden AI-systemen. Dit betekent dat je moet voldoen aan de verplichtingen voor hoog-risico AI-systemen.", "obligation": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico: \n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n \n Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n \n Let op: de verplichtingen voor hoog-risico AI-systemen gelden vanaf 1 augustus 2026.\n De verplichtingen voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen gelden vanaf 1 augustus 2027.\n De verplichtingen voor hoog-risico AI-systemen gebruikt door overheidsorganisaties die al voor inwerktreding in gebruik waren gelden vanaf 1 augustus 2030.", "sources": [{"source": "Artikel 5 - Verboden AI-praktijken", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2808-1-1"}]}, {"conclusionId": "15.3", "conclusion": "Er is sprake van een uitzonderingsgrond. De AI-verordening is niet van toepassing.", "obligation": "Er is geen sprake van een verplichting."}, {"conclusionId": "15.4", "conclusion": "Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing.", "obligation": "Omdat het een algoritme met impact betreft, dien je in algoritmeregister te publiceren."}, {"conclusionId": "15.5", "conclusion": "Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing.", "obligation": "Je hoeft vanwege uitzonderingsgrond niet te publiceren in het register."}, {"conclusionId": "15.6", "conclusion": "Het algoritme is niet impactvol en de AI-verordening is niet van toepassing.", "obligation": "Zorg ervoor dat het algoritme voldoet aan bestaande wet- en regelgeving (bijv. AVG wanneer het algoritme persoonsgegevens verwerkt)."}, {"conclusionId": "15.7", "conclusion": "Je bent geen aanbieder en geen gebruiksverantwoordelijke. Deze beslisboom is gemaakt voor alleen deze twee rollen. Controleer nog een keer goed of \u00e9\u00e9n van deze rollen misschien toch op jou van toepassing is.", "obligation": "Er is geen sprake van een verplichting."}]} \ No newline at end of file +{"version": "1.0.0", "name": "Beslishulp AI Verordening", "questions": [{"questionId": "1.2", "question": "Bevat de (beoogde) toepassing een algoritme?", "simplifiedQuestion": "Algoritme", "category": "van_toepassing", "subcategory": "soort_toepassing", "sources": [{"source": "Aandacht voor Algoritmes, Algemene Rekenkamer, 2021", "url": "https://www.rekenkamer.nl/onderwerpen/algoritmes/documenten/rapporten/2021/01/26/aandacht-voor-algoritmes"}, {"source": "Handreiking Algoritmeregister", "url": "https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2023/12/Handreiking-Algoritmeregister-versie-1.0.pdf"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "nextQuestionId": "1.3"}, {"answer": "Nee", "labels": ["geen algoritme"], "nextConclusionId": "11.0"}]}, {"questionId": "1.3", "question": "Ontwikkelen jullie de toepassing in eigen beheer of is/wordt deze ontwikkeld door een andere partij?", "simplifiedQuestion": "Rol", "category": "van_toepassing", "subcategory": "rol", "sources": [{"source": "Artikel 3 - Definities", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2093-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "We ontwikkelen enkel", "labels": ["aanbieder"], "nextQuestionId": "1.4"}, {"answer": "We ontwikkelen, maar gebruiken het niet alleen zelf", "labels": ["aanbieder & gebruiksverantwoordelijke"], "nextQuestionId": "1.4"}, {"answer": "We ontwikkelen en gebruiken het zelf", "labels": ["aanbieder & gebruiksverantwoordelijke"], "nextQuestionId": "1.4"}, {"answer": "We hebben opdracht gegeven om de toepassing te ontwikkelen", "labels": ["aanbieder"], "subresult": "Tenzij het duidelijk is dat de ontwikkelaar de AI onder hun eigen naam of merk in de handel brengt", "nextQuestionId": "1.4"}, {"answer": "We hebben een toepassing gekocht en daarop doorontwikkeld", "labels": ["aanbieder & gebruiksverantwoordelijke"], "nextQuestionId": "1.4"}, {"answer": "We hebben een toepassing gekocht en gebruiken deze zonder aanpassingen", "labels": ["gebruiksverantwoordelijke"], "nextQuestionId": "1.4"}, {"answer": "We importeren van een leverancier buiten de EU", "labels": ["importeur"], "nextQuestionId": "1.4"}, {"answer": "We kopen van een leverancier binnen de EU en verkopen het", "labels": ["distributeur"], "nextQuestionId": "1.4"}, {"answer": "Geen van bovenstaande", "nextConclusionId": "11.6"}]}, {"questionId": "1.4", "question": "Is de toepassing al in gebruik of niet?\n Voor grootschalige IT- die al in gebruik zijn heb je tot 2030 de tijd om aan de AI-verordening te voldoen. Nieuw te ontwikkelen en/of in gebruik te nemen modellen voor algemene doeleinden moeten per 01-08-2025 en hoog-risico toepassingen moeten per 01-08-2026 voldoen.", "simplifiedQuestion": "In gebruik", "category": "van_toepassing", "subcategory": "soort_toepassing", "sources": [{"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 177 - Aanpassingsperiode en uitzonderingen voor bestaande hoogrisico AI-systemen"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "In gebruik", "labels": ["in gebruik"], "nextQuestionId": "1.5"}, {"answer": "In ontwikkeling", "labels": ["in ontwikkeling"], "nextQuestionId": "1.5"}]}, {"questionId": "1.5", "question": "Hoe zou je jouw (beoogde) toepassing classificeren, gezien de volgende definities: een AI-systeem, een AI-systeem voor algemene doeleinden, of een AI-model voor algemene doeleinden?\n - AI-systeem: Een machine-gebaseerd systeem dat autonoom werkt, zichzelf kan aanpassen na inzet, en output levert zoals voorspellingen, inhoud, aanbevelingen of beslissingen. Deze output kan fysieke of virtuele omgevingen be\u00efnvloeden. AI-systemen gebruiken inferentie, waarbij modellen of algoritmen worden afgeleid uit data, en combineren technieken als machinaal leren, logica en kennisrepresentatie.\n - AI-model voor algemene doeleinden: Een flexibel AI-model, zoals een generatief model, dat ingezet kan worden voor meerdere taken zoals tekst, beeld, audio of video en gemakkelijk integreerbaar is in andere systemen.\n - AI-systeem voor algemene doeleinden: Een systeem dat een AI-model voor algemene doeleinden bevat en breed inzetbaar is, zowel direct als via integratie in andere systemen.", "simplifiedQuestion": "AI-systeem", "category": "van_toepassing", "subcategory": "soort_toepassing", "sources": [{"source": "Artikel 3 - Definities", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2093-1-1"}, {"source": "Overweging 12 - Begrip \"AI-systeem\""}, {"source": "Overweging 97 - Begrip \"AI-model voor algemene doeleinden\""}, {"source": "Overweging 99 - Generatieve AI-modellen als voorbeeld van AI-modellen voor algemene doeleinden"}, {"source": "Overweging 100 - Classificatie van AI-systemen met ge\u00efntegreerde AI-modellen voor algemene doeleinden"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "AI-systeem", "labels": ["AI-systeem"], "nextQuestionId": "1.6"}, {"answer": "AI-systeem voor algemene doeleinden", "labels": ["AI-systeem voor algemene doeleinden"], "nextQuestionId": "1.6"}, {"answer": "AI-model voor algemene doeleinden", "labels": ["AI-model voor algemene doeleinden"], "redirects": [{"nextQuestionId": "1.6", "if": "\"aanbieder\" in labels || \"gebruiksverantwoordelijke\" in labels || \"aanbieder & gebruiksverantwoordelijke\" in labels"}, {"nextConclusionId": "16.2.1", "if": "\"distributeur\" in labels"}, {"nextConclusionId": "15.2.1", "if": "\"importeur\" in labels"}]}, {"answer": "Geen van bovenstaande", "nextQuestionId": "1.7"}]}, {"questionId": "1.6", "question": "Is er voor de (beoogde) toepassing sprake van een uitzonderingsgrond?\n\n - AI-systemen die uitsluitend in de handel worden gebracht, in gebruik worden gesteld of, al dan niet gewijzigd, worden gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden \n - AI-systemen die niet in de Unie in de handel worden gebracht of in gebruik worden gesteld en waarvan de output in de Unie uitsluitend wordt gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden \n - overheidsinstanties in derde landen of internationale organisaties die binnen het toepassingsgebied van de AI-verordening vallen, wanneer deze instanties of organisaties AI-systemen gebruiken in het kader van internationale samenwerking of overeenkomsten met de Unie of een of meer lidstaten op het gebied van rechtshandhaving en justitie \n - onderzoeks-, test- of ontwikkelingsactiviteiten met betrekking tot AI-systemen of AI-modellen voor zij in de handel worden gebracht of in gebruik worden gesteld (testen onder re\u00eble omstandigheden valt hier niet onder) \n - AI-systemen of AI-modellen, met inbegrip van hun output, die specifiek zijn ontwikkeld en in gebruik worden gesteld met wetenschappelijk onderzoek en wetenschappelijke ontwikkeling als enig doel\n\n Is er volgens deze uitleg sprake van een van deze uitzonderingsgronden voor de toepassing waarover je deze beslishulp invult?", "simplifiedQuestion": "Uitzonderingsgrond AI Act", "category": "van_toepassing", "subcategory": "soort_toepassing", "sources": [{"source": "Artikel 2 - Toepassingsgebied", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e1978-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "labels": ["uitzondering van toepassing"], "nextConclusionId": "11.2"}, {"answer": "Nee", "redirects": [{"nextQuestionId": "2.1", "if": "\"AI-systeem\" in labels || \"AI-systeem voor algemene doeleinden\" in labels"}, {"nextQuestionId": "2.8", "if": "\"AI-model voor algemene doeleinden\" in labels"}, {"nextConclusionId": "13.2.1", "if": "\"AI-model voor algemene doeleinden\" in labels && \"gebruiksverantwoordelijke\" in labels"}]}]}, {"questionId": "1.7", "question": "Valt jouw algoritme onder categorie B van de Handreiking Algoritmeregister, waarbij het gebruik impact heeft op burgers of groepen, bijvoorbeeld door rechtsgevolgen (zoals een boete of subsidieafwijzing) of door classificatie van burgers (zoals profilering of risico-indicatie voor controle)?", "simplifiedQuestion": "Impactvol algoritme", "category": "van_toepassing", "subcategory": "impactvol", "sources": [{"source": "Handreiking Algoritmeregister", "url": "https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2023/12/Handreiking-Algoritmeregister-versie-1.0.pdf"}], "answers": [{"answer": "Ja", "nextQuestionId": "1.8"}, {"answer": "Nee", "labels": ["niet-impactvol algoritme"], "nextConclusionId": "11.5"}]}, {"questionId": "1.8", "question": "Valt de toepassing onder \u00e9\u00e9n van de uitzonderingsgronden categorie C of D van de Handreiking van het Algoritmeregister?\n\n - Categorie C: Algoritmes die maatschappelijk relevant zijn of veel aandacht krijgen, zoals complexe modellen, algoritmes in onderzoek, of die vaak door burgers of media worden bevraagd (bijv. stikstofmodellen, toeslagen, of visumaanvragen).\n - Categorie D: Algoritmes die wettelijk of operationeel beschermd zijn, bijvoorbeeld in opsporing, defensie, of handhaving, of die kunnen leiden tot misbruik van informatie, zoals bij bedrijfssubsidies.", "simplifiedQuestion": "Uitzonderingsgronden Handreiking Algoritmeregister", "category": "van_toepassing", "subcategory": "impactvol", "sources": [{"source": "Handreiking Algoritmeregister", "url": "https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2023/12/Handreiking-Algoritmeregister-versie-1.0.pdf"}], "answers": [{"answer": "Ja", "subresult": "Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing. Je hoeft vanwege uitzonderingsgrond niet te publiceren in het register.", "nextConclusionId": "11.4", "labels": ["impactvol algoritme"]}, {"answer": "Nee", "nextConclusionId": "11.3", "labels": ["impactvol algoritme"]}]}, {"questionId": "2.1", "question": "We gaan nu bepalen in welke risicogroep het AI-systeem valt. Hiervoor gaan we maximaal 7 vragen langslopen.\n\n Valt de toepassing onder een van de verboden systemen uit Artikel 5 van de AI-verordening?\n \n -\tgebruik kan gaan maken van subliminale technieken om mensen onbewust of bewust kunnen manipuleren, waardoor ze beslissingen nemen die ze anders niet zouden hebben genomen?\n -\tgebruik kan gaan maken van kwetsbaarheden van individuen of specifieke groepen, zoals leeftijd, handicaps of sociale/economische omstandigheden, om het gedrag van die personen aanzienlijk te verstoren, wat kan leiden tot aanzienlijke schade bij henzelf of anderen?\n -\tgebruikt kan worden om natuurlijke personen of groepen gedurende een periode te evalueren of te classificeren op basis van hun sociale gedrag of afgeleide persoonlijke kenmerken?\n -\tgebruikt kan worden voor risicobeoordelingen van natuurlijke personen om het risico op crimineel gedrag te voorspellen, gebaseerd op profilering of persoonlijkheidskenmerken? (Dit geldt niet voor AI-systemen die worden gebruikt om menselijke beoordelingen te ondersteunen, gebaseerd op objectieve en verifieerbare feiten die rechtstreeks verband houden met criminele activiteiten)\n -\tgebruikt kan worden om databanken voor gezichtsherkenning aan te leggen of aan te vullen door willekeurige gezichtsafbeeldingen van internet of CCTV-beelden te scrapen?\n -\tgebruikt kan worden om emoties van een persoon op de werkplek of in het onderwijs af te leiden? (Dit is niet van toepassing als het gebruik van het AI-systeem is bedoeld voor medische- of veiligheidsdoeleinden)\n -\tgebruikt kan worden om natuurlijke personen individueel in categorie\u00ebn in te delen op basis van biometrische gegevens om ras, politieke opvattingen, lidmaatschap van een vakbond, religieuze of levensbeschouwelijke overtuigingen, seksleven of seksuele geaardheid af te leiden? (Dit verbod geldt niet voor het labelen of filteren van rechtmatig verkregen biometrische datasets, zoals afbeeldingen, op basis van biometrische gegevens, of voor categorisering van biometrische gegevens op het gebied van rechtshandhaving)\n -\tgebruikt kan worden als een biometrisch systeem in de publieke ruimte voor identificatie op afstand in real-time, met het oog op de rechtshandhaving?", "simplifiedQuestion": "Verboden AI-systeem", "category": "risicogroep", "subcategory": "risicogroep", "sources": [{"source": "Artikel 5 - Verboden AI", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2816-1-1"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "nextQuestionId": "2.2"}, {"answer": "Nee", "nextQuestionId": "2.3"}]}, {"questionId": "2.2", "question": "Is er sprake van een van de twee uitzonderingen voor verboden systemen?\n \n -\tEr is sprake van een rechtshandhavingsactiviteit i.v.m. een specifiek misdrijf (terrorisme, mensenhandel, seksuele uitbuiting van kinderen en materiaal over seksueel misbruik van kinderen, illegale handel in verdovende middelen en psychotrope stoffen, illegale handel in wapens, munitie en explosieven, moord, zware mishandeling, illegale handel in menselijke organen en weefsels, illegale handel in nucleaire en radioactieve stoffen, ontvoering, wederrechtelijke vrijheidsberoving en gijzeling, misdrijven die onder de rechtsmacht van het Internationaal Strafhof vallen, kaping van vliegtuigen/schepen, verkrachting, milieucriminaliteit, georganiseerde of gewapende diefstal, sabotage, deelneming aan een criminele organisatie die betrokken is bij een of meer van de bovengenoemde misdrijven).\n -\tEr is sprake van gerichte opsporing van specifieke slachtoffers, ontvoering, mensenhandel en seksuele uitbuiting van mensen, vermiste personen; of het voorkomen van bedreigingen voor het leven of de fysieke veiligheid van personen of het reageren op de huidige of voorzienbare dreiging van een terreuraanslag.", "simplifiedQuestion": "Uitzondering Verboden AI-systeem", "category": "risicogroep", "subcategory": "risicogroep", "sources": [{"source": "Artikel 5 - Verboden AI", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2816-1-1"}, {"source": "Overweging 33 - Biometrische identificatie voor rechtshandhaving"}, {"source": "Overweging 34 - Biometrische identificatie in openbare ruimten voor rechtshandhaving"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja", "labels": ["hoog-risico AI"], "redirects": [{"nextQuestionId": "2.3", "if": "\"aanbieder\" in labels || \"gebruiksverantwoordelijke\" in labels || \"aanbieder & gebruiksverantwoordelijke\" in labels"}, {"nextConclusionId": "16.0.1", "if": "\"distributeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "16.1.1", "if": "\"distributeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}, {"nextConclusionId": "15.0.1", "if": "\"importeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "15.1.1", "if": "\"importeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}]}, {"answer": "Nee", "labels": ["verboden AI"], "nextConclusionId": "11.1"}]}, {"questionId": "2.3", "question": "Is het AI-systeem bedoeld om te worden gebruikt als een veiligheidscomponent van een product dat valt onder de lijst in Bijlage I?\n\n Specifiek, valt het AI-systeem onder de veiligheidscomponenten van:\n - Sectie A van bijlage I, die wetgevingen omvat zoals richtlijnen voor machines, speelgoedveiligheid, pleziervaartuigen, liften, radioapparatuur, drukapparatuur, medische hulpmiddelen en gasverbrandingstoestellen.\n\n Of valt het AI-systeem onder:\n - Sectie B van bijlage I, die verordeningen bevat voor de beveiliging van de luchtvaart, motorvoertuigen, landbouwvoertuigen, zeeschepen, spoorwegsystemen, en luchtvaartveiligheid?", "simplifiedQuestion": "Hoog-risico Bijlage I A en B", "category": "risicogroep", "subcategory": "risicogroep", "sources": [{"source": "Bijlage I - Lijst van harmonisatiewetgeving van de Unie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-124-1"}, {"source": "Artikel 6.1 - Classificatieregels voor AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2986-1-1"}, {"source": "Verordening (EG) Nr. 300/2008 - Beveiliging van de burgerluchtvaart en vervanging Verordening (EG) Nr. 2320/2002", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32008R0300"}, {"source": "Verordening (EU) Nr. 168/2013 - Goedkeuring en markttoezicht op twee-of driewielige voertuigen en vierwielers", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32013R0168&qid=1693934047233"}, {"source": "Verordening (EU) Nr. 167/2013 - Goedkeuring en markttoezicht op landbouw- en bosvoertuigen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32013R0167"}, {"source": "Richtlijn 2014/90/EU - Uitrusting van zeeschepen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX%3A32014L0090&qid=1693316316907"}, {"source": "Richtlijn 2016/797 - Interoperabiliteit van het spoorwegsysteem in de EU", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016L0797"}, {"source": "Verordening 2018/858 - Goedkeuring en markttoezicht op motorvoertuigen en aanhangwagens", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32018R0858"}, {"source": "Verordening (EU) 2019/2144 - Typegoedkeuring van motorvoertuigen en aanhangwagens", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32019R2144"}, {"source": "Verordening (EU) 2018/1139 - Regels op het gebied van burgerluchtvaart en Agentschap van de EU voor de veiligheid van de luchtvaart", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32018R1139"}, {"source": "Richtlijn 2006/42/EG - Machines", "url": "https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2006:157:0024:0086:NL:PDF"}, {"source": "Richtlijn 2009/48/EG - Veiligheid van speelgoed", "url": "https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2009:170:0001:0037:nl:PDF"}, {"source": "Richtlijn 2013/53/EU - Pleziervaartuigen en waterscooters", "url": "https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2013:354:0090:0131:NL:PDF"}, {"source": "Richtlijn 2014/33/EU - Harmonisatie van de wetgevingen van de lidstaten inzake (veiligheidscomponenten voor) liften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0033"}, {"source": "Richtlijn 2014/43/EU - Harmonisatie van wetgevingen van lidstaten over apparaten en beveiligingssystemen voor gebieden met ontploffingsgevaar"}, {"source": "Richtlijn 2014/53/EU - Harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van radioapparatuur", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0053"}, {"source": "Richtlijn 2014/68/EU - Harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van drukapparatuur", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0068"}, {"source": "Verordening 2016/424 - Kabelbaaninstallaties", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0424"}, {"source": "Verordening (EU) 2016/425 - Persoonlijke beschermingsmiddelen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0425"}, {"source": "Verordening (EU) 2016/426 - Gasverbrandingstoestellen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0426&from=DE"}, {"source": "Verordening (EU) 2017/745 - Medische hulpmiddelen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32017R0745"}, {"source": "Verordening (EU) 2017/746 - Medische hulpmiddelen voor in-vitrodiagnostiek", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32017R0746"}, {"source": "Overweging 47 - Veiligheidscomponent"}, {"source": "Overweging 49 - Veiligheidscomponent"}, {"source": "Begrippenlijst Algoritmekader", "url": "https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst"}], "answers": [{"answer": "Ja Sectie A van Bijlage I", "labels": ["hoog-risico AI"], "redirects": [{"nextQuestionId": "2.4.1", "if": "\"aanbieder\" in labels || \"gebruiksverantwoordelijke\" in labels || \"aanbieder & gebruiksverantwoordelijke\" in labels"}, {"nextConclusionId": "16.0.1", "if": "\"distributeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "16.1.1", "if": "\"distributeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}, {"nextConclusionId": "15.0.1", "if": "\"importeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "15.1.1", "if": "\"importeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}]}, {"answer": "Ja Sectie B van Bijlage I", "labels": ["hoog-risico AI"], "redirects": [{"nextQuestionId": "2.9", "if": "\"aanbieder\" in labels || \"gebruiksverantwoordelijke\" in labels || \"aanbieder & gebruiksverantwoordelijke\" in labels"}, {"nextConclusionId": "16.0.1", "if": "\"distributeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "16.1.1", "if": "\"distributeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}, {"nextConclusionId": "15.0.1", "if": "\"importeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "15.1.1", "if": "\"importeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}]}, {"answer": "Geen van beide", "nextQuestionId": "2.5"}]}, {"questionId": "2.4.1", "question": "We gaan nu bepalen of het verplicht is om de conformiteitsbeoordeling uit te laten voeren door een derde partij?\n Is jouw AI-systeem bedoeld voor gebruik door:\n - Rechtshandhavingsinstanties?\n - Immigratie- of asielautoriteiten?\n - Instellingen, organen of instanties van de EU?\n\n Of: Vereist dit product volgens de EU harmonisatiewegeving een conformiteitsbeoordeling door een derde partij?", "simplifiedQuestion": "Conformiteitsbeoordeling Bijlage 1A", "category": "risicogroep", "subcategory": "conformiteitsbeoordeling", "sources": [{"source": "Artikel 43 - Conformiteitsbeoordeling", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1"}, {"source": "Overweging 50 - Conformiteitsbeoordelingsprocedure"}, {"source": "Bijlage 1 - Lijst van harmonisatiewetgeving van de Unie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-124-1"}, {"source": "Richtlijn 2006/42/EG - Machines", "url": "https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2006:157:0024:0086:NL:PDF"}, {"source": "Richtlijn 2009/48/EG - Veiligheid van speelgoed", "url": "https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2009:170:0001:0037:nl:PDF"}, {"source": "Richtlijn 2013/53/EU - Pleziervaartuigen en waterscooters", "url": "https://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2013:354:0090:0131:NL:PDF"}, {"source": "Richtlijn 2014/33/EU - Harmonisatie van de wetgevingen van de lidstaten inzake (veiligheidscomponenten voor) liften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0033"}, {"source": "Richtlijn 2014/43/EU - Harmonisatie van wetgevingen van lidstaten over apparaten en beveiligingssystemen voor gebieden met ontploffingsgevaar"}, {"source": "Richtlijn 2014/53/EU - Harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van radioapparatuur", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0053"}, {"source": "Richtlijn 2014/68/EU - Harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van drukapparatuur", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32014L0068"}, {"source": "Verordening 2016/424 - Kabelbaaninstallaties", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0424"}, {"source": "Verordening (EU) 2016/425 - Persoonlijke beschermingsmiddelen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0425"}, {"source": "Verordening (EU) 2016/426 - Gasverbrandingstoestellen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32016R0426&from=DE"}, {"source": "Verordening (EU) 2017/745 - Medische hulpmiddelen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32017R0745"}, {"source": "Verordening (EU) 2017/746 - Medische hulpmiddelen voor in-vitrodiagnostiek", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:32017R0746"}], "answers": [{"answer": "Ja", "labels": ["derde partij"], "nextQuestionId": "2.9"}, {"answer": "Nee", "labels": ["interne controle"], "nextQuestionId": "2.9"}]}, {"questionId": "2.4.2", "question": "We gaan nu bepalen of het verplicht is om de conformiteitsbeoordeling uit te laten voeren door een derde partij?\n Is het een toepassing voor biometrische identificatie en categorisering (bijlage III punt 1) EN is een van deze situaties van toepassing: \n - Bestaan er geen geharmoniseerde normen of gemeenschappelijke specificaties?\n - Heb je de geharmoniseerde norm niet of slechts gedeeltelijk toegepast?\n - Bestaan er wel gemeenschappelijke specificaties maar heb je deze niet toegepast?\n - Zijn er geharmoniseerde normen met beperkingen bekendgemaakt?\n\n Of is jouw toepassing bedoeld voor gebruik door:\n - Rechtshandhavingsinstanties?\n - Immigratie- of asielautoriteiten?\n - Instellingen, organen of instanties van de EU?\n", "simplifiedQuestion": "Conformiteitsbeoordeling Bijlage III", "category": "risicogroep", "subcategory": "conformiteitsbeoordeling", "sources": [{"source": "Bijlage I"}], "answers": [{"answer": "Ja", "labels": ["derde partij"], "nextQuestionId": "2.9"}, {"answer": "Nee", "labels": ["interne controle"], "nextQuestionId": "2.9"}]}, {"questionId": "2.5", "question": "Voert het AI-systeem profilering van natuurlijke personen uit? Bij profilering is er altijd sprake van een hoog risico.", "simplifiedQuestion": "Profilering", "category": "risicogroep", "subcategory": "risicogroep", "sources": [{"source": "Bijlage I - Lijst van harmonisatiewetgeving van de Unie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-124-1"}, {"source": "Artikel 6 (lid 1)- Classificatieregels voor AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2986-1-1"}], "answers": [{"answer": "Ja", "labels": ["hoog-risico AI"], "redirects": [{"nextQuestionId": "2.9", "if": "\"aanbieder\" in labels || \"gebruiksverantwoordelijke\" in labels || \"aanbieder & gebruiksverantwoordelijke\" in labels"}, {"nextConclusionId": "16.0.1", "if": "\"distributeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "16.1.1", "if": "\"distributeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}, {"nextConclusionId": "15.0.1", "if": "\"importeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "15.1.1", "if": "\"importeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}]}, {"answer": "Nee", "nextQuestionId": "2.6"}]}, {"questionId": "2.6", "question": "We gaan nu bepalen of het AI-systeem onder een van de hoog-risico systemen uit Bijlage III van de AI-verordening valt. Betreft het een AI-systeem op een van de volgende gebieden?\n Beweeg je muis over de opties om te zien welke systemen hieronder vallen.\n -\tbiometrie\n -\tkritieke infrastructuur\n -\tonderwijs en beroepsopleiding\n -\twerkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid\n -\ttoegang tot en gebruik van essenti\u00eble particuliere en publieke diensten en uitkeringen\n -\trechtshandhavingsinstanties - migratie-, asiel- en grenstoezichtsbeheer\n -\trechtsbedeling en democratische processen\n", "simplifiedQuestion": "Hoog risico Bijlage III", "category": "risicogroep", "subcategory": "risicogroep", "sources": [{"source": "Bijlage III - In artikel 6, lid 2, bedoelde AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e38-127-1"}, {"source": "Artikel 6 (lid 3) - Classificatieregels voor AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2986-1-1"}], "answers": [{"answer": "Ja", "nextQuestionId": "2.7"}, {"answer": "Nee", "labels": ["geen hoog-risico AI"], "redirects": [{"nextQuestionId": "2.9", "if": "\"aanbieder\" in labels || \"gebruiksverantwoordelijke\" in labels || \"aanbieder & gebruiksverantwoordelijke\" in labels"}, {"nextConclusionId": "16.0.3", "if": "\"distributeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "16.1.3", "if": "\"distributeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}, {"nextConclusionId": "15.0.3", "if": "\"importeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "15.1.3", "if": "\"importeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}]}]}, {"questionId": "2.7", "question": "We gaan nu bepalen of er sprake is van een uitzondering op de lijst van hoog-risico AI systemen. \n Betreft het een AI-systeem dat is bedoeld voor een van de volgende doeleinden? \n -\tHet uitvoeren van een beperkte procedurele taak waarbij er geen significant risico is op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen? -\tHet verbeteren van het resultaat van een eerder voltooide menselijke activiteit en waarbij er geen significant risico is op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen? -\tHet opsporen van besluitvormingspatronen of afwijkingen van eerdere besluitvormingspatronen en waarbij het niet bedoeld is om de eerder voltooide menselijke beoordeling zonder behoorlijke menselijke toetsing te vervangen of te be\u00efnvloeden? -\tHet uitvoeren van een voorbereidende taak voor een beoordeling die relevant is voor de in bijlage III vermelde gebruiksgevallen?", "simplifiedQuestion": "Uitzondering Hoog risico", "category": "risicogroep", "subcategory": "risicogroep", "sources": [{"source": "Overweging 53 - Laag risico"}], "answers": [{"answer": "Ja", "labels": ["geen hoog-risico AI"], "redirects": [{"nextQuestionId": "2.9", "if": "\"aanbieder\" in labels || \"gebruiksverantwoordelijke\" in labels || \"aanbieder & gebruiksverantwoordelijke\" in labels"}, {"nextConclusionId": "16.0.3", "if": "\"distributeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "16.1.3", "if": "\"distributeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}, {"nextConclusionId": "15.0.3", "if": "\"importeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "15.1.3", "if": "\"importeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}]}, {"answer": "Nee", "labels": ["hoog-risico AI"], "redirects": [{"nextQuestionId": "2.4.2", "if": "\"aanbieder\" in labels || \"gebruiksverantwoordelijke\" in labels || \"aanbieder & gebruiksverantwoordelijke\" in labels"}, {"nextConclusionId": "16.0.1", "if": "\"distributeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "16.1.1", "if": "\"distributeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}, {"nextConclusionId": "15.0.1", "if": "\"importeur\" in labels && \"AI-systeem\" in labels"}, {"nextConclusionId": "15.1.1", "if": "\"importeur\" in labels && \"AI-systeem voor algemene doeleinden\" in labels"}]}]}, {"questionId": "2.8", "question": "We gaan nu bepalen of er sprake is van een systeemrisico.\n Is er in het gebruikte AI-model sprake van een cumulatieve hoeveelheid rekenkracht van FLOPs groter dan 10^25?\n\n-\tFLOPs zijn floating point operations per second.\n -\tFLOPs is een eenheid die wordt gebruikt om de rekenkracht van CPU\u2019s aan te duiden.\n -\tCPUs zijn Central Processing Units.\n - Dit is de centrale verwerkingseenheid van een computer, smartphone of tablet. De CPU voert het rekenwerk uit waardoor programma\u2019s draaien en hardware wordt aangestuurd.", "simplifiedQuestion": "Systeemrisico", "category": "risicogroep", "subcategory": "systeemrisico", "sources": [{"source": "Artikel 55 - Systeemrisico"}], "answers": [{"answer": "Ja", "labels": ["systeemrisico"], "redirects": [{"nextConclusionId": "12.2.1", "if": "\"aanbieder\" in labels"}, {"nextConclusionId": "14.2.1", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels"}]}, {"answer": "Nee", "labels": ["geen systeemrisico"], "redirects": [{"nextQuestionId": "2.11", "if": "\"aanbieder\" in labels"}, {"nextConclusionId": "14.2.2", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels"}]}]}, {"questionId": "2.9", "question": "We gaan nu bepalen of het AI-systeem onder de transparantieverplichtingen van Artikel 50 valt.\n Is er sprake van een AI-systeem dat:\n -\tdirect communiceert met mensen (zoals chatbots)?\n -\tsynthetische afbeeldingen, audio, video of tekst content genereert en manipuleert? Bijvoorbeeld een deepfake.\n -\taan emotieherkenning of biometrische categorisatie doet?\n", "simplifiedQuestion": "Transparantieverplichting", "category": "risicogroep", "subcategory": "transparantieverplichting", "sources": [{"source": "Artikel 50 - Transparantieverplichting", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}], "answers": [{"answer": "Ja", "nextQuestionId": "2.10"}, {"answer": "Nee", "labels": ["geen transparantieverplichting"], "redirects": [{"nextConclusionId": "12.0.2", "if": "\"aanbieder\" in labels && \"AI-systeem\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "12.0.4", "if": "\"aanbieder\" in labels && \"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "12.1.2", "if": "\"aanbieder\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels "}, {"nextConclusionId": "12.1.4", "if": "\"aanbieder\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels "}, {"nextConclusionId": "13.0.2", "if": "\"gebruiksverantwoordelijke\" in labels && \"AI-systeem\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "13.0.4", "if": "\"gebruiksverantwoordelijke\" in labels && \"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "13.1.2", "if": "\"gebruiksverantwoordelijke\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "13.1.4", "if": "\"gebruiksverantwoordelijke\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "14.0.2", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels && \"AI-systeem\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "14.0.4", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels && \"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "14.1.2", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "14.1.4", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels"}]}]}, {"questionId": "2.10", "question": "Er is een uitzondering mogelijk op de transparantieverplichtingen. Is er sprake van AI waarvan het bij wet is toegestaan om te gebruiken om strafbare feiten op te sporen, te voorkomen, te onderzoeken of te vervolgen?", "simplifiedQuestion": "Uitzondering Transparantieverplichting", "category": "risicogroep", "subcategory": "Uitzondering transparantieverplichting", "sources": [{"source": "Artikel 50 - Transparantieverplichting", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}], "answers": [{"answer": "Ja", "labels": ["geen transparantieverplichting"], "redirects": [{"nextConclusionId": "12.0.2", "if": "\"aanbieder\" in labels && \"AI-systeem\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "12.0.4", "if": "\"aanbieder\" in labels && \"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "12.1.2", "if": "\"aanbieder\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels "}, {"nextConclusionId": "12.1.4", "if": "\"aanbieder\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels "}, {"nextConclusionId": "13.0.2", "if": "\"gebruiksverantwoordelijke\" in labels && \"AI-systeem\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "13.0.4", "if": "\"gebruiksverantwoordelijke\" in labels && \"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "13.1.2", "if": "\"gebruiksverantwoordelijke\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "13.1.4", "if": "\"gebruiksverantwoordelijke\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "14.0.2", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels && \"AI-systeem\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "14.0.4", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels && \"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "14.1.2", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "14.1.4", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels"}]}, {"answer": "Nee", "labels": ["transparantieverplichting"], "redirects": [{"nextConclusionId": "12.0.1", "if": "\"aanbieder\" in labels && \"AI-systeem\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "12.0.3", "if": "\"aanbieder\" in labels && \"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "12.1.1", "if": "\"aanbieder\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "12.1.3", "if": "\"aanbieder\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "13.0.1", "if": "\"gebruiksverantwoordelijke\" in labels && \"AI-systeem\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "13.0.3", "if": "\"gebruiksverantwoordelijke\" in labels && \"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "13.1.1", "if": "\"gebruiksverantwoordelijke\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "13.1.3", "if": "\"gebruiksverantwoordelijke\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "14.0.1", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels && \"AI-systeem\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "14.0.3", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels && \"AI-systeem\" in labels && \"geen hoog-risico AI\" in labels"}, {"nextConclusionId": "14.1.1", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"hoog-risico AI\" in labels"}, {"nextConclusionId": "14.1.3", "if": "\"aanbieder & gebruiksverantwoordelijke\" in labels && \"AI-systeem voor algemene doeleinden\" in labels && \"geen hoog-risico AI\" in labels"}]}]}, {"questionId": "2.11", "question": "Wordt de toepassing onder een open of vrije licentie gedeeld? Zijn de broncodes en parameters openbaar voor eenieder?", "simplifiedQuestion": "Open of vrije licentie", "category": "risicogroep", "subcategory": "open-source", "sources": [{"source": "Overweging 102 - Begrip open-source"}], "answers": [{"answer": "Ja", "labels": ["open-source"], "nextConclusionId": "12.2.2"}, {"answer": "Nee", "labels": ["geen open-source"], "nextConclusionId": "12.2.3"}]}], "conclusions": [{"conclusionId": "12.0.1", "conclusion": "Je bent een aanbieder van een hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen. ", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n Verplichtingen voor aanbieders en gebruiksverantwoordelijken van AI-systemen met transparantieverplichtingen (Artikel 50): \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 17 - Systeem voor kwaliteitsbeheer", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1"}, {"source": "Artikel 18 - Bewaring van documentatie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1"}, {"source": "Artikel 19 - Automatisch gegenereerde logs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1"}, {"source": "Artikel 20 - Corrigerende maatregelen en mededelingsverplichting", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1"}, {"source": "Artikel 43 - Conformiteitsbeoordeling", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1"}, {"source": "Artikel 47 - EU-conformiteitsverklaring", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1"}, {"source": "Artikel 48 - CE-markering", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1"}, {"source": "Artikel 49 - Registratie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1"}, {"source": "Artikel 50 - Transparantieverplichtingen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "12.0.2", "conclusion": "Je bent een aanbieder van een hoog-risico AI-systeem.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n\n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 17 - Systeem voor kwaliteitsbeheer", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1"}, {"source": "Artikel 18 - Bewaring van documentatie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1"}, {"source": "Artikel 19 - Automatisch gegenereerde logs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1"}, {"source": "Artikel 20 - Corrigerende maatregelen en mededelingsverplichting", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1"}, {"source": "Artikel 43 - Conformiteitsbeoordeling", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1"}, {"source": "Artikel 47 - EU-conformiteitsverklaring", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1"}, {"source": "Artikel 48 - CE-markering", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1"}, {"source": "Artikel 49 - Registratie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "12.0.3", "conclusion": "Je bent een aanbieder van een niet-hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen voor aanbieders en gebruiksverantwoordelijken van AI-systemen met transparantieverplichtingen (Artikel 50): \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 50 - Transparantieverplichtingen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "12.0.4", "conclusion": "Je bent een aanbieder van een niet-hoog-risico AI-systeem.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "12.1.1", "conclusion": "Je bent een aanbieder van een hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n Verplichtingen voor aanbieders en gebruiksverantwoordelijken van AI-systemen met transparantieverplichtingen (Artikel 50): \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n\nDe volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 17 - Systeem voor kwaliteitsbeheer", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1"}, {"source": "Artikel 18 - Bewaring van documentatie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1"}, {"source": "Artikel 19 - Automatisch gegenereerde logs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1"}, {"source": "Artikel 20 - Corrigerende maatregelen en mededelingsverplichting", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1"}, {"source": "Artikel 43 - Conformiteitsbeoordeling", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1"}, {"source": "Artikel 47 - EU-conformiteitsverklaring", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1"}, {"source": "Artikel 48 - CE-markering", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1"}, {"source": "Artikel 49 - Registratie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1"}, {"source": "Artikel 50 - Transparantieverplichtingen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "12.1.2", "conclusion": "Je bent een aanbieder van een hoog-risico AI-systeem voor algemene doeleinden.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n\nDe volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n \n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 17 - Systeem voor kwaliteitsbeheer", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1"}, {"source": "Artikel 18 - Bewaring van documentatie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1"}, {"source": "Artikel 19 - Automatisch gegenereerde logs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1"}, {"source": "Artikel 20 - Corrigerende maatregelen en mededelingsverplichting", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1"}, {"source": "Artikel 43 - Conformiteitsbeoordeling", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1"}, {"source": "Artikel 47 - EU-conformiteitsverklaring", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1"}, {"source": "Artikel 48 - CE-markering", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1"}, {"source": "Artikel 49 - Registratie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "12.1.3", "conclusion": "Je bent een aanbieder van een niet-hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen voor aanbieders en gebruiksverantwoordelijken van AI-systemen met transparantieverplichtingen (Artikel 50): \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 50 - Transparantieverplichtingen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "12.1.4", "conclusion": "Je bent een aanbieder van een niet-hoog-risico AI-systeem voor algemene doeleinden.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "12.2.1", "conclusion": "Je bent een aanbieder van een AI-model voor algemene doeleinden. Er is sprake van een systeemrisico.", "obligation": " Verplichtingen voor alle AI-modellen voor algemene doeleinden: \n - Praktijkcodes (Artikel 56)\n\n Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan.\n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren. \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn. \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico (Artikel 55): \n - het uitvoeren van een modelevaluatie overeenkomstig gestandaardiseerde protocollen en instrumenten die de stand van de techniek weerspiegelen, met inbegrip van het uitvoeren en documenteren van tests gericht op het ontdekken van kwetsbaarheden van het model met als doel om systeemrisico\u2019s in kaart te brengen en te beperken.\n - het beoordelen en beperken van mogelijke systeemrisico\u2019s op Unieniveau, met inbegrip van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in de handel brengen of het gebruik van AI-modellen voor algemene doeleinden met een systeemrisico.\n - het bijhouden, documenteren en onverwijld rapporteren (aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten)) van relevante informatie over ernstige incidenten en mogelijke corrigerende maatregelen. \n - het zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het AI-model voor algemene doeleinden en de fysieke infrastructuur van het model.\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 55 - Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5730-1-1"}, {"source": "Artikel 56 - Praktijkcodes", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5788-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "12.2.2", "conclusion": "Je bent een aanbieder van een open-source AI-model voor algemene doeleinden.", "obligation": " Verplichtingen voor alle AI-modellen voor algemene doeleinden: \n - Praktijkcodes (Artikel 56)\n\n Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden (Artikel 53 en Artikel 54):\n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn. \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n - Door overweging 104 voor open-source AI-modellen voor algemene doeleinden hoef je niet te voldoen aan: de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan. \n - Door overweging 104 voor open-source AI-modellen voor algemene doeleinden hoef je niet te voldoen aan:hoef je niet te voldoen aan: informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren. \n Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico (Artikel 55): \n - het uitvoeren van een modelevaluatie overeenkomstig gestandaardiseerde protocollen en instrumenten die de stand van de techniek weerspiegelen, met inbegrip van het uitvoeren en documenteren van tests gericht op het ontdekken van kwetsbaarheden van het model met als doel om systeemrisico\u2019s in kaart te brengen en te beperken.\n - het beoordelen en beperken van mogelijke systeemrisico\u2019s op Unieniveau, met inbegrip van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in de handel brengen of het gebruik van AI-modellen voor algemene doeleinden met een systeemrisico.\n - het bijhouden, documenteren en onverwijld rapporteren (aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten)) van relevante informatie over ernstige incidenten en mogelijke corrigerende maatregelen. \n - het zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het AI-model voor algemene doeleinden en de fysieke infrastructuur van het model.\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 55 - Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5730-1-1"}, {"source": "Artikel 56 - Praktijkcodes", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5788-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 104 - Transparantie-uitzonderingen open-source AI-modellen"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "12.2.3", "conclusion": "Je bent een aanbieder van een AI-model voor algemene doeleinden.", "obligation": " Verplichtingen voor alle AI-modellen voor algemene doeleinden: \n - Praktijkcodes (Artikel 56)\n\n Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan. In het geval van het label 'open-source' is er een uitzondering op deze verplichting (Overweging 104).\n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren. In het geval van het label 'open-source' is er een uitzondering op deze verplichting (Overweging 104).\n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn. \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico (Artikel 55): \n - het uitvoeren van een modelevaluatie overeenkomstig gestandaardiseerde protocollen en instrumenten die de stand van de techniek weerspiegelen, met inbegrip van het uitvoeren en documenteren van tests gericht op het ontdekken van kwetsbaarheden van het model met als doel om systeemrisico\u2019s in kaart te brengen en te beperken.\n - het beoordelen en beperken van mogelijke systeemrisico\u2019s op Unieniveau, met inbegrip van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in de handel brengen of het gebruik van AI-modellen voor algemene doeleinden met een systeemrisico.\n - het bijhouden, documenteren en onverwijld rapporteren (aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten)) van relevante informatie over ernstige incidenten en mogelijke corrigerende maatregelen. \n - het zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het AI-model voor algemene doeleinden en de fysieke infrastructuur van het model.\n Geldig vanaf (Artikel 111 source: Overweging 179 - Ingangtreding verordening ):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 55 - Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5730-1-1"}, {"source": "Artikel 56 - Praktijkcodes", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5788-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "13.0.1", "conclusion": "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen. ", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen (Artikel 50): \n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1"}, {"source": "Artikel 50 - Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1"}, {"source": "Artikel 73 - Melding van ernstige incidenten", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1"}, {"source": "Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "13.0.2", "conclusion": "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1"}, {"source": "Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1"}, {"source": "Artikel 73 - Melding van ernstige incidenten", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1"}, {"source": "Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "13.0.3", "conclusion": "Je bent een gebruiksverantwoordelijke van een niet-hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen (Artikel 50): \n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 50 - Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "13.0.4", "conclusion": "Je bent een gebruiksverantwoordelijke van een niet-hoog-risico AI-systeem.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "13.1.1", "conclusion": "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen (Artikel 50): \n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1"}, {"source": "Artikel 50 - Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1"}, {"source": "Artikel 73 - Melding van ernstige incidenten", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1"}, {"source": "Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "13.1.2", "conclusion": "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem voor algemene doeleinden.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1"}, {"source": "Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1"}, {"source": "Artikel 73 - Melding van ernstige incidenten", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1"}, {"source": "Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "13.1.3", "conclusion": "Je bent een gebruiksverantwoordelijke van een niet-hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen (Artikel 50): \n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 50 - Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "13.1.4", "conclusion": "Je bent een gebruiksverantwoordelijke van een niet-hoog-risico AI-systeem voor algemene doeleinden.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "13.2.1", "conclusion": "Je bent een gebruiksverantwoordelijke van een AI-model voor algemene doeleinden. Er is sprake van een systeemrisico.", "obligation": " Verplichtingen voor alle AI-modellen voor algemene doeleinden: \n - Praktijkcodes (Artikel 56)\n\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n\nAls gebruiksverantwoordelijke van een AI-model voor algemene doeleinden gelden er geen verplichtingen vanuit een mogelijk systeemrisico. Het is echter belangrijk om te realiseren dat als een AI-model voor algemene doeleinden verder wordt ontwikkeld het in een AI-systeem voor algemene doeleinden kan veranderen en er mogelijk minimale transparantieverplichtingen van toepassing zijn. Daarnaast kan het systeem, afhankelijk van de specifieke toepassing, als een hoog-risico AI-systeem worden geclassificeerd.", "sources": [{"source": "Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1"}, {"source": "Artikel 56 - Praktijkcodes", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5788-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "14.0.1", "conclusion": "Je bent een gebruiksverantwoordelijke en aanbieder van een hoog-risico AI-systeem. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen (Artikel 50): \n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 17 - Systeem voor kwaliteitsbeheer", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1"}, {"source": "Artikel 18 - Bewaring van documentatie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1"}, {"source": "Artikel 19 - Automatisch gegenereerde logs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1"}, {"source": "Artikel 20 - Corrigerende maatregelen en mededelingsverplichting", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1"}, {"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1"}, {"source": "Artikel 43 - Conformiteitsbeoordeling", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1"}, {"source": "Artikel 47 - EU-conformiteitsverklaring", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1"}, {"source": "Artikel 48 - CE-markering", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1"}, {"source": "Artikel 49 - Registratie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1"}, {"source": "Artikel 50 - Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1"}, {"source": "Artikel 73 - Melding van ernstige incidenten", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1"}, {"source": "Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "14.0.2", "conclusion": "Je bent een gebruiksverantwoordelijke en aanbieder van een hoog-risico AI-systeem.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 17 - Systeem voor kwaliteitsbeheer", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1"}, {"source": "Artikel 18 - Bewaring van documentatie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1"}, {"source": "Artikel 19 - Automatisch gegenereerde logs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1"}, {"source": "Artikel 20 - Corrigerende maatregelen en mededelingsverplichting", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1"}, {"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1"}, {"source": "Artikel 43 - Conformiteitsbeoordeling", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1"}, {"source": "Artikel 47 - EU-conformiteitsverklaring", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1"}, {"source": "Artikel 48 - CE-markering", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1"}, {"source": "Artikel 49 - Registratie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1"}, {"source": "Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1"}, {"source": "Artikel 73 - Melding van ernstige incidenten", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1"}, {"source": "Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "14.0.3", "conclusion": "Je bent een gebruiksverantwoordelijke en aanbieder van een AI-systeem zonder hoog-risico. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen (Artikel 50): \n - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, indien van toepassing \n - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent genereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, satirisch, fictief of analoog werk of programma, zijn de transparantieverplichtingen beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of bewerkte content op een passende wijze die de weergave of het genot van het werk niet belemmert.\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 50 - Transparantieverplichtingen voor aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "14.0.4", "conclusion": "Je bent een gebruiksverantwoordelijke en aanbieder van een AI-systeem zonder hoog-risico.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}]}, {"conclusionId": "14.1.1", "conclusion": "Je bent een gebruiksverantwoordelijke en aanbieder van een hoog-risico AI-systeem voor algemene doeleinden. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n Verplichtingen voor aanbieders en gebruiksverantwoordelijken van AI-systemen met transparantieverplichtingen (Artikel 50): \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 17 - Systeem voor kwaliteitsbeheer", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1"}, {"source": "Artikel 18 - Bewaring van documentatie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1"}, {"source": "Artikel 19 - Automatisch gegenereerde logs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1"}, {"source": "Artikel 20 - Corrigerende maatregelen en mededelingsverplichting", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1"}, {"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1"}, {"source": "Artikel 43 - Conformiteitsbeoordeling", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1"}, {"source": "Artikel 47 - EU-conformiteitsverklaring", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1"}, {"source": "Artikel 48 - CE-markering", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1"}, {"source": "Artikel 49 - Registratie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1"}, {"source": "Artikel 50 - Transparantieverplichting", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1"}, {"source": "Artikel 73 - Melding van ernstige incidenten", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1"}, {"source": "Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "14.1.2", "conclusion": "Je bent een gebruiksverantwoordelijke en aanbieder van een hoog-risico AI-systeem voor algemene doeleinden.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen voor aanbieder van een hoog risico AI-systeem (Artikel 16):\n - aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2\n - aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres\n - aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met Artikel 17 (systeem voor kwaliteitsbeheer)\n - aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie\n - aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben\n - aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld\n - aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met Artikel 47. In het geval van het label 'derde partij' dient de uitvoering door een externe derde partij te worden verzorgd.\n - aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig Artikel 48\n - aanbieders leven de registratieverplichtingen als bedoeld in Artikel 49 lid 1, na\n - aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van Artikel 20 vereiste informatie\n - aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2\n - aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. \n\n Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico (Artikel 26 en Artikel 27):\n - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n - het ervoor zorgen dat, voor zover de gebruikersverantwoordelijke controle heeft over de inputdata, de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico \n - het monitoren van de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en in voorkomend geval het in kennis stellen van de aanbieders overeenkomstig artikel 72.\n - het bewaren van de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder controle van de gebruiksverantwoordelijke vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden \n - voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico \n - gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis \n - indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren \n - de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand verzoekt achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initi\u00eble identificatie van een potenti\u00eble verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit \n - gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, informeren de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. \n - gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.\n - gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico gebruikt in krediet/verzekering (bijlage III, 5, c en d) een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren (Artikel 27).\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 17 - Systeem voor kwaliteitsbeheer", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3906-1-1"}, {"source": "Artikel 18 - Bewaring van documentatie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4013-1-1"}, {"source": "Artikel 19 - Automatisch gegenereerde logs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4066-1-1"}, {"source": "Artikel 20 - Corrigerende maatregelen en mededelingsverplichting", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4082-1-1"}, {"source": "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4350-1-1"}, {"source": "Artikel 27 - Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4433-1-1"}, {"source": "Artikel 43 - Conformiteitsbeoordeling", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1"}, {"source": "Artikel 47 - EU-conformiteitsverklaring", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1"}, {"source": "Artikel 48 - CE-markering", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5327-1-1"}, {"source": "Artikel 49 - Registratie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5358-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 72 - Monitoring door aanbieders na het in de handel brengen en plan voor monitoring na het in de handel brengen voor AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7075-1-1"}, {"source": "Artikel 73 - Melding van ernstige incidenten", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7117-1-1"}, {"source": "Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "14.1.3", "conclusion": "Je bent een gebruiksverantwoordelijke en aanbieder van een AI-systeem voor algemene doeleinden zonder hoog-risico. Het AI-systeem moet voldoen aan transparantieverplichtingen.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Verplichtingen voor aanbieders en gebruiksverantwoordelijken van AI-systemen met transparantieverplichtingen (Artikel 50): \n - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.\n - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen.\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 50 - Transparantieverplichting", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5426-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "14.1.4", "conclusion": "Je bent een gebruiksverantwoordelijke en aanbieder van een AI-systeem voor algemene doeleinden zonder hoog-risico.", "obligation": " Verplichtingen voor alle AI-systemen: \n - AI-geletterdheid (Artikel 4)\n - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften (Artikel 95)\n\n Geldig vanaf (Artikel 111):\n - Voor AI-systemen in ontwikkeling geldt dat de verordening volledig in werking treedt op 2 augustus 2026, wat betekent dat deze systemen vanaf die datum aan de voorschriften moeten voldoen, hoewel de algemene en specifieke verplichtingen in hoofdstukken I en II al van toepassing zijn vanaf 2 februari 2025.\n - Voor AI-systemen in gebruik die v\u00f3\u00f3r 2 augustus 2026 zijn ge\u00efntroduceerd, geldt dat de verordening alleen van toepassing is als ze significante wijzigingen ondergaan, maar voor AI-systemen met een hoog risico, met name die bedoeld voor overheidsgebruik, moeten aanbieders uiterlijk op 2 augustus 2030 aan alle vereisten voldoen, ongeacht ontwerpwijzigingen.\n\n De volgende verplichtingen gelden voor de aanbieder van het AI-model voor algemene doeleinden, waarop het AI-systeem voor algemene doeleinden is gebaseerd (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan \n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 4 - AI-geletterdheid", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2799-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 95 - Gedragscodes voor vrijwillige toepassing van specifieke voorschriften", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8052-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "14.2.1", "conclusion": "Je bent een aanbieder en gebruiksverantwoordelijke van een AI-model voor algemene doeleinden. Er is sprake van een systeemrisico.", "obligation": " Verplichtingen voor alle AI-modellen voor algemene doeleinden: \n - Praktijkcodes (Artikel 56)\n\n Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan.\n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren. \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn. \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico (Artikel 55): \n - het uitvoeren van een modelevaluatie overeenkomstig gestandaardiseerde protocollen en instrumenten die de stand van de techniek weerspiegelen, met inbegrip van het uitvoeren en documenteren van tests gericht op het ontdekken van kwetsbaarheden van het model met als doel om systeemrisico\u2019s in kaart te brengen en te beperken.\n - het beoordelen en beperken van mogelijke systeemrisico\u2019s op Unieniveau, met inbegrip van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in de handel brengen of het gebruik van AI-modellen voor algemene doeleinden met een systeemrisico.\n - het bijhouden, documenteren en onverwijld rapporteren (aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten)) van relevante informatie over ernstige incidenten en mogelijke corrigerende maatregelen. \n - het zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het AI-model voor algemene doeleinden en de fysieke infrastructuur van het model.\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 55 - Verplichtingen van aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5730-1-1"}, {"source": "Artikel 56 - Praktijkcodes", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5788-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "14.2.2", "conclusion": "Je bent een aanbieder en gebruiksverantwoordelijke van een AI-model voor algemene doeleinden.", "obligation": " Verplichtingen voor alle AI-modellen voor algemene doeleinden: \n - Praktijkcodes (Artikel 56)\n\n Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden (Artikel 53 en Artikel 54):\n - de technische documentatie van het model opstellen en up-to-date houden, inclusief het trainings- en testproces en de resultaten van de evaluatie ervan.\n - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren. \n - beleid opstellen ter naleving van het Unierecht inzake auteursrechten en naburige rechten en dan met name ter vaststelling en naleving, onder meer door middel van geavanceerde technologie\u00ebn. \n - een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte content, volgens een door het AI-bureau verstrekt sjabloon.\n\n Geldig vanaf (Artikel 111 en Overweging 179):\n - Voor AI-modellen in ontwikkeling gelden de verplichtingen voor aanbieders van algemene AI-modellen, zoals taal- of beeldherkenningsmodellen, vanaf 2 augustus 2025.\n - Voor AI-modellen in gebruik die v\u00f3\u00f3r 2 augustus 2025 in de handel zijn gebracht, geldt dat zij uiterlijk op 2 augustus 2027 aan de verordening moeten voldoen, ook zonder significante ontwerpwijzigingen.\n\n", "sources": [{"source": "Artikel 51 - Classificatie van AI-modellen voor algemene doeleinden als AI-modellen voor algemene doeleinden met een systeemrisico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5489-1-1"}, {"source": "Artikel 53 - Verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5576-1-1"}, {"source": "Artikel 54 - Gemachtigden van aanbieders van AI-modellen voor algemene doeleinden", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5657-1-1"}, {"source": "Artikel 56 - Praktijkcodes", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5788-1-1"}, {"source": "Artikel 111 - Reeds in de handel gebrachte of in gebruik gestelde AI-systemen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e8928-1-1"}, {"source": "Overweging 179 - Ingangtreding verordening"}]}, {"conclusionId": "15.0.1", "conclusion": "Je bent een importeur van een AI-systeem een hoog risico.", "obligation": " Verplichtingen voor importeur van een hoog risico AI-systeem (Artikel 23):\n - Importeurs zorgen ervoor dat een AI-systeem met een hoog risico in overeenstemming is met de verordening voordat het in de handel wordt gebracht door na te gaan of de relevante conformiteitsbeoordelingsprocedure is uitgevoerd (artikel 43), de technische documentatie is opgesteld (artikel 11 en bijlage IV), de CE-markering is aangebracht en de EU-conformiteitsverklaring en gebruiksaanwijzingen aanwezig zijn (artikel 47), en of de aanbieder een gemachtigde heeft aangewezen (artikel 22, lid 1).\n - Indien een importeur vermoedt dat het AI-systeem met een hoog risico niet in overeenstemming is met de verordening, vervalst is of vergezeld gaat van vervalste documenten, mag het systeem niet in de handel worden gebracht totdat het aan de eisen voldoet. Als het systeem een risico vormt (artikel 79, lid 1), moet de importeur de aanbieder, gemachtigden en markttoezichtautoriteiten informeren.\n - Importeurs moeten hun naam, geregistreerde handelsnaam of merk en contactadres vermelden op de verpakking of in de bijgevoegde documentatie van het AI-systeem met een hoog risico.\n - Importeurs zorgen ervoor dat de opslag- en vervoersomstandigheden van het AI-systeem met een hoog risico de naleving van de eisen van afdeling 2 niet in gevaar brengen.\n - Importeurs moeten gedurende tien jaar een kopie bewaren van het door de aangemelde instantie afgegeven certificaat en, indien van toepassing, de gebruiksaanwijzing en de EU-conformiteitsverklaring (artikel 47).\n - Bij verzoek van bevoegde autoriteiten moeten importeurs alle benodigde informatie en documentatie verstrekken ter staving van de naleving van de eisen van afdeling 2, in een voor de autoriteit begrijpelijke taal.\n - Importeurs werken samen met bevoegde autoriteiten bij het nemen van maatregelen om de risico\u2019s van het AI-systeem te verminderen en te beperken.\n", "sources": [{"source": "Artikel 11 - Technische documentatie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3472-1-1"}, {"source": "Artikel 22 - Gemachtigden van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4119-1-1"}, {"source": "Artikel 23 - Verplichtingen van importeurs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 43 - Conformiteitsbeoordeling", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1"}, {"source": "Artikel 47 - EU-conformiteitsverklaring", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1"}, {"source": "Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1"}]}, {"conclusionId": "15.0.3", "conclusion": "Je bent een importeur van een niet-hoog-risico AI-systeem.", "obligation": "Er zijn geen verplichtingen voor importeurs van niet-hoog-risico AI-systemen, alleen voor hoog-risico.", "sources": [{"source": "Artikel 23 - Verplichtingen van importeurs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}]}, {"conclusionId": "15.1.1", "conclusion": "Je bent een importeur van een hoog risico AI-systeem voor algemene doeleinden.", "obligation": " Verplichtingen voor importeur van een hoog risico AI-systeem (Artikel 23):\n - Importeurs zorgen ervoor dat een AI-systeem met een hoog risico in overeenstemming is met de verordening voordat het in de handel wordt gebracht door na te gaan of de relevante conformiteitsbeoordelingsprocedure is uitgevoerd (artikel 43), de technische documentatie is opgesteld (artikel 11 en bijlage IV), de CE-markering is aangebracht en de EU-conformiteitsverklaring en gebruiksaanwijzingen aanwezig zijn (artikel 47), en of de aanbieder een gemachtigde heeft aangewezen (artikel 22, lid 1).\n - Indien een importeur vermoedt dat het AI-systeem met een hoog risico niet in overeenstemming is met de verordening, vervalst is of vergezeld gaat van vervalste documenten, mag het systeem niet in de handel worden gebracht totdat het aan de eisen voldoet. Als het systeem een risico vormt (artikel 79, lid 1), moet de importeur de aanbieder, gemachtigden en markttoezichtautoriteiten informeren.\n - Importeurs moeten hun naam, geregistreerde handelsnaam of merk en contactadres vermelden op de verpakking of in de bijgevoegde documentatie van het AI-systeem met een hoog risico.\n - Importeurs zorgen ervoor dat de opslag- en vervoersomstandigheden van het AI-systeem met een hoog risico de naleving van de eisen van afdeling 2 niet in gevaar brengen.\n - Importeurs moeten gedurende tien jaar een kopie bewaren van het door de aangemelde instantie afgegeven certificaat en, indien van toepassing, de gebruiksaanwijzing en de EU-conformiteitsverklaring (artikel 47).\n - Bij verzoek van bevoegde autoriteiten moeten importeurs alle benodigde informatie en documentatie verstrekken ter staving van de naleving van de eisen van afdeling 2, in een voor de autoriteit begrijpelijke taal.\n - Importeurs werken samen met bevoegde autoriteiten bij het nemen van maatregelen om de risico\u2019s van het AI-systeem te verminderen en te beperken.\n", "sources": [{"source": "Artikel 11 - Technische documentatie", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3472-1-1"}, {"source": "Artikel 22 - Gemachtigden van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4119-1-1"}, {"source": "Artikel 23 - Verplichtingen van importeurs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 43 - Conformiteitsbeoordeling", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5074-1-1"}, {"source": "Artikel 47 - EU-conformiteitsverklaring", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e5296-1-1"}, {"source": "Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1"}]}, {"conclusionId": "15.1.3", "conclusion": "Je bent een importeur van een niet-hoog-risico AI-systeem voor algemene doeleinden.", "obligation": "Er zijn geen verplichtingen voor importeurs van niet-hoog-risico AI-systemen voor algemene doeleinden, alleen voor hoog-risico.", "sources": [{"source": "Artikel 23 - Verplichtingen van importeurs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}]}, {"conclusionId": "15.2.1", "conclusion": "Je bent een importeur van een AI-model voor algemene doeleinden.", "obligation": "Er zijn geen verplichtingen voor importeurs van AI-modellen voor algemene doeleinden, alleen voor hoog-risico AI-systemen.", "sources": [{"source": "Artikel 23 - Verplichtingen van importeurs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}]}, {"conclusionId": "16.0.1", "conclusion": "Je bent een distributeur van een hoog-risico AI-systeem.", "obligation": " Verplichtingen voor distributeur van een hoog risico AI-systeem (Artikel 24):\n - Distributeurs controleren of het AI-systeem met een hoog risico de vereiste CE-markering heeft, vergezeld gaat van de EU-conformiteitsverklaring en gebruiksinstructies, en of de aanbieder en importeur hun verplichtingen uit Artikel 16 (b en c) en Artikel 23 (3) hebben nageleefd.\n - Wanneer een distributeur vermoedt dat een AI-systeem met een hoog risico niet voldoet aan de eisen, mag het systeem niet op de markt worden gebracht totdat het in overeenstemming is gebracht met de vereisten en de aanbieder of importeur moet worden ge\u00efnformeerd als het systeem een risico vormt (Artikel 79 (1)).\n - Distributeurs zorgen ervoor dat de opslag- en vervoersomstandigheden van het AI-systeem met een hoog risico geen invloed hebben op de naleving van de eisen van afdeling 2.\n - Wanneer een distributeur vermoedt dat een AI-systeem met een hoog risico niet voldoet aan de eisen na het op de markt te hebben gebracht, moet de distributeur corrigerende maatregelen nemen of zorgen dat de aanbieder/importeur dit doet, zoals het systeem uit de handel nemen of terugroepen, en de bevoegde autoriteiten informeren.\n - Distributeurs moeten op verzoek van bevoegde autoriteiten de nodige informatie en documentatie verstrekken om aan te tonen dat het AI-systeem voldoet aan de eisen van afdeling 2.\n - Distributeurs werken samen met de bevoegde autoriteiten met betrekking tot maatregelen die genomen worden om de risico's van het AI-systeem dat zij op de markt hebben aangeboden te verminderen of te beperken.", "sources": [{"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 24 - Verplichtingen van distributeurs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4246-1-1"}, {"source": "Artikel 23 - Verplichtingen van importeurs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1"}]}, {"conclusionId": "16.0.3", "conclusion": "Je bent een distributeur van een niet-hoog-risico AI-systeem.", "obligation": "Er zijn geen verplichtingen voor distributeurs van niet-hoog-risico AI-systemen, alleen voor hoog-risico.", "sources": [{"source": "Artikel 24 - Verplichtingen van distributeurs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4246-1-1"}]}, {"conclusionId": "16.1.1", "conclusion": "Je bent een distributeur van een hoog-risico AI-systeem voor algemene doeleinden.", "obligation": " Verplichtingen voor distributeur van een hoog risico AI-systeem (Artikel 24):\n - Distributeurs controleren of het AI-systeem met een hoog risico de vereiste CE-markering heeft, vergezeld gaat van de EU-conformiteitsverklaring en gebruiksinstructies, en of de aanbieder en importeur hun verplichtingen uit Artikel 16 (b en c) en Artikel 23 (3) hebben nageleefd.\n - Wanneer een distributeur vermoedt dat een AI-systeem met een hoog risico niet voldoet aan de eisen, mag het systeem niet op de markt worden gebracht totdat het in overeenstemming is gebracht met de vereisten en de aanbieder of importeur moet worden ge\u00efnformeerd als het systeem een risico vormt (Artikel 79 (1)).\n - Distributeurs zorgen ervoor dat de opslag- en vervoersomstandigheden van het AI-systeem met een hoog risico geen invloed hebben op de naleving van de eisen van afdeling 2.\n - Wanneer een distributeur vermoedt dat een AI-systeem met een hoog risico niet voldoet aan de eisen na het op de markt te hebben gebracht, moet de distributeur corrigerende maatregelen nemen of zorgen dat de aanbieder/importeur dit doet, zoals het systeem uit de handel nemen of terugroepen, en de bevoegde autoriteiten informeren.\n - Distributeurs moeten op verzoek van bevoegde autoriteiten de nodige informatie en documentatie verstrekken om aan te tonen dat het AI-systeem voldoet aan de eisen van afdeling 2.\n - Distributeurs werken samen met de bevoegde autoriteiten met betrekking tot maatregelen die genomen worden om de risico's van het AI-systeem dat zij op de markt hebben aangeboden te verminderen of te beperken.", "sources": [{"source": "Artikel 16 - Verplichtingen van aanbieders van AI-systemen met een hoog risico", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 24 - Verplichtingen van distributeurs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4246-1-1"}, {"source": "Artikel 23 - Verplichtingen van importeurs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e3823-1-1"}, {"source": "Artikel 79 - Procedure op nationaal niveau voor de omgang met AI-systemen die een risico vormen", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e7480-1-1"}]}, {"conclusionId": "16.1.3", "conclusion": "Je bent een distributeur van een niet-hoog-risico AI-systeem voor algemene doeleinden", "obligation": "Er zijn geen verplichtingen voor distributeurs van niet-hoog-risico AI-systemen voor algemene doeleinden, alleen voor hoog-risico.", "sources": [{"source": "Artikel 24 - Verplichtingen van distributeurs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4246-1-1"}]}, {"conclusionId": "16.2.1", "conclusion": "Je bent een distributeur van een AI-model voor algemene doeleinden", "obligation": "Er zijn geen verplichtingen voor distributeurs van AI-model voor algemene doeleinden, alleen voor hoog-risico AI-systemen. ", "sources": [{"source": "Artikel 24 - Verplichtingen van distributeurs", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e4246-1-1"}]}, {"conclusionId": "11.0", "conclusion": "Je hebt geantwoord dat er geen sprake is van een algoritme. Op basis van je antwoorden is het niet nodig om door te gaan naar Stap 2 \u2013 bepalen risicogroep. ", "obligation": "Houd je aan bestaande wet- en regelgeving (bijv. AVG wanneer je persoonsgegevens verwerkt)."}, {"conclusionId": "11.1", "conclusion": "Het is verboden om dit AI-systeem of model te gebruiken.", "obligation": "Het is verboden om dit AI-systeem te gebruiken. Let op: dit verbod geldt vanaf 1 februari 2025.", "sources": [{"source": "Artikel 5 - Verboden AI praktijken", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e2816-1-1"}]}, {"conclusionId": "11.2", "conclusion": "De AI-verordening niet van toepassing, want je hebt een uitzonderingsgrond geselecteerd.", "obligation": "Zorg ervoor dat het algoritme voldoet aan bestaande wet- en regelgeving (bijv. AVG wanneer het algoritme persoonsgegevens verwerkt).", "sources": [{"source": "Artikel 2 - Toepassingsgebied", "url": "https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#d1e1978-1-1"}]}, {"conclusionId": "11.3", "conclusion": "Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing.", "obligation": "Omdat het een algoritme met impact betreft, dien je in algoritmeregister te publiceren. Zorg ervoor dat het algoritme voldoet aan bestaande wet- en regelgeving (bijv. AVG wanneer het algoritme persoonsgegevens verwerkt)."}, {"conclusionId": "11.4", "conclusion": "Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing.", "obligation": "Je hoeft vanwege uitzonderingsgrond niet te publiceren in het algoritmeregister. Zorg ervoor dat het algoritme voldoet aan bestaande wet- en regelgeving (bijv. AVG wanneer het algoritme persoonsgegevens verwerkt)."}, {"conclusionId": "11.5", "conclusion": "Het algoritme is niet impactvol en de AI-verordening is niet van toepassing.", "obligation": "Zorg ervoor dat het algoritme voldoet aan bestaande wet- en regelgeving (bijv. AVG wanneer het algoritme persoonsgegevens verwerkt)."}, {"conclusionId": "11.6", "conclusion": "Je bent geen aanbieder, gebruiksverantwoordelijke, importeur of distributeur. De AI-verordening is alleen voor deze vier rollen van toepassing. Controleer nog een keer goed of \u00e9\u00e9n van deze rollen misschien toch op jou van toepassing is.", "obligation": "Er is geen sprake van een verplichting."}]} \ No newline at end of file diff --git a/frontend/src/components/BeslisboomForm.vue b/frontend/src/components/BeslisboomForm.vue index e181e984..d80550c0 100644 --- a/frontend/src/components/BeslisboomForm.vue +++ b/frontend/src/components/BeslisboomForm.vue @@ -24,7 +24,7 @@ const questionStore = useQuestionStore() const { AcceptedDisclaimer, QuestionId, ConclusionId } = storeToRefs(questionStore) const categoryStore = useCategoryStore() -const { categoryState, previousCategory } = storeToRefs(categoryStore) +const { categoryState, previousSubCategory} = storeToRefs(categoryStore) const data_questions = ref([]) const data_conclusions = ref([]) @@ -129,7 +129,7 @@ function handleNextStep(object: Answer | Redirect) { if (object.nextConclusionId) { questionStore.setConclusionId(String(object.nextConclusionId)) } - categoryStore.updateCurrentCategory(currentCategory.value?.topic) + categoryStore.updateCurrentCategory(currentCategory.value?.category, currentCategory.value?.subcategory) } async function givenAnswer(answer: Answer) { @@ -137,7 +137,7 @@ async function givenAnswer(answer: Answer) { if (answer.labels) { for (let i in answer.labels) { questionStore.addLabel(answer.labels[i], questionId.value) - questionStore.addLabelByCategory(answer.labels[i], currentCategory.value?.topic) + questionStore.addLabelBySubCategory(answer.labels[i], currentCategory.value?.subcategory) } } if (answer.redirects) { @@ -161,7 +161,7 @@ function reset() { } function back() { - questionStore.revertAnswer(previousCategory.value) + questionStore.revertAnswer(previousSubCategory.value) categoryStore.revertCurrentCategory() } @@ -191,23 +191,19 @@ function acceptDisclaimer() { class="rvo-layout-column rvo-max-width-layout rvo-layout-align-items-start rvo-max-width-layout-inline-padding--sm">
diff --git a/frontend/src/components/Conclusion.vue b/frontend/src/components/Conclusion.vue index 14da87a4..33bb2c63 100644 --- a/frontend/src/components/Conclusion.vue +++ b/frontend/src/components/Conclusion.vue @@ -7,7 +7,7 @@ interface Props { conclusion: string | null obligation: string | null sources: { source: string; url: string | undefined; }[] | undefined - topic: string | undefined + category: string | undefined 'labels': { category: string; assigned_labels: string | undefined; }[] | undefined } @@ -16,56 +16,86 @@ defineEmits(['back'])