diff --git a/decision-tree.yaml b/decision-tree.yaml index 1093fa9c..c106fc57 100644 --- a/decision-tree.yaml +++ b/decision-tree.yaml @@ -380,7 +380,7 @@ questions: - nextQuestionId: "8.0" if: ('"geen open-source" in labels' || ('"open-source" in labels' && '"hoog-risico AI" in labels') || ('"open-source" in labels' && '"AI-model voor algemene doeleinden" in labels')) - nextConclusionId: "15.3" - if: ('"open-source" in labels' && '"geen hoog-risico AI" in labels') + if: '"open-source" in labels && "geen hoog-risico AI" in labels' - questionId: "7.1" question: "Is er sprake van AI waarvan het bij wet is toegestaan om te gebruiken om strafbare feiten op te sporen, te voorkomen, te onderzoeken of te vervolgen?" simplifiedQuestion: "Uitzondering transparantieverplichtingen" @@ -816,7 +816,7 @@ conclusions: - source: Begrippenlijst Algoritmekader url: https://minbzk.github.io/Algoritmekader/overhetalgoritmekader/definities/#begrippenlijst - conclusionId: "13.0.2" - conclusion: Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem." + conclusion: "Je bent een gebruiksverantwoordelijke van een hoog-risico AI-systeem." obligation: "Artikel 26 - Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico: - het nemen van passende technische en organisatorische maatregelen om te waarborgen dat dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd worden gebruikt \n - het opdragen van menselijk toezicht aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen \n