Skip to content

Commit

Permalink
Release v2.0/pba 04 aanscherpen (#467)
Browse files Browse the repository at this point in the history
  • Loading branch information
BartdeVisser authored Dec 16, 2024
1 parent 3be4a5e commit f736a35
Showing 1 changed file with 11 additions and 24 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -24,33 +24,23 @@ hide:
## Maatregel
<!-- Vul hier een omschrijving in van wat deze maatregel inhoudt. -->
Breng in kaart welke belanghebbenden er zijn en betrek hen op verschillende momenten in de levenscyclus.
Belanghebbenden zijn onder meer eindgebruikers, mensen en rechtspersonen die door het algoritme geraakt kunnen worden en vertegenwoordigende organisaties.

## Toelichting
<!-- Geef hier een toelichting van deze maatregel -->
Algoritmes worden vaak gebruikt binnen een (specifieke) context waar deze invloed op uitoefenen.
Medewerkers moeten bijvoorbeeld werken met de uitkomsten of anderen zijn onderwerp van het algoritme.
Om te voorkomen dat er een mismatch ontstaat met de realiteit, is het van belang om verschillende belanghebbende mee te nemen. Het betrekken van specifieke domeinkennis kan bijvoorbeeld in de vorm van kennisdelingsessies of workshops.

Het betrekken van belanghebbenden is van belang in bijna alle fasen van de levenscyclus.
Belanghebbenden zijn onder meer eindgebruikers, mensen en rechtspersonen die door het algoritme geraakt kunnen worden en vertegenwoordigende organisaties.

In de fase van de probleemanalyse is het allereerst van belang in kaart te brengen welke stakeholders er zijn.
Wie gaan bijvoorbeeld werken met het algoritme (eindgebruikers)? En welke demografieën worden geraakt door een algoritme?
Bij wie liggen de voordelen en bij wie liggen de nadelen?
Ga vervolgens in gesprek met belanghebbenden - al dan niet vertegenwoordigd door belangenorganisaties zoals burgerrechtenorganisaties - over het te ontwerpen algoritme en de context waarin het gebruikt wordt.
Bespreek daarbij welke definitie en metriek van _fairness_ past bij de context.

In de fase van dataverkenning en datapreparatie is het van belang om domeinexpertise te betrekken, om zo in kaart te brengen wat de data features betekenen en waar zij vandaan komen.
Op basis daarvan kan in kaart gebracht worden of er sprake is van bias en/of links met beschermde persoonskenmerken.
Ga in gesprek met deze belanghebbenden - al dan niet vertegenwoordigd door belangenorganisaties zoals burgerrechtenorganisaties - over het te ontwerpen algoritme en de context waarin het gebruikt wordt. Zij kunnen waardevolle inzichten en wensen delen, wat kan bijdragen aan een betere werking van het algoritme.

In de fase van implementatie is het van belang de eindgebruikers te betrekken.
Het is dan vooral van belang om maatregelen te nemen om automation bias, deployment bias en reinforcing feedback loop te voorkomen of te beperken.

In de fase van monitoren is het van belang belanghebbenden te betrekken bij de evaluatie.
Dit kan bijvoorbeeld in de vorm van een survey of focusgroep.
Zij kunnen problemen in de praktijk naar voren brengen, die niet altijd terug te vinden zijn in de data.

Terugkoppelen aan buitenwereld.
Enkele voorbeelden hierbij zijn:
- Het betrekken van burgers bij het ontwerpen van een algoritme in de ontwerpfase.
- Het bespreken welke definitie en metriek van _fairness_ past bij de context met de proceseigenaar en een ethicus.
- Het betrekken van domeinexperts in de fase van dataverkenning en datapreparatie, om zo in kaart te brengen wat de data features betekenen en waar zij vandaan komen.
- Het betrekken van eindgebruikers bij het ontwikkelen en het implementeren van het algoritme.
- Het betrekken van belanghebbenden bij het monitoren en evalueren van het algoritme.

## Bijbehorende vereiste(n) { data-search-exclude }
<!-- Hier volgt een lijst met vereisten op basis van de in de metadata ingevulde vereiste -->
Expand All @@ -63,16 +53,13 @@ Terugkoppelen aan buitenwereld.
<!-- Vul hier de relevante bronnen in voor deze maatregel -->

- [Toetsingskader Algemene Rekenkamer 2.12](https://www.rekenkamer.nl/onderwerpen/algoritmes/documenten/publicaties/2024/05/15/het-toetsingskader-aan-de-slag)
- [The Fairness Handbook](https://openresearch.amsterdam/nl/media/inline/2022/7/14/fairness_handbook.pdf)
- [Handreiking non-discriminatie by design](https://open.overheid.nl/repository/ronl-3f9fa69c-acf4-444d-96e1-5c48df00eb3c/1/pdf/bijlage-1-handreiking-non-discriminatie-by-design.pdf)
- [Ethics Guidelines for Trustworthy AI](https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai)
- [Onderzoekskader Algoritmes Auditdienst Rijk, SV.10](https://www.rijksoverheid.nl/documenten/rapporten/2023/07/11/onderzoekskader-algoritmes-adr-2023)

- [Framework for Meaningful Engagement](framework-meaningful-engagement.md)

## Risico
<!-- vul hier het specifieke risico in dat kan worden gemitigeerd met behulp van deze maatregel -->
De mismatch kan nadelige gevolgen hebben voor de effectiviteit van het algoritme binnen een context.
Het kan daarnaast ook ongerechtvaardigde discriminatie in de hand werken.
Ontwikkelaars kunnen bijvoorbeeld missen dat in de context van het algoritme een variabele een proxy is voor een discriminatiegrond.
Het niet betrekken van belanghebbenden bij de ontwikkeling en het gebruik van algoritmes, kan ertoe leiden dat belangrijke inzichten of perspectieven niet worden verwerkt en het algoritme onjuist gaat functioneren.

## Voorbeeld
<!-- Voeg hier een voorbeeld toe, door er bijvoorbeeld naar te verwijzen -->
Expand Down

0 comments on commit f736a35

Please sign in to comment.