Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

algemene introducerende tekst en definities #62

Merged
merged 11 commits into from
May 22, 2024

Conversation

ruthkoole
Copy link
Collaborator

Op basis van werkgroep bijeenkomsten hebben we een algemene tekst opgesteld over bias en non-discriminatie.

@ruthkoole ruthkoole requested a review from a user March 21, 2024 13:31
@berrydenhartog berrydenhartog force-pushed the bias-en-non-discriminatie-algemene-tekst branch from 61d7499 to a9fadda Compare March 22, 2024 13:35
Copy link

github-actions bot commented Mar 22, 2024

PR Preview Action v1.4.7
Preview removed because the pull request was closed.
2024-05-22 10:01 UTC

Copy link

@MACKattenberg MACKattenberg left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Mooi stuk, @ruthkoole!

docs/bouwblokken/fundamentele rechten/non-discriminatie.md Outdated Show resolved Hide resolved

#### Statistische bias
Statistische bias wordt gedefinieerd als *een consistente numerieke afwijking van een schatting ten opzichte van de werkelijke onderliggende waarde*.
Deze vorm van bias komt bijvoorbeeld voor wanneer er een steekproef wordt gebruikt die niet representatief is voor de populatie, en de schattingen op basis van de steekproef vervolgens systematisch afwijken van de werkelijke waarde.

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

"afwijken van de werkelijke waarde in de gebruikte doelpopulatie"

#### Statistische bias
Statistische bias wordt gedefinieerd als *een consistente numerieke afwijking van een schatting ten opzichte van de werkelijke onderliggende waarde*.
Deze vorm van bias komt bijvoorbeeld voor wanneer er een steekproef wordt gebruikt die niet representatief is voor de populatie, en de schattingen op basis van de steekproef vervolgens systematisch afwijken van de werkelijke waarde.
Statistische bias duidt op een systematische fout die gemaakt wordt door het algoritme. Deze fouten kunnen vrij zijn van vooroordelen of discriminerende bedoelingen.

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Een algoritme heeft geen voorkeur of bedoeling. => kunnen of "deze fouten ... discriminerende bedoelingen." verwijderen?

docs/bouwblokken/fundamentele rechten/non-discriminatie.md Outdated Show resolved Hide resolved
Deze menselijke vooroordelen zijn vaak impliciet van aard en hebben betrekking op de manier waarop een individu bepaalde informatie waarneemt en verwerkt om bijvoorbeeld een beslissing te nemen.
In de context van algoritmes kan deze vorm van bias voorkomen tijdens de ontwikkeling van een algoritme, waarbij menselijke vooroordelen verwerkt kunnen worden in het algoritme (bijvoorbeeld wanneer er gebruik wordt gemaakt van rekenregels).
Daarnaast kan menselijke bias voorkomen tijdens de afhandeling, wanneer een door een algoritme geselecteerde groep handmatig wordt afgehandeld.
Voorbeelden van vormen menselijke bias is wanneer er voorkeur wordt geven aan de voorspellingen van een algoritme die reeds bestaande overtuigigngen bevestigen (confirmation bias/bevestigingsbias), of wanneer mensen de neiging hebben om voorkeur te geven aan suggesties die door het algoritme worden gedaan (automatiseringsbias).

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Een ander voorbeeld is dat mensen personen soms ongelijk behandeling op basis van gender of afkomst.

@ruthkoole ruthkoole changed the base branch from main to release May 2, 2024 16:16
@ruthkoole ruthkoole added this to the Release v1.2 milestone May 3, 2024
@ruthkoole ruthkoole linked an issue May 3, 2024 that may be closed by this pull request
Tweemaal "ook" weggehaald
Voetnoot weggehaald, omdat dit later uitgelegd wordt
Het heeft niet alleen effect op "hoe" de data verzameld wordt, maar ook op de data zelf.
Copy link
Contributor

@jaspervanderheide jaspervanderheide left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Aantal taalfoutjes verwijderd, verder prima.

!!! info "Disclaimer"

Het Algoritmekader is nog volop in ontwikkeling. Op deze plek willen we vooral aan de slag gaan op een open en transparante wijze. Het is dus niet definitief. Dat betekent dat er dingen opstaan die niet af zijn en soms zelfs fout. Mocht er iets niet kloppen, laat het ons weten via [GitHub](https://github.com/MinBZK/Algoritmekader).

## Wat en waarom?
Algoritmes worden binnen de overheid veelvuldig ingezet om publieke taken uit te voeren. Dit biedt veel kansen, maar er zijn ook risico's aan verbonden.
Hoewel algoritmes in sommige gevallen kunnen bijdragen aan het tegengaan van discriminatie, kan bias[^1] in het algoritme ook leiden tot een ongelijke en oneerlijke behandeling van burgers of groepen, en kan er ook sprake zijn van discriminerende effecten.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Hier zeggen we dat algoritmes discriminatie tegen kan gaan. Moet dit niet ook bias zijn?

@jaspervanderheide jaspervanderheide merged commit ea35b65 into release May 22, 2024
1 check passed
@ruthkoole ruthkoole deleted the bias-en-non-discriminatie-algemene-tekst branch May 23, 2024 12:01
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

Teksten voor alle bouwblokken
3 participants