-
Notifications
You must be signed in to change notification settings - Fork 25
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
algemene introducerende tekst en definities #62
algemene introducerende tekst en definities #62
Conversation
61d7499
to
a9fadda
Compare
|
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Mooi stuk, @ruthkoole!
|
||
#### Statistische bias | ||
Statistische bias wordt gedefinieerd als *een consistente numerieke afwijking van een schatting ten opzichte van de werkelijke onderliggende waarde*. | ||
Deze vorm van bias komt bijvoorbeeld voor wanneer er een steekproef wordt gebruikt die niet representatief is voor de populatie, en de schattingen op basis van de steekproef vervolgens systematisch afwijken van de werkelijke waarde. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
"afwijken van de werkelijke waarde in de gebruikte doelpopulatie"
#### Statistische bias | ||
Statistische bias wordt gedefinieerd als *een consistente numerieke afwijking van een schatting ten opzichte van de werkelijke onderliggende waarde*. | ||
Deze vorm van bias komt bijvoorbeeld voor wanneer er een steekproef wordt gebruikt die niet representatief is voor de populatie, en de schattingen op basis van de steekproef vervolgens systematisch afwijken van de werkelijke waarde. | ||
Statistische bias duidt op een systematische fout die gemaakt wordt door het algoritme. Deze fouten kunnen vrij zijn van vooroordelen of discriminerende bedoelingen. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Een algoritme heeft geen voorkeur of bedoeling. => kunnen of "deze fouten ... discriminerende bedoelingen." verwijderen?
Deze menselijke vooroordelen zijn vaak impliciet van aard en hebben betrekking op de manier waarop een individu bepaalde informatie waarneemt en verwerkt om bijvoorbeeld een beslissing te nemen. | ||
In de context van algoritmes kan deze vorm van bias voorkomen tijdens de ontwikkeling van een algoritme, waarbij menselijke vooroordelen verwerkt kunnen worden in het algoritme (bijvoorbeeld wanneer er gebruik wordt gemaakt van rekenregels). | ||
Daarnaast kan menselijke bias voorkomen tijdens de afhandeling, wanneer een door een algoritme geselecteerde groep handmatig wordt afgehandeld. | ||
Voorbeelden van vormen menselijke bias is wanneer er voorkeur wordt geven aan de voorspellingen van een algoritme die reeds bestaande overtuigigngen bevestigen (confirmation bias/bevestigingsbias), of wanneer mensen de neiging hebben om voorkeur te geven aan suggesties die door het algoritme worden gedaan (automatiseringsbias). |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Een ander voorbeeld is dat mensen personen soms ongelijk behandeling op basis van gender of afkomst.
Tweemaal "ook" weggehaald
Voetnoot weggehaald, omdat dit later uitgelegd wordt
Het heeft niet alleen effect op "hoe" de data verzameld wordt, maar ook op de data zelf.
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Aantal taalfoutjes verwijderd, verder prima.
!!! info "Disclaimer" | ||
|
||
Het Algoritmekader is nog volop in ontwikkeling. Op deze plek willen we vooral aan de slag gaan op een open en transparante wijze. Het is dus niet definitief. Dat betekent dat er dingen opstaan die niet af zijn en soms zelfs fout. Mocht er iets niet kloppen, laat het ons weten via [GitHub](https://github.com/MinBZK/Algoritmekader). | ||
|
||
## Wat en waarom? | ||
Algoritmes worden binnen de overheid veelvuldig ingezet om publieke taken uit te voeren. Dit biedt veel kansen, maar er zijn ook risico's aan verbonden. | ||
Hoewel algoritmes in sommige gevallen kunnen bijdragen aan het tegengaan van discriminatie, kan bias[^1] in het algoritme ook leiden tot een ongelijke en oneerlijke behandeling van burgers of groepen, en kan er ook sprake zijn van discriminerende effecten. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Hier zeggen we dat algoritmes discriminatie tegen kan gaan. Moet dit niet ook bias zijn?
Op basis van werkgroep bijeenkomsten hebben we een algemene tekst opgesteld over bias en non-discriminatie.