Hoe algoritmes onze levens beheersen

Door: Joris Peterse | 16 augustus 2021 09:06

How To

Aan algoritmes die allerlei zaken voor ons bepalen, valt in onze gedigitaliseerde wereld niet te ontkomen. Het bekendste voorbeeld zijn de algoritmes van Facebook, Google en YouTube, die bepalen wat wij te zien krijgen en welke aanbevelingen we krijgen. Ook de toeslagenaffaire ging mis op algoritmes. Hoe worden zaken voor ons bepaald? En kun je deze algoritmes ontduiken of temmen?

Als we Wikipedia erbij pakken voor de definitie van een algoritme, dan vertelt de encyclopedie ons: ‘Een algoritme is een recept om een wiskundig of informaticaprobleem op te lossen. Wiskundig geformuleerd is het een eindige reeks instructies die vanuit een gegeven begintoestand naar een beoogd doel leidt.’

Marit Hoefsloot, master student Philosophy of Science, Technology and Society bij UTwente en werkzaam bij het Future Lab Waag in Amsterdam weet het net even helderder uit te leggen: “Een algoritme is simpel gezegd een stappenplan. Hoewel je ook een recept al een algoritme kunt noemen, wordt het woord voornamelijk gebruikt voor stappenplannen voor het uitvoeren van wiskundige berekeningen.”

Wiskundige Hannah Fry noemt in haar boek ‘Algoritmes aan de macht’ vier functies van algoritmes: prioriteren, classificeren, associëren en filteren. Hoefsloot vult dit graag aan met een vijfde functie: identificeren. Hierbij noemt ze het praktijkvoorbeeld van gezichtsherkenning om je smartphone te ontgrendelen, waar bewegend beeldmateriaal vergeleken wordt met een opgeslagen plaatje van jouw gezicht, met het doel om je identiteit vast te stellen.

Een algoritme is simpel gezegd een stappenplan. Hoewel je ook een recept al een algoritme kunt noemen

Alledaagse algoritmes

Algoritmes komen natuurlijk veelvuldig voor in de digitale wereld en zitten ingebakken in de meest basale functies die we gebruiken. Hoefsloot geeft hierbij het voorbeeld van de zoekfunctie in pdf-documenten (classificeren): “Ik kan mijn leven nauwelijks voorstellen zonder zoekfuncties!”

De bekendste voorbeelden van manieren waarop we in aanraking komen met algoritmes in de digitale wereld, zijn de algoritmes van Facebook en Google. Het sociale netwerk gebruikt deze om een tijdlijn samen te stellen met inhoud die je maximaal prikkelt. Googles algoritmes bepalen (prioriteren) de zoekresultaten die op jou afgestemd zijn en YouTube-videosuggesties die jou moeten verleiden.

Deze algoritmes lijken een vrij onschuldig middel om een commercieel doel te verwezenlijken: jouw aandacht vasthouden om meer advertentie-inkomsten te werven en nóg meer data te verzamelen om de algoritmeformules te voeden. Toch kunnen de algoritmes minder onschuldige gevolgen hebben en zelfs samenleving ontwrichtende gevolgen hebben.

Marit Hoefsloot, master student Philosophy of Science, Technology and Society bij UTwente en werkzaam bij het Future Lab Waag in Amsterdam.

Algoritmes in de praktijk

Eigenlijk bij alles waar een computer aan te pas komt, komen algoritmes om de hoek kijken. Supermarktketen Albert Heijn kent persoonlijke aanbiedingen, die koopgedrag combineert met meerdere variabelen om je met op jouw gerichte voordeeltjes naar de winkel te lokken. Dating apps als Tinder gebruiken algoritmes die bepalen hoe vaak je profiel getoond wordt en aan wie. Zo’n bedrijf heeft er immers niks aan als je na één onbetaalde swipe de liefde van je leven tegenkomt. Ingewikkelder wordt het als we kijken naar zelfrijdende auto’s. Hier vertrouwen we op algoritmes die binnen een fractie van een seconde soms heftige ethische kwesties oplossen. Prioriteer je bij een mogelijke aanrijding inzittenden of voetgangers? Wijk je bij een onverwacht overstekende hond wel of niet uit richting de kat die op de stoep zit?

Toeslagenaffaire

Om een goed voorbeeld te noemen van de ingrijpende gevolgen waar zwaar leunen op algoritmes toe kunnen leiden, hoeven we niet alleen naar techgiganten te kijken.

De toeslagenaffaire, die leidde tot grote (financiële) problemen bij slachtoffers en de val van het kabinet-Rutte III, kwam voort uit algoritmes. Mensen werden onterecht gekort op hun toeslagen. De wiskundige formule waarmee het algoritme werd bepaald, woog verschillende factoren mee. Dubbele nationaliteit? Een specifieke etnische achtergrond? Het werd allemaal als risicofactor aangemerkt voor mogelijke fraude in het algoritme. Waren er te veel risicofactoren aangevinkt? Dan werden op basis daarvan mensen (vaak onterecht) gekort. Met alle gevolgen van dien.

Algoritmes bij Google-zoekresultaten

Je zou denken dat zoekmachines neutraal zijn en iedereen dezelfde zoekresultaten voorschotelen. Dat is bij Google absoluut niet het geval. Zoekresultaten worden beïnvloed op basis van verzamelde gegevens van Google. Niet alleen in de vorm van gepersonaliseerde zoekresultaten, die je overigens in de zoekinstellingen kunt uitschakelen, maar ook algemener. Afhankelijk van je locatie, zoals het land waar je je bevindt, worden zoekresultaten anders weergegeven. Bijvoorbeeld om de zoekresultaten van pagina’s in een gangbare taal weer te geven, maar ook voor lokaal gevoelige onderwerpen.

De algoritmes die bepalen wat Google jou toont, zijn een groot geheim en geven Google enorm veel macht om te bepalen waar jij, of een hele bevolkingsgroep, mee geconfronteerd mag worden. In potentie kan hiermee publieke opinie worden beïnvloed, wat vanuit democratisch oogpunt onwenselijk is. Niet Google, maar Facebook – dat eveneens bepaalt wat jij te zien krijgt – is (en wordt) regelmatig misbruikt om publieke opinie en zelfs verkiezingen te manipuleren: het recente Cambridge Analytica-schandaal is hier een voorbeeld van.

Zelfs als je persoonlijke zoekresultaten op zoekmachine Google uitschakelt, worden je resultaten beïnvloed door allerlei variabelen.

Wiskundige discriminatie

Hoewel algoritmes niet de enige misstand waren die tot de toeslagenaffaire leidden, stelde Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP): “Het hele systeem was op een discriminerende manier ingericht en werd ook als zodanig gebruikt.”

Het algoritme werd hierbij aangewend om statistieken tot vooroordelen om te toveren. Als een soort cijfermatige onderbouwing om onrecht toe te passen. Zo benoemde de AP het voorbeeld dat Nederlanders met een dubbele nationaliteit tot eind 2018 strenger gecontroleerd werden als ze kinderopvangtoeslag aanvroegen dan andere Nederlanders. Die dubbele nationaliteit was een van de waarden waar het geautomatiseerde algoritme op aansloeg en bepaalde dat er extra controle nodig was. Volgens de AP was er hierdoor sprake van discriminatie op basis van nationaliteit.

Bij de toeslagenaffaire werd pijnlijk duidelijk dat de uitkomst van het stappenplan die we als algoritme bestempelen niet altijd een eerlijk resultaat is. Hoefsloot: “algoritmes zijn per definitie gebouwd op historische data, dus het is niet makkelijk om dit soort problemen te omzeilen.”

In deze kwestie lijkt het dus alsof algoritmes gebruikt zijn om onze vooroordelen te bevestigen. “Wat een optie zou zijn”, vervolgt Hoefsloot, “is het erkennen dat algoritmes dit soort vooroordelen kunnen hebben en dus niet per definitie ‘neutraal’ zijn. De resultaten uit de algoritmes moeten worden gezien als kansen en aanbevelingen en niet als de waarheid of als de enige optie. We moeten kritisch blijven op die aanbevelingen en die aanbevelingen ook leren negeren. De mensen die werken met dit soort algoritmes moeten onderwezen worden in de werking ervan en in het feit dat de resultaten enkel kansen en aanbevelingen zijn, en dat die aanbevelingen ook fout kunnen zijn. De beslissende kracht komt dan weer bij de mens te liggen en niet bij het algoritme. Het algoritme wordt enkel gebruikt om complexe berekeningen uit te voeren.”

Het oordeel van de AP was niet mild: “Het hele systeem was op een discriminerende manier ingericht en werd ook als zodanig gebruikt”.

Gebrek aan menselijke interventie

Hoefsloot vermoedt dat de negatieve bijdrage van algoritmes aan de toeslagenaffaire verklaard kan worden door blind vertrouwen: “Vermoedelijk hebben algoritmes een negatieve bijdrage geleverd aan de toeslagenaffaire omdat er wordt aangenomen dat algoritmes geen fouten kunnen maken. Maar het is en blijft belangrijk om kritisch te blijven op de uitkomsten van de algoritmes en die dubbel te checken. Een persoon moet verantwoordelijk zijn voor de uitvoering van het algoritme en moet in staat zijn om de werking en de uitkomsten van het algoritme te auditen. Het algoritme mag niet als de enige bron van waarheid worden gebruikt. Alleen op deze manier kunnen met algoritmes tijdsintensieve taken nog steeds goed geautomatiseerd worden, maar wordt de beslissende kracht weggenomen.”

Het schrijnende bij de toeslagenaffaire lijkt dat de algoritmes hun vooraf bepaalde werk naar behoren uitvoerde, maar menselijke interventie ontbrak. Ook dit is een patroon dat we bij de algoritmes maar al te vaak terugzien. Als het algoritme van Facebook of Instagram de plank misslaat en je ongepaste posts laat zien, dan gaan meldingen daarover vrijwel altijd door een geautomatiseerd proces. Er komt zeer zelden een menselijk oordeel aan te pas.

YouTube, waarbij de algoritmes je al snel op een spoor van misinformatie en complottheorieën zetten omdat mensen statistisch gezien hier sneller voor kiezen en langer blijven kijken, maakt het je ook onmogelijk een mens op de hoogte te brengen van misstanden. Wanneer een video veel dislikes krijgt, wordt hij minder snel getoond in de aanbevolen video’s of minder vaak automatisch afgespeeld. Wordt een video gerapporteerd als misleidend of op een andere manier ongepast, dan is het in de meeste gevallen ook een wiskundige formule die bepaalt wanneer een video op zwart gezet wordt.

Oneerlijke algoritmes

Helaas is de toeslagenaffaire niet het enige voorbeeld van hoe op overheidsniveau algoritmes oneerlijk zijn toegepast. Hoefsloot wijst op nog twee voorbeelden. Ten eerste het Compas-algoritme dat in de VS wordt gebruikt om recidive te voorspellen, en bevooroordeeld is ten aanzien van mensen met een zwarte huidskleur of van Latino-afkomst.

Ook werd in de zomer van 2020 een algoritme in het VK gebruikt dat eindscores van middelbare scholieren moest voorspellen, omdat de scholieren vanwege de coronapandemie geen eindtentamens konden maken. Het algoritme baseerde de score op de historische data van zowel de scholieren zelf als de scholieren die in de afgelopen jaren op diezelfde school hadden gezeten. Maar aangezien scholen een afspiegeling zijn van een bepaalde wijk, en wijken vaak te maken hebben met segregatie, kregen uitmuntende scholieren uit lagere inkomenswijken erg lage scores.

Hoefsloot: “Dit is ook een goed voorbeeld van hoe algoritmes diversiteit in de weg kunnen zitten. Dit soort algoritmes zijn alleen op zoek naar de mensen die het beste binnen het ideaalplaatje passen. Vaak worden kenmerken waarop mensen gediscrimineerd kunnen worden (zoals etniciteit, inkomen, geslacht), meegenomen in dat ideaalplaatje.”

Uitbesteden

Waarom er zo weinig mensenwerk aan te pas komt, laat zich raden. Geautomatiseerde processen zijn, vooral in een digitale wereld enorm efficiënt. Techreuzen als Google en Facebook moeten hun aandeelhouders tevreden houden. Het aanstellen van veel mankracht om inhoud te controleren, of tijdlijnen en zoekresultaten zonder algoritmes uit te voeren, doen de beurskoersen geen goed.

Daarbij is het ook belangrijk om in het achterhoofd te houden dat het advertentiebedrijven zijn. De algoritmes zorgen ervoor dat onze aandacht zo vaak mogelijk wordt getrokken en zo lang mogelijk wordt vastgehouden door advertenties en overige inhoud optimaal te personaliseren. De samenstelling van de content en het welzijn van de kijkers is daarbij van ondergeschikt belang.

Zijn algoritmes neutraal?

Ondanks dat we algoritmes omschrijven als een stappenplan, wiskundig of een formule, bestrijdt Hoefsloot dat het iets neutraals is. “Er kunnen waarden (goed of slecht) in algoritmes gebouwd worden. Wel is het belangrijk om te onthouden dat die waarden ook een essentieel deel zijn van de algoritmes. Je kunt geen stappenplan maken zonder beslissingen te maken over welke stappen goed en welke stappen fout zijn. Die beslissingen zijn gebaseerd op waarden.”

Algoritmes zouden alleen een neutrale en eerlijke rol kunnen spelen als ze slechts ingezet worden voor complexe berekeningen, waarbij het eindresultaat gebruikt wordt als advies en niet als beslissing.

Hoefsloot: “Algoritmes kunnen op verschillende manieren bevooroordeeld zijn. Een voorbeeld daarvan is de training data bias. Algoritmes worden getraind op training data. Als die training data geen representatieve afspiegeling zijn van de maatschappij, dan kan het algoritme bijvoorbeeld beter worden in het herkennen van mensen met een bepaalde huidskleur. In het geval van de gezichtsherkenning zijn die algoritmes bijvoorbeeld getraind met foto’s van voornamelijk witte mannen en in iets mindere mate witte vrouwen. Vandaar dat het algoritme beter is in het herkennen van witte mannen, en veel minder goed in het herkennen van mensen met een andere huidskleur of geslacht.”

Dystopische algoritmes

De eerder genoemde voorbeelden van de toeslagenaffaire, gestuurde zoekresultaten en social media zijn algoritmes die ons dagelijks leven beïnvloeden. Maar het kan nog veel verder gaan, zoals het dystopische sociaal kredietsysteem waar China aan werkt. Hierbij krijgt iedere burger een score op basis van gedrag, en die score bepaalt of je mag reizen, geld mag lenen bij een bank of zelfs waar je mag wonen. Deze score wordt bepaald door algoritmes gebaseerd op arbitraire waardes en geautomatiseerde systemen, die bijvoorbeeld op basis van gezichtsherkenning jou een boete (en een negatieve aantekening) geven wanneer je door een rood stoplicht wandelt. Het geeft aan hoe algoritmes kunnen ingrijpen op de samenleving als ethische waarden volledig uit de code verdwijnen.

Tevens is er een megalomane technische infrastructuur voor nodig, waar China hard aan werkt. Hierbij kwam Huawei eind 2019 nog in een negatief daglicht te staan, omdat het voor de Chinese overheid een algoritme ontwikkelde voor straatcamera’s die Oeigoeren uit mensenmassa’s kan pikken. Bij herkenning worden overheden onmiddellijk op de hoogte gesteld van zijn of haar aanwezigheid. Zo lijkt in het geval van China dat algoritmes zelfs aan de basis staan van mensenrechtenschendingen, en wellicht (deels) bijdragen aan wat sommige landen al bestempelen als de Oeigoerse genocide.

Geen ontkomen aan

Het voorbeeld van China laat een extreme kant zien van het gebruik van algoritmes, maar ook ons dagelijks leven wordt er dus door beïnvloed. Hoe kun je je er tegen wapenen? Hoe krijg je een internet en dienstverlening die zo neutraal mogelijk ingericht is?

Het antwoord is tamelijk deprimerend. Je kunt zoekdiensten als StartPage en DuckDuckGo gebruiken, die wat gebruikersvriendelijkere algoritmes lijken te gebruiken, maar als zoekmachine nog altijd tekortschieten. En hoe het zit met de zoektechnologie van deze alternatieven die jouw resultaten weergeeft? Dat blijft gissen.

De enige manier om onder de dubieuze algoritmes van Facebook, Instagram en YouTube uit te komen is door de diensten links te laten liggen. Onder een overheid uitkomen die algoritmes oneerlijk toepast? Dat is misschien wel een nóg onrealistischere uitdaging.

De verantwoordelijkheid ligt bij de programmeurs en eigenaren (bedrijven en overheden) achter de algoritmes. Als mensen eindverantwoordelijk worden gemaakt voor de uitkomst van de stappenplannen en algoritmes worden getraind op een representatieve afspiegeling van de maatschappij, kunnen eerste stappen gezet worden.

Hoefsloot vult concluderend aan: “Daarnaast is het belangrijk dat de subjecten van de algoritmes zich ervan bewust zijn dat er een beslissing over hen wordt genomen op basis van een algoritme en moeten die beslissingen uitgelegd kunnen worden. De subjecten moeten het systeem kunnen aanvechten, net als bij een menselijke beslissing.”

Met een andere zoekmachine ontkom je niet aan algoritmes, maar wel aan het persoonlijke prioriteer-algoritme.

Meer over algoritmes

Wil je meer te weten komen over hoe algoritmes ons leven beïnvloeden? Netflix biedt de documentaire ‘Coded Bias’ aan, die naast het blootleggen van gebreken in gezichtsherkenning op basis van huidskleur en ras, meer misstanden aan de kaak stelt. De serie Black Mirror (aflevering ‘Nosedive’) laat zien hoe een sociaal kredietsysteem in de Westerse wereld er mogelijk uit zou zien. Het boek Algoritmes aan de macht (Hannah Fry) legt de uitdagingen van een geautomatiseerd bestaan bloot. Tevens raadt Hoefsloot de boeken ‘Weapons of Math Destruction’ van Cathy O’ Neil en ‘Het internet is stuk’ van Marleen Stikker (internetpionier en tevens oprichter van Waag) aan.

Waarom worden blanke, westerse gezichten beter herkend door gezichtsherkenningstechnologieën? De documentaire Coded Bias legt de vinger op de zere plek.

1 Reactie(s) op: Hoe algoritmes onze levens beheersen

  • Om te reageren moet je ingelogd zijn. Nog geen account? Registreer je dan en praat mee!
  • 20 augustus 2021 12:44 RobbertBrus
    Goed stuk!
    Wanneer je een reactie plaatst ga je akoord
    met onze voorwaarden voor reacties.

Wanneer je een reactie plaatst ga je akoord
met onze voorwaarden voor reacties.