Data Ethiek: Beveiliging versus Integriteit?
Elijah van Soldt
Wanneer we denken en spreken over data ethiek draait de discussie vaak om of we data op de eerste plaats wel zouden moeten verzamelen. Vragen over of het wel of niet verantwoordelijk of zelfs maar noodzakelijk is om dit te doen zijn alomtegenwoordig, evenals de antwoorden op deze vragen: maar natuurlijk moeten we data verzamelen! Per slot van rekening is het in ons eigen voordeel om dit te doen. Het is in het belang van onze veiligheid en wat hebben we nou echt helemaal te verbergen?
Kunstenaar en wetenschapper James Bridle (o.a. Hacking Habitat, 2016) draait het op zijn kop: het verzamelen van data is helemaal niet in het voordeel van de mensheid, het is altijd in het voordeel van het data verzamelende bedrijf. Laten we hierbij niet vergeten: als iets gratis is, ben jij waarschijnlijk het product. Als er al aan beveiliging wordt bijgedragen dan wel de beveiliging van het bedrijf tegen faillissement. Het is niet enkel onze telefoonnummers en e-mailadressen die verzameld worden, het is wat ons tot mens maakt: ons gedrag. Algoritmen meten wie je bent op basis van wat je leuk en niet vindt en passen hun reclames aan op basis van wie ze denken dat jij bent en gaat worden als persoon. Gedragsbiometrie is de nieuwste technologie die onze onbewuste gedragingen bijhoudt, van stem- en gezichtsherkenning tot het waarnemen van zelfs de kleinste tics.
Vele briljante wetenschappers hebben extensief geschreven over veiligheid versus privacy. Ik wil liever de aandacht vestigen op veiligheid versus lichamelijke en mentale integriteit. We weten dat onze data verzameld wordt en dit is niet per se een realiteit die we moeten accepteren, maar we moeten er wel mee om kunnen gaan. We moeten aan onszelf de vraag stellen: wie verzamelt mijn data, hoe, en waarom? Is mijn persoon terug te brengen tot data en zo niet, wat zijn dan de consequenties en wat doen we eraan?
Het hoe en waarom van de zaak is niet onbelangrijk: algoritmen en data verzamel software worden ontwikkeld door mensen, en mensen zijn feilbaar en bevooroordeelde wezens. Als een developer met impliciete racistische vooroordelen een algoritme ontwikkelt is de kans groot dat het data zal verzamelen en genereren op basis van die vooroordelen. Twitter, bijvoorbeeld, is al jaren aan het gokken wat het gender is van haar gebruikers en wijst ze vervolgens gewoon toe in de persoonlijke data van Twitter gebruikers op basis van hun Twittergedrag. Ik had er zelf niet op gelet, maar het spreekt voor zich dat ik in een deuk lag toen ik zag dat Twitter mij ‘man’ had toegewezen terwijl ik jaren eerder ‘vrouw’ had ingevuld. Wellicht was mijn ‘transheid’ opvallend genoeg dat het algoritme het oppikte.
Hoe grappig dat ook is, het is eveneens compleet angstaanjagend. Wat zijn de implicaties van een digitaal panopticon dat simpelweg ‘besluit’ wat zijn gebruikers zijn en waarvan het algoritme niet alleen bevooroordeelde selecties maakt, maar ook vooroordelen verspreidt? Als we de beste cyborgs willen zijn die we kunnen worden, hoe doen we dat dan zonder dat we ondergeschikt raken aan data?
Een systeem bevecht dat zo wijd verspreid is, is onmogelijk. Het beste wat we kunnen doen is het begrijpen en eromheen werken door het slimme gebruik van software, of simpelweg door geheel nieuwe software te ontwerpen. Neem, bijvoorbeeld, de DuckDuckGo browser, die geen persoonlijke info opslaat. We hebben een bewustzijn nodig van alle manieren waarop onze data wordt verzameld: foto’s, locatiediensten, gezichtsfilters op allerlei apps, Facebook en andere enorme sociale media die functioneren als gigantische databakken, YouTube kijkdata, allerlei Google diensten, enzovoort. Zelfs dan is bewustzijn niet genoeg: deze data hotspots zijn niet per se veilig zelfs als de data niet actief wordt doorverkocht. Denk hierbij bijvoorbeeld aan de enorme datalek bij Zoom in 2020.
Nog een kunstenaars en ‘dichter van code’ die begrijpt hoe algoritmen en code werken is Joy Buolamwini, die tevens meewerkt aan (IM)POSSIBLE BODIES. Zij heeft projecten gestart zoals de Safe Face Pledge om het mogelijke kwaad van bovengenoemde technologieën onder de aandacht te brengen met als doel om het beter te doen. Ze noemt het fenomeen van bevooroordeelde algoritmen ‘de gecodeerde blik’. Ze wijst op het feit dat, zoals ik hierboven aanstipte, dat deze kunnen leiden tot ervaringen van uitsluiting en discriminatie. Wat als, omdat gezichtsherkenningssoftware niet goed genoeg getraind is om zwarte mensen te herkennen, het ten onrechte iemand identificeert als crimineel op basis van zijn huidskleur? Erger nog, wat als voorspellende algoritmen binnen de politie de kansen dat iemand een misdaad begaat gaan ‘voorspellen’ op dezelfde wijze dat ik ‘voorspeld’ was man te zijn? Wat is daarbinnen het effect van impliciete en expliciete vooroordelen? Zeker binnen de context van het Amerikaanse gevangenissysteem is het ontwikkelen van bevooroordeelde (gezichtsherkennings-)software voor de politie een angstaanjagend gegeven, en dit is zeker niet beperkt tot enkel Amerika of de politie.
Een kort, omvattend antwoord op de vraag hoe wij onze integriteit behouden temidden van ‘big data’ is onmogelijk te formuleren. Het komt erop neer dat we ons bezig moeten houden met, moeten begrijpen en moeten werken met data op slimme manieren. We moeten bewust zijn van de delen van onszelf die we zo gewillig weggeven aan Snapchat filters of Facebook filter-gerelateerde sociale media ‘challenges.’ We moeten een collectief bewustzijn scheppen met betrekking tot het vrijwillig en bewust delen van onze data, en ook van wanneer we simpelweg gemanipuleerd worden door data verzamelende ‘games’ of algoritmen die ons maar laten zien wat we willen zien. Tuurlijk, het filter dat mij er bejaard uit laat zien is leuk, maar wie heeft er het meeste profijt van: ik die even kan lachen om een grappige foto, of het bedrijf dat zojuist een perfect beeld heeft gekregen van mijn gezichtskenmerken?