{"id":9810,"date":"2019-06-14T14:00:37","date_gmt":"2019-06-14T14:00:37","guid":{"rendered":"https:\/\/www.inspark.nl\/?p=9810"},"modified":"2019-06-14T14:02:58","modified_gmt":"2019-06-14T14:02:58","slug":"rechtmatig-en-rechtvaardig-datagebruik","status":"publish","type":"post","link":"https:\/\/www.inspark.nl\/rechtmatig-en-rechtvaardig-datagebruik\/","title":{"rendered":"Rechtmatig en rechtvaardig datagebruik"},"content":{"rendered":"

Big data, big business!<\/h2>\n

De wereld van data en kunstmatige intelligentie (AI) wordt gezien als de motor van digitale transformatie: big data is big business. Onze levens worden steeds meer be\u00efnvloed door slimme algoritmen die grote hoeveelheden (persoonlijke) data als brandstof gebruiken. Investeringen in IT groeien, in de hoop dat de volgende Apple, Amazon, Microsoft, Google of Facebook uit Europa komt.<\/p>\n

De datadiscussie gaat hierbij over economische belangen versus privacy-rechten \u00e9n over ‘goed’ en ‘slecht’ datagebruik als zodanig. Microsoft’s CEO Satya Nadella stelt: “We need to ask ourselves not only WHAT computers can do, but what computers SHOULD do.” <\/em>Dat wat (juridisch) rechtmatig is, dient immers ook (ethisch) rechtvaardig te zijn. Daartoe moeten we de vier fasen van datagebruik bekijken:<\/p>\n

1.\u00a0 Dataverzameling – <\/em><\/strong>Organisaties verzamelen data voor marketingdoeleinden en het leveren van diensten, maar ook om snel te kunnen innoveren.
\n2. Data-analyse – <\/em><\/strong>De te verwerken datahoeveelheden zijn z\u00f3 groot dat deze niet door mensen, maar door software geanalyseerd worden. De output is steeds vaker een (zelflerend) algoritme, dat wederom toegepast wordt op nieuwe datavolumes.
\n3. Profilering – <\/em><\/strong>Door data-analyse worden steeds nauwkeurigere profielen van datasubjecten (klanten, burgers, pati\u00ebnten, etc.) opgebouwd. Dit roept vragen op: Wie stelt die profielen samen? Wat doen organisaties ermee? Wil ik wel dat een bedrijf mijn profiel bijhoudt? En hoe is het beveiligd?
\n4. Besluitvorming – <\/em><\/strong>Profielen en algoritmen dienen de besluitvorming. Facebook bepaalt welk nieuws we zien, Google beslist welke zoekresultaten voor ons relevant zijn. Dergelijke beslissingen zijn niet altijd in ons belang. De grote vraag is wat wetmatig mag \u00e9n wat ethisch wenselijk is.<\/p>\n

Rechtmatigheid: de juridische voorwaarden<\/h2>\n

De \u00a0AVG (GDPR) stelt regels aan de verwerking van persoonsgegevens. Daarnaast spelen het databankenrecht, auteursrecht, contractuele afspraken en de bescherming van bedrijfsgeheimen een rol bij het gebruik van data. De verwarring omtrent geoorloofd datagebruik wordt steeds groter.<\/p>\n

Door je per fase van datagebruik af te vragen welke rechtsgebieden een rol spelen, ontstaat een passend juridische kader voor dataverwerking in jouw organisatie:<\/p>\n

Fase 1. Dataverzameling: <\/em><\/strong>In deze fase bekijk je eerst het soort gegevens waarmee je werkt. Gaat het om persoonsgegevens, oftewel: zijn de data niet anoniem en te herleiden tot individuen? Zo ja, heb je uitdrukkelijk toestemming gekregen om die data te verzamelen en op te slaan? Rusten er mogelijk nog andere rechten op de data die je verzamelt?<\/p>\n

Fase 2. Data-analyse: <\/em><\/strong>Door analyse van de verzamelde data kunnen nieuwe – soms zelfs bijzondere – persoonsgegevens ontstaan. Technologie maakt het mogelijk om verbanden te leggen tussen op zich niet herleidbare data, die door combinatie met andere data ineens w\u00e9l herleidbaar worden. De verkregen toestemming moet daarom niet enkel gelden voor het verzamelen van data, maar \u00f3\u00f3k voor het analyseren ervan, en wel uitsluitend voor het aangegeven analysedoel. Bij AI en big data kan dit problematisch zijn, omdat daarmee steeds nieuwe verbanden en profielen kunnen ontstaan, die niets meer met het oorspronkelijke analysedoel te maken hebben.<\/p>\n

Fase 3. Profilering: <\/em><\/strong>Door data-analyse is het mogelijk om een profiel aan een persoon toe te kennen. Zo kunnen nieuwe, geoptimaliseerde persoonsgegevens ontstaan. Daarom moet de toestemming die voor het verwerken van de persoonsgegevens gegeven is, \u00f3\u00f3k gelden voor het profileren op basis van die data.<\/p>\n

Fase 4. Besluitvorming: <\/em><\/strong>Een besluit dat op basis van de geanalyseerde data en zonder menselijke tussenkomst (geautomatiseerd) tot stand is gekomen, is niet zonder meer toegestaan. Zijn er bijvoorbeeld rechtsgevolgen voor degene op wie het besluit betrekking heeft, dan is geautomatiseerde besluitvorming – enige uitzonderingen daargelaten – bij wet (AVG) verboden. Daarnaast moet de manier waarop het besluit tot stand gekomen is, uitgelegd kunnen worden. Een geautomatiseerd besluit k\u00e1n namelijk leiden tot onrechtmatige consequenties (discriminatie, prijsafspraken).<\/p>\n

Afhankelijk van de data, de analysemethoden \u00e9n het doel, zul je dus steeds goed moeten nadenken over de effecten (bewust of onbewust) van het gebruik van algoritmen.<\/p>\n

Rechtvaardigheid: de ethische voorwaarden<\/h2>\n

Een organisatie die rechtmatig te werk gaat, handelt daarmee niet per definitie rechtvaardig. Zo worden privacy-verklaringen in de regel niet of nauwelijks gelezen en zijn de consequenties van toestemming moeilijk in te schatten (beluister daartoe ook eens deze podcast van BNR<\/a>). Aan de wettelijke voorwaarden is dan weliswaar voldaan, maar de vraag rijst of er ethisch wordt gehandeld.<\/p>\n

Organisaties worden steeds vaker beoordeeld op hoe zij omgaan met privacy, democratie, vrijheid en gelijkheid. Het is raadzaam om deze ethische discussie intern te voeren \u00e9n te formaliseren. Ethische perspectieven als het utilitarisme en de deontologie helpen daarbij.<\/p>\n

Utilitarisme<\/em><\/strong> (‘deugdethiek’) meet de morele waarde van een handeling af aan de bijdrage die deze levert aan het algemeen nut. Jurist, filosoof en utilitarist Jeremy Bentham (1748-1832) zei: \u201cIt is the greatest good to the greatest number of people which is the measure of right and wrong.\u201d <\/em>Volgens hem moeten we ons inzetten om maximale waarde te cre\u00ebren en minimale ‘pijn’ te veroorzaken voor het grootste aantal mensen.<\/p>\n

Positief handelen kan gericht zijn op ‘menselijke’ toegevoegde waarde, maar ook op betere diensten en producten. We ervaren het echter als negatief wanneer gegevens misbruikt worden, ons de toegang tot producten, diensten of kansen ontnomen wordt, of wanneer we gediscrimineerd worden (andere prijs\/service\/behandeling). Daarnaast willen we controle over de distributie en verwerking van onze data (privacy).<\/p>\n

In het kader van ons ethische model is het dus zaak om te analyseren of je organisatie door datagebruik maatschappelijke waarde (positieve effecten) cre\u00ebert, en zo ja, hoe je deze kunt vergroten. Tevens bekijk je of je organisatie met data maatschappelijk schade (negatieve effecten) veroorzaakt, en zo ja, hoe je deze kunt minimaliseren.<\/p>\n

Deontologie<\/em><\/strong> (‘plichtethiek’) gaat uit van absolute morele gedragsregels (normen). Met AI kunnen we weliswaar razendsnel enorme aantallen analyseren en waarde cre\u00ebren voor grote maatschappelijke groepen, maar tegelijkertijd kunnen minderheden daardoor benadeeld worden. Dat wordt als onethisch ervaren, ook als dit handelen het algemeen nut maximaliseert.<\/p>\n

Immanuel Kant stelde: \u201cMorality is not the doctrine of how we may make ourselves happy, but how we may make ourselves worthy of happiness.\u201d<\/em> Iedere organisatie heeft dus absolute grenzen die nooit overschreden mogen worden; zelfs de kans op overschrijding moet ge\u00eblimineerd worden.<\/p>\n

Door samenvoeging van de deugdethiek (maximale waardecreatie, minimalisatie van negatieve effecten) en de plichtethiek (definitie van absolute, niet overschrijdbare grenzen), kunnen we ons ethisch model completeren a.d.h.v. de volgende vijf stappen:<\/p>\n

Stap 1) Organisatienormen expliciteren<\/strong>
\n<\/strong>Allereerst moeten de in jouw organisatie geldende waarden en normen verhelderd en expliciet gemaakt worden. Kijk daarvoor naar de kernwaarden, waardeproposities en maatschappelijke doelstellingen van jouw organisatie en relateer deze aan dataverzameling, data-analyse, profilering en besluitvorming. Zo groeit het vertrouwen in het eigen ethisch handelen.<\/p>\n

Stap 2) Negatieve effecten onderzoeken
\n<\/strong>Ondanks alle ethische normen zijn er altijd (potenti\u00eble) negatieve effecten. Geautomatiseerde besluitvorming op basis van slimme algoritmen kan leiden tot discriminatie en ongelijke behandeling. Minder slimme algoritmen kunnen zelfs levensbedreigende fouten veroorzaken.<\/p>\n

Stap 3) Positieve effecten benadrukken
\n<\/strong>Positieve effecten van data zijn vaak intern<\/em> gefocust (efficiency, kostenbesparing). De ethische business case gaat juist over de externe<\/em> positieve effecten en de maatschappelijke waardecreatie door datagebruik. Datatechnologie kan bijvoorbeeld ingezet worden om beter in klantbehoeftes te voorzien, maar ook om schonere productieketens te ondersteunen.<\/p>\n

Stap 4) Tegenmaatregelen opstellen
\n<\/strong>Vijf belangrijke maatregelen om negatieve effecten tegen te gaan, zijn:<\/p>\n