Dem, der designer algoritmerne – hvordan ved de, hvad der er fair?

Alle efterlader digitale fodspor, data, der kan samles op, lagres, gemmes, opsummeres og analyseres. Software, der analyser persondata, bliver almindeligt i jagten på de bedste medarbejdere. 

Software der opsamler data og derefter analyseres af en algoritme udvikles globalt; alt fra monitorering og analyse af din fysik, helbred til vurdering af din egnethed i forbindelse med job eller uddannelse. I Kina arbejder de på en borger-score, en score, der beregnes på baggrund af persondata og som vil være afgørende for, f.eks. hviDelke skoler en ung kan komme ind på.

I den danske folkeskole er man ved at udvikle og implementere værktøjer til overvågning af skoleelever, deres resultater, trivsel og fremgang.

Hvor mange år vil der gå efter disse benchmark-værktøjer er opfundet, bliver kommercialiseret til de opleves som helt naturlige? 3 år? 5 år? 10 år?

Vil de næste årgange, generation Z og dem lige efter, tænke tilbage på tiden før data-overvågning som en tid, hvor alt blev afgjort ud fra tilfældigheder og nepotisme, mens datadrevne beslutninger opleves som det mest fair valg?

Hvor fair og retfærdig er en algoritmes afgørelse egentlig?

Algoritmer opstår jo ikke af sig selv. Dem, der designer algoritmerne er med til at afgøre, hvordan de virker. Forestil dig f.eks. at du får opgaven Design den perfekte kæreste…  

Hvordan ved dem, der designer algoritmerne og beregner resultatet, outcomet, at deres antagelser giver det bedste resultat? Hvordan ved du, at du kan stole på dem? Hvad skal der til for at der kan skabes tillid til algoritmer?


Cathy O’Neil gennemgår i sin bog, Weapons of Math Destruction, How Big Data Increases Inequality and Threatens Democracy (2016) hvordan algoritmer kan være alt andet end objektive og alligevel have afgørende indflydelse på menneskers liv.

“.. O’Neil exposes the black box models that shape our future, both as individuals and as a society. These “weapons of math destruction” score teachers and students, sort résumés, grant (or deny) loans, evaluate workers, target voters, set parole, and monitor our health.

O’Neil calls on modelers to take more responsibility for their algorithms and on policy makers to regulate their use. But in the end, it’s up to us to become more savvy about the models that govern our lives..”