woensdag 10 mei 2017

Over vooringenomen gesproken


Als doktoren astmapatiënten met een longontsteking bij zich krijgen worden deze patiënten sneller en krachtiger behandeld, zodat ze minder kans lopen aan de longontsteking te overlijden. Als je de onderzoeksgegevens van deze patiënten en gewone patiënten met longontsteking digitaal verwerkt en voedt aan lerende algoritmen, dan rolt daaruit de konklusie dat patiënten met astma minder snel aan longontsteking overlijden. Als vervolgens die algoritmen de basis voor verdere behandeling vormen, ontstaat er dus een foutieve diagnose met alle risico's van dien.

Aldus een van de meer verontrustende berichten in de NRC van afgelopen weekend. Het is dus zaak vast te stellen hoe en wanneer je lerende algoritmen kunt en mag vertrouwen. Wetenschappers antwoorden dat het wel degelijk mogelijk is om vuistregels op te stellen om dit doel te bewerkstelligen. Doorgaans worden drie vuistregels genoemd waaraan tenminste moet worden voldaan: de data moeten divers zijn, de date moeten de gehele populatie vertegenwoordigen en er moeten zoveel mogelijk variabelen in het model gestopt worden.


In 2018 wordt er in de EU een nieuwe wet geïmplementeerd inzake de AGV, de Algemene Verordening Gegevensbescherming. In artikel 9 van deze verordening staat dat data niet op basis van raciale of etnische herkomst, of op basis van andere 'speciale categorieën' mogen worden verwerkt. En ofschoon we de achtergrond van dit artikel wel begrijpen is dit juist als het gaat om lerende algoritmen buitengewoon onverstandig!

Kritikasters van de wet stellen dat Europa hier de kop in het zand steekt; het probleem dat de wet wil vermijden, wordt juist veel moeilijker om op te lossen. Me deukt, een zeer terechte waarschuwing.

Bron: NRC 6 mei 2017

Geen opmerkingen: