Als student aan de Universiteit Utrecht heeft Fenna Woudstra zich afgelopen weken verdiept in de wereld van AI en Ethiek. Een stage bij Piek Visser-Knijff (Filosofie in actie) bleek een ideale omgeving voor het publiceren van haar bevindingen in een e-zine. Tijd voor 5 vragen aan Fenna!
1. Waarom heb je destijds voor de studie Liberal Arts & Sciences gekozen en waarom specifiek nu ethiek in relatie tot AI?
Ik heb voor LAS gekozen omdat je zelf je studie samenstelt en ik zo vakken uit heel verschillende interessegebieden kon volgen. Ik was al wel vanaf het begin geïnteresseerd in AI, maar ik had er vooral veel vragen over: al die, soms enge, ontwikkelingen (AI in rechtssystemen, militaire drones, een robot met burgerrechten), moeten we dat wel willen?
Ik besloot dat ik eerst moest gaan begrijpen hoe AI werkt voor ik er iets over kon zeggen, daarom ben ik als hoofdrichting AI gaan doen, met een minor ethiek.
2. Wat is volgens jou nog het grootste misverstand over AI?
Het is zeker lastig om kort en simpel uit te leggen wat AI is, er is zoveel over te vertellen! Ik heb me gefocust op de werking van machine learning algoritmen, omdat dit het belangrijkst is voor het begrijpen van de rest van mijn onderzoek. Ik hoop dat hiermee voor meer mensen duidelijk wordt wat het leren van AI inhoudt. Ik denk dat een misverstand is dat AI objectievere beslissingen kan maken dan een mensen, omdat het op basis van ‘feitelijke data’ leert. De data wordt aangeleverd door mensen en kan vooroordelen of oversimplificaties bevatten of gewoon niet representatief zijn voor een hele groep. Hierdoor kan AI alsnog ongewenst verschil maken tussen mensen, wat wij als discriminatie op zouden vatten.
3. In je gesprek met professor Albert Meijer focus je (onder meer) op vertrouwen. Waarom is dat belangrijk volgens jou?
Klopt, bij een courgette van de groenteman kun je erop vertrouwen dat het product min of meer aan je verwachtingen zal voldoen; allereerst omdat je al bekend bent met het product, maar ook omdat er instanties zijn die controleren of een product veilig is geproduceerd, zoals de Voedsel- en Warenautoriteit. Met AI ligt dat anders, veel mensen begrijpen nog niet helemaal wat AI is en hoe het werkt, en er zijn ook geen algemene instituties die alle algoritmen controleren. Het is dus nog lastig om erop te vertrouwen dat een algoritme goed werkt wanneer het een beslissing over jou gaat maken. Daarom heb ik met Albert Meijer besproken of transparantie bij kan dragen aan dit vertrouwen.
4. Wat is het belangrijkste dat (nog) niet in de AVG wordt geregeld?
Ik weet niet alles over de AVG, maar in mijn onderzoek heb ik gekeken wat er is vastgelegd over transparantie: wat moet je kunnen inzien en waar moet je uitleg over krijgen? Het recht op inzage wordt expliciet genoemd, dat vind ik al heel goed. Daarnaast wordt er over ‘geautomatiseerde besluitvorming’, waar AI een rol kan spelen, gezegd dat je recht hebt op ‘nuttige informatie over de onderliggende logica’. Het blijft naar mijn idee alleen nog vrij vaag wat dat precies inhoudt. Moet je een technische uitleg krijgen, of meer het algemene idee van het algoritme? Moet je ook een precieze verklaring kunnen krijgen over hoe jouw uitkomst tot stand is gekomen? En wie bepaalt dan of de informatie ‘nuttig’ was? Dit zou misschien wat duidelijker kunnen worden vastgesteld.
Bedrijven die AI ontwikkelen hebben dus niet alleen slimme programmeurs nodig, maar ook mensen uit de sociale- en geesteswetenschappen die in het hele proces kunnen meedenken over de ontwikkeling van een wenselijk AI systeem.
Fenna Woudstra
5. Opvallend is je pleidooi voor “interdisciplinair werken”. Wat is dat?
Interdisciplinair werken begint bij een probleem dat je vanuit verschillende perspectieven kunt bekijken. “Transparantie van AI” kun je bijvoorbeeld opvatten als een technisch probleem, dat het algoritme transparant moet zijn, of vanuit een juridisch perspectief, dat een gebruiker recht heeft op transparantie. Om “transparante AI” te ontwikkelen is het dan goed om mensen uit verschillende vakgebieden samen te laten werken; samen onderzoeken wat ieders ideeën van transparantie zijn en hoe je dit in één product kunt verenigen. Bedrijven die AI ontwikkelen hebben dus niet alleen slimme programmeurs nodig, maar ook mensen uit de sociale- en geesteswetenschappen die in het hele proces kunnen meedenken over de ontwikkeling van een wenselijk AI systeem.
Wie meer wil weten, kan via deze link het e-zine bekijken!
https://tijdschrift.jilster.nl/pageflip/585de468-3225-11ea-bf8e-026e1ca1475a