In onze rubriek ‘Het meest opvallende nieuws volgens…’ volgt een prominent in de markt een week lang intensief de berichtgeving in onze branche. Hij of zij selecteert een bericht dat opviel en geeft er een reactie op.
Phaedra Kortekaas, Managing Director bij SAS Benelux, las het nieuws dat de Autoriteit Persoonsgegevens (AP) een rapport heeft gepubliceerd over de belangrijkste algoritmerisico’s. Daarin wordt benadrukt dat terughoudendheid gepast is bij de toepassing van deze technologieën zolang die risico’s nog niet volledig in kaart zijn gebracht.
Phaedra Kortekaas reageert: “We moeten inderdaad zorgvuldig omgaan met AI en algoritmes. Maar te strakke inkadering kan leiden tot bijkomende problemen. Het ontwikkelen van een maatschappelijk bewustzijn en kennis rondom AI door middel van onderwijs en samenwerking tussen private en publieke partijen kan de verantwoorde inzet van AI structureel bevorderen.”
Inkadering: belangrijk, maar niet sluitend
Het artikel beschrijft het eerste rapport van de AP over AI- en algoritmerisico’s. Nieuwe technologieën, zoals Chat GPT, hebben de snelheid waarmee AI zich ontwikkelt in de schijnwerpers gezet. Het rapport wijst erop dat we door die snelheid niet altijd goed zicht hebben op algoritmerisico’s, zoals potentieel discriminerende of misinformerende AI, zegt Kortekaas.
Positieve kracht van AI
Phaedra Kortekaas: “Ik geloof sterk in de positieve kracht van AI en denk dat voorstellen die innovatie aan banden willen leggen, vaak te veel kijken naar de potentiële negatieve gevolgen. Tegelijkertijd ben ook ik aan het denken gezet door ontwikkelingen, zoals de opkomst van generatieve AI en de recente brief waarin wetenschappers en technologieleiders oproepen tot een ontwikkelingspauze van 6 maanden. Er leeft een bruisend maatschappelijk debat. Daarin moeten ook overheden en bedrijven hun verantwoordelijkheid nemen. Ik sta daarom positief tegenover het initiatief van de AP om de risico’s van AI verder onder de aandacht te brengen, maar heb ook mijn bedenkingen.”
Het rapport van de AP bevat ook een call-to-action richting bedrijven en de overheid, legt Kortekaas uit. Volgens het rapport zullen stappen moeten worden gezet in het beheersen van die risico’s, zoals het verder ontwikkelen van het al bestaande publieke algoritmeregister. Kortekaas over het ontwikkelen en toepassen van kaders: “De ontwikkelingen rondom AI gaan zo snel dat het inderdaad belangrijk is om goede kaders op te stellen en daarbinnen verantwoord te innoveren.”
Geen restrictieve kaders
“Cruciaal is echter wel dat dit innovatie en adoptie niet in de weg gaat staan. Als de kaders te restrictief worden, zullen er manieren worden gevonden om die te omzeilen met mogelijk nog meer problemen als gevolg. Daarbij gaat de innovatie zo snel, dat de regels van morgen, overmorgen alweer ingehaald kunnen zijn. Daarom is het voorstel van het AP om het algoritmeregister te focussen op systemen met een hoog risico een goed plan. Het stelt prioriteiten en behoudt wendbaarheid.”
Volgens Kortekaas moet de focus niet alleen liggen op directe wet- en regelgeving. “De overheid kan ook richtlijnen geven en bedrijven kunnen verantwoord AI gebruik opnemen in hun beleidsdocumenten. Zo heeft SAS bijvoorbeeld een generatieve AI policy toegevoegd, die specifiek bedoeld is om randvoorwaarden op te stellen voor het gebruik van AI door medewerkers, zonder de mogelijke voordelen teniet te doen. Uiteindelijk moeten we een shift doormaken waarbij risicoidentificatie en mitigatie een vast onderdeel worden van ieder AI-project, net zoals nu al het geval is bij dataprivacy sinds met name de invoering van de GDPR.”
Systemen ingekaderd, mensen onderwezen?
Naast de call-to-action rondom het wettelijk inkaderen van AI erkent het rapport van de AP ook dat mensen een rol spelen bij de inzet van AI. Zo roept het organisaties op zelf stappen te zetten door meer personeel en scholing in te zetten in de bewaking van algoritmes, en door in het algemeen terughoudend te zijn in de toepassing van nieuwe, nog onvolledig doorgronde AI.
“Het is goed dat het AP de menselijke kant van het verhaal belicht, tenslotte kan zelfs de best ingekaderde technologie in de verkeerde handen kwaad aanrichten. Maar de oproep om meer personeel en scholing in te zetten voor alleen de bewaking van AI gaat niet ver genoeg. Verantwoordelijke toepassing van AI vraagt om educatie in de bredere zin, onder de noemer van ‘data literacy’. Het moet dieper in de maatschappij doordringen wat data is, hoe AI werkt en wat de consequenties zijn als die wordt toegepast,” vertelt Kortekaas.
“Ik moedig bedrijven en overheden aan om hierin de samenwerking te blijven opzoeken. Een praktisch en recent voorbeeld van hoe we vanuit SAS hieraan bijdragen, is de oprichting van het ReAiHL Dit is een AI ethiek-lab voor de zorg. We hebben dat samen met het Erasmus MC en de TU Delft opgericht om met onze gezamenlijke kennis en kunde de 6 WHO-principes voor verantwoord gebruik van AI in de gezondheidzorg te vertalen naar de praktijk.”
Met andere woorden; om de volle belofte van AI waar te maken is er meer nodig dan technologie alleen, betoogt Kortekaas. “Samenwerking tussen organisaties en een breder bewustzijn in de vorm van data literacy zijn net zo goed cruciale schakels.”