Nieuws/Financieel
2727422
Financieel

Francesca Rossi

’Algoritmes vaak een black box’

Francesca Rossi

Francesca Rossi

Beslissingen die grote impact kunnen hebben op onze levens, worden steeds vaker genomen door, of met hulp van kunstmatige intelligentie. De Italiaanse Francesca Rossi denkt bij IBM na over hoe we machines de broodnodige menselijke ethische waarden kunnen bijbrengen.

Francesca Rossi

Francesca Rossi

De opkomst van systemen die beslissingen nemen op basis van kunstmatige intelligentie stelt techbedrijven voor nieuwe, morele dilemma’s. Want zelfs als kunstmatige intelligentie goed werkt, is het de vraag of de oplossing waarmee de machine komt ook uit menselijk oogpunt optimaal is en bijvoorbeeld niet in strijd met humane normen en waarden. Zo trok Amazon onlangs de stekker uit een algoritme dat moest helpen bij het selecteren van kandidaten in sollicitatieprocedures, omdat het stelselmatig vrouwen bleek te discrimineren. De oorzaak: van de gegevens die in het systeem waren ingevoerd, had het algoritme geleerd dat vrouwen minder vaak werden aangenomen dan mannen. Daaruit had het geconcludeerd dat kandidaten die vrouw zijn om die reden minder vaak geschikt zijn.

De Italiaanse hoogleraar Francesca Rossi denkt als ‘Global Leader on AI Ethics’ bij IBM over deze dilemma’s en adviseert als lid van de High Level Expert Group on Artificial Intelligence de Europese Commissie over richtlijnen en beleid over de technologie die volgens haar een diepe impact zal hebben op ons dagelijks leven.

Wat is bijzonder aan deze technologie dat IBM iemand als u nodig heeft om over de ethische kanten na te denken?

„Meer dan andere technologie neemt kunstmatige intelligentie zelf beslissingen of doet het voorstellen voor beslissingen. Die kunnen ingrijpend zijn voor ons leven en dan wil je wel weten dat een systeem onderscheid kan maken tussen goede en slechte beslissingen. Techneuten waren aanvankelijk vooral erg trots over de nauwkeurigheid en hoe die alleen maar toeneemt als je de systemen meer data voedt. Maar als je dat doet zonder naar de diversiteit van je datasets te kijken, dan krijg je dat fouten zichzelf versterken in plaats van afnemen.”

Als die systemen zo intelligent zijn, waarom nemen ze dan slechte beslissingen?

„Kunstmatige intelligentie baseert zijn beslissingen op enorme hoeveelheden data over ervaringen uit het verleden. Als die datasets waar het systeem van ‘leert’ niet gebalanceerd zijn, kan een soort vooringenomenheid ontstaan. Zo bleek een systeem dat in de Verenigde Staten werd gebruikt bij beoordeling van verzoeken om vervroegde vrijlating, bijvoorbeeld zwarte Amerikanen een onterecht hoge kans op recidive toe te kennen. Maar we houden ons ook bezig met de gevolgen voor de middellange en lange termijn. Wat is de impact als onze kinderen de hele dag praten met ‘digitale assistenten’ als Alexa in plaats van met vriendjes? Wat betekent het voor werknemers als kunstmatige intelligentie steeds meer taken kan overnemen?”

Waarom is dit zo typisch voor kunstmatige intelligentie?

„Onder andere doordat kunstmatige intelligentie vaak werkt met algoritmes die niet volgens vaste regels tot een bepaalde uitkomst komen, maar door opties te beoordelen op basis van waarschijnlijkheid van succes. Het heeft een zekere vrijheid om een vastgesteld doel te bereiken. Het is dan belangrijk aan die vrijheid wel grenzen te stellen zodat de uitkomst in lijn zal zijn met de menselijke waarden die wij als samenleving belangrijk vinden. Bijvoorbeeld dat die ’eerlijk’ moet zijn, de menselijke waardigheid respecteren, niet discrimineren en dat het systeem kan uitleggen hoe het tot een uitkomst is gekomen.”

Waarom is dat nodig?

„Sommige van de meest succesvolle technieken zijn nogal ondoorzichtig. Het zijn zwarte dozen, waarvan je niet weet hoe ze aan hun antwoord komen. Neem een systeem dat artsen adviseert over de behandeling van patiënten. Als het algoritme een bepaalde behandeling voorstelt, dan zal de arts willen weten waarom. Als een systeem dat niet kan uitleggen, neemt de arts dat niet over. Dat brengt ook de acceptatie van de technologie in gevaar. Dan lopen we risico dat we grote voordelen in bijvoorbeeld de zorg mislopen.”

Aan welke voordelen denkt u ?

„Ik noem vaak het voorbeeld van een proef die een paar jaar geleden is uitgevoerd rond de diagnose van borstkanker. De beste pathologen kwamen na bestudering van een set foto’s op een foutmarge van 3,5% terwijl de beste kunstmatige intelligentiesystemen op 7,5% zaten. Dan kun je concluderen dat mensen beter zijn en ophouden met machines. Maar vervolgens hebben ze teams gevormd van mensen en machines. Die haalden een foutmarge van een half procent.”

Wat zegt dat volgens u?

„Dat door de wisselwerking mensen en machines van elkaars krachten kunnen profiteren. Mensen zijn heel goed in het stellen van vragen, terwijl machines met hun rekenkracht daar soms nauwkeurigere antwoorden op kunnen vinden dan een mens ooit kan. Mensen en machines zijn wat dat betreft complementair. Samen leveren ze prestaties op die ze apart nooit kunnen bereiken. Ik denk dat in veel banen bepaalde taken worden overgenomen door machines die sommige dingen echt veel beter kunnen dan wij. De mens moet zich richten op zaken waar wij beter in zijn.”

Wie is er verantwoordelijk als het fout gaat door een beslissing op basis van kunstmatige intelligentie?

„Ik denk dat de mens altijd het laatste woord moet hebben. Kunstmatige intelligentie moet een hulpmiddel zijn dat mensen in staat stelt beter geïnformeerde beslissingen te nemen. Wij hebben het bij IBM ook niet over kunstmatige intelligentie, maar over ’verrijkte intelligentie’ (augmented intelligence).”

Bij volledig zelfrijdende auto’s is die tijd er niet.

„Ik denk niet dat die er al snel zullen zijn. Maar als hulpmiddel van chauffeurs kunnen ze helpen om rijden veiliger te maken. En op de lange termijn, als alle auto’s zelfrijdend zijn en onderling communiceren en coördineren, wordt de kans op fouten heel erg klein. En uiteindelijk hangt het er vanaf wat je als samenleving accepteert. We laten ook medicijnen toe waar een heel groot deel van de bevolking baat bij heeft, terwijl we weten dat ze voor een klein deel van de bevolking gevaarlijke bijwerkingen hebben.”

CV Francesca Rossi

1962 Geboren in Ancona

1992 Afgestudeerd informatica universiteit Pisa

1998 Universiteit Padova, verschillende functies, momenteel hoogleraar informatica

2015 IBM, Global Leader in AI Ethics

2018 lid van de commissie kunstmatige intelligentie van de Europese Commissie