Gian Luigi Chiesa , Data Scientist bbij FRISS, vertelt over de noodzaak van verklaarbare modellen bij kunstmatige intelligentie.
AI is overal
Er is geen twijfel dat Kunstmatige Intelligentie (AI) onderdeel wordt van ons dagelijks leven. Volledig zelfrijdende auto’s komen op de weg. Geen mensen meer achter het stuur, maar AI. In een complexe nieuwe wereld, maken ze het rijden nog veiliger dankzij snelle acties waar ons leven vanaf hangt.
AI beslissingen zullen steeds menselijker wordenw
Zulke AI innovaties volgen ook in andere sectoren. Veel mensen gebruiken AI in de vorm van smart assistants,zoals Siri, Google Duplex of Alexa van Amazon. Onze interacties met deze machines worden steeds meer menselijk. Daarom moeten we vertrouwen op hun beslissingen.
Vertrouwen in AI is nodig
We vertrouwen machines als we weten dat ze juiste voorspellingen maken. Je ziet meteen dat een zelfrijdende auto goed stuurt en op tijd remt. En je kan de acties van de auto ongedaan maken in moeilijke situaties. Bij complexe weersvoorspellingen zien we dat ze vaak kloppen. En zo niet, dan word je in het ergste geval een beetje nat.
Eerlijkheid en correctheid van AI
Vertrouwen is moeilijk wanneer voorspellingen niet zichtbaar zijn. Zoals een polis die geweigerd wordt op basis van een AI model. In zo’n geval is het moeilijker te bepalen of het de juiste beslissing is. Dat is essentieel wanneer AI invloed heeft op het leven van mensen, zoals bij automatische selectie voor voedselbonnen of uitkeringen. Dan moet je de beslissingen kunnen onderbouwen.
Wanneer modellen en data zich ontwikkelen, worden algoritmen complexer. Net als hersennetwerken die bestaan uit vele lagen en knooppunten. Deze complexiteit maakt het lastig om weer te geven waarom een beslissing gemaakt wordt.
Discriminatie
AI ziet duidelijk de trends in data en maakt zo voorspellingen. Data moet de maatschappij goed weergeven. De uitdagingen en gebreken van elke maatschappij zitten in de data. We moeten zorgen dat AI deze vooroordelen niet codeert. Dit kan leiden tot het fenomeen genaamd ‘redlining’ van uitkeringen en financiële diensten voor mensen die wonen in een regio die men associeert met minderheden of een bepaalde afkomst.
FRISS = honest insurance = explainable AI
FRISS ondersteunt eerlijke verzekeringen. We willen tonen dat onze voorspellingen stelselmatig juist en eerlijk zijn. We combineren zelflerende modellen met interpretatie en uitleg technologie, zoals LIME of global surrogate models. Voor ons betekent eerlijke AI transparante AI. Je ziet welke data bij welke voorspelling hoort en je kan het snel aanpassen als voorspellingen niet eerlijk lijken. Automatisering is deel van ons verhaal, maar vertrouwen is menselijk. Vertrouwen verdien je met eerlijkheid. En als je de procedure niet begrijpt, hoe weet je dan dat je eerlijk bent?