Blog

Aug 5, 2021

Hoewel krachtige AI-toepassingen al geruime tijd deel uitmaken van het dagelijks leven, staat deze technologie nog steeds min of meer in de kinderschoenen. Volgens onderzoek van PWC kan de bijdrage van AI aan de mondiale economie in 2030 oplopen tot 15,7 biljoen USD en het zal geen verbazing wekken dat de regelgeving achterloopt op de snelle ontwikkelingen in de markt. Als reactie op de toegenomen zorgen over de mogelijke gevaren van deze technologie heeft de EU in een allereerste internationale poging om AI te reguleren een voorstel aangenomen.

Het voorgestelde regelgevingskader, de EU-verordening ter regulering van 'hoog risico' kunstmatige intelligentie genaamd, is een positieve stap om de potentieel negatieve gevolgen van AI op individuele personen en de samenleving als geheel in te perken. De regels hebben betrekking op enkele van de meest opwindende en controversiële technologieën in de moderne geschiedenis, zoals zelfrijdende auto's, gezichtsherkenning en algoritmes voor online marketing. In de voorgestelde verordening wordt AI op dezelfde manier benaderd als de Europese regels voor productveiligheid, die ten doel hebben het ontwikkelingsproces te verduidelijken en die de transparantie voor de betrokken partijen bevordert.

De verordening bevat belangrijke verplichtingen met betrekking tot transparantie, risicomanagement en data governance en zal waarschijnlijk gaan gelden voor aanbieders van AI-diensten, zoals FRISS en onze klanten als de "gebruikers" van onze AI. Net als bij de Algemene Verordening Gegevensbescherming (AVG) zijn de boetes die autoriteiten kunnen opleggen, gebaseerd op de hoogte van het risico. De maximale boete op grond van de AI-verordening is niettemin hoger dan de hoogste boete van de AVG, en kan 30 miljoen euro bedragen of 6% van de jaarlijkse mondiale omzet als dit bedrag hoger is.

Hoe wordt AI in het voorstel behandeld?

De Europese Commissie hanteert een brede definitie van het begrip AI. Dit is ongetwijfeld met opzet om het toepassingsgebied en de effectiviteit van de wetgeving zo groot mogelijk te maken. AI wordt in artikel 3 van het voorstel breed gedefinieerd als: "Software die is ontwikkeld met behulp van een of meer [specifieke] benaderingen en technieken..."

Deze benaderingen zijn te vinden in bijlage I en omvatten machine learning-technieken, statistische technieken en op logica en kennis gebaseerde technieken. "...die, voor een gegeven reeks door mensen gedefinieerde doelstellingen, uitkomsten kunnen genereren zoals inhoud, voorspellingen, aanbevelingen, of beslissingen die van invloed zijn op de omgevingen waarin zij interageren." Daarbij heeft de Commissie ervoor gekozen om AI en de bijbehorende eisen in te delen op basis van risiconiveau. Het begint met "Onaanvaardbaar risico". Dit zijn technieken die door de Commissie op grond van de inherente buitengewoon grote risico's worden verboden. Het gaat om technieken die de meeste mensen 'te ver' vinden gaan, zoals het gebruik van gezichtsherkenningstechnologie in de openbare ruimte, of een sociale score door de autoriteiten.

De Commissie classificeert sommige AI-technieken als "laag risico" en"minimaal risico", waaraan in het voorstel alleen fundamentele vereisten voor transparantie zijn verbonden. Denk aan zaken als chatbots, spamfilters of videospellen die met behulp van AI realistisch menselijk gedrag nabootsen. De belangrijkste categorie in het voorstel betreft de AI-technieken met "hoog risico". Voorbeelden hiervan zijn opgenomen in bijlage III van het voorstel:
-AI voor biometrische identificatie en categorisatie van natuurlijke personen;
-beheer en exploitatie van essentiële infrastructuur; onderwijs of beroepsopleiding;
-arbeidsmarkt, werving en werkgelegenheid;
-toegang tot en verlening van essentiële publieke en private diensten;
-rechtshandhaving; migratie, asiel en beheer van de grenscontrole;
-rechtspleging en democratische processen.

Hoewel dit afhangt van verdere richtlijnen voor de interpretatie van bijlage III is het mogelijk dat bijlage III 5(b) van toepassing is op sommige InsurTech-producten. Het is ook belangrijk om te beseffen dat deze lijst niet statisch is en dat de Commissie de lijst kan uitbreiden met toekomstige of nieuwe systemen waarvoor de classificatie "hoog risico" geldt. Daarom zal FRISS de ontwikkelingen op de voet blijven volgen.

Wat houden de eisen in?

Aanbieders van AI-systemen met een hoog risico moeten voldoen aan een reeks eisen. Denk daarbij bijvoorbeeld aan verplichtingen als het invoeren van adequaat systeem voor risicobeoordeling, goed werkende data governance-praktijken, documentatie van de gebruikte techniek en transparante informatieverstrekking aan de gebruikers van de systemen (artikel 16).  Naast product-georiënteerde eisen moeten AI-aanbieders ook zorgen voor een kwaliteitsbeheersysteem, conformiteitsbeoordelingen uitvoeren en automatische gegenereerde logboeken bewaren.

Tevens moeten aanbieders ervoor zorgen dat AI-systemen met een hoog risico zijn voorzien van een CE-goedkeuring (of documentatie) als bewijs van conformiteit. Indien wordt vastgesteld dat aanbieders niet aan een van deze eisen voldoen, moeten zij de toezichthoudende instanties hiervan op de hoogte stellen en de benodigde corrigerende maatregelen nemen.

De gebruikers van AI-systemen met een hoog risico zijn verplicht het systeem volgens de gebruiksinstructie te bedienen, te waarborgen dat de ingevoerde data relevant zijn voor het beoogde gebruik van het systeem, de werking van het systeem te controleren en in geval van risico het gebruik van het systeem te staken en de gegenereerde logboeken gedurende een passende termijn te bewaren (artikel 29).

Hoe gaat FRISS om met deze nieuwe regelgeving?

FRISS neemt de wettelijke normen uiterst serieus. De titel "trusted advisors" is uiteraard niet alleen een papieren aanbeveling. We staan positief tegenover het gebruik van AI, omdat AI altijd alert is, sneller werkt, minder fouten maakt en profiteert van de collectieve denkkracht van een complete fraudeafdeling. En bij FRISS wordt AI zo ingezet dat we het risico van polisaanvragen, verlengingen en schadeclaims real-time en integraal kunnen beoordelen, teneinde de klant zo efficiënt mogelijk te helpen. Maar transparantie is voor ons zeker zo belangrijk.

Voordat deze conceptverordening definitief wordt, zijn eerst nog aanvullende acties noodzakelijk. Als volgende stap wordt het voorstel door het Europese Parlement en de Raad van Ministers beoordeeld. In de tussentijd zullen de compliance- en datateams van FRISS deze ontwikkelingen op de voet blijven volgen. Mochten de essentiële eisen veranderen, dan zullen we hier zo snel mogelijk op inspelen. FRISS heeft zich vanaf het begin ingezet voor integratie van de basisbeginselen van verantwoordelijke AI, zoals het beperken van mogelijke vooroordelen, transparantie en risicomanagement. Daarbij lag de focus steeds op de volgende aspecten:
-Vooroordelen verminderen: Wij gebruiken in onze modellen geen duidelijke datapunten op het gebied van gender, burgerlijke staat, nationaliteit, etniciteit etc. en onze datawetenschappers zijn ook getraind om mogelijke proxy's te herkennen.
-Transparantie: We passen op al onze modellen uitlegbare AI toe. Dit betekent dat de eindgebruiker precies kan zien waarom een specifieke claim als hoog risico is aangemerkt.
-Risicomanagement: We maken voor ons ontwikkelingsproces gebruik van gegevensbeschermingseffectbeoordelingen (DPIAs) en hanteren een aanpak van "ingebouwde privacy" in lijn met de AVG.

Wat u moet weten

De EU-verordening ter regulering van 'hoog risico' kunstmatige intelligentie is een positieve stap in de richting van ethisch en verantwoordelijk gebruik van AI. Wij zijn blij met de focus van de EU op meer transparantie en risicomanagement, omdat ook wij geloven dat dit de marktnorm moet zijn voor AI-gebaseerde producten. We nemen alle tijd om de ontwikkelingen van het voorstel te analyseren en observeren, om een goed beeld te krijgen van wat deze eisen zullen betekenen voor onze producten en onze klanten wereldwijd. We beseffen dat we onze "business as usual" alleen kunnen voortzetten als we voldoen aan de eisen en houden daarom eventuele veranderingen nauwlettend in het oog. We blijven kijken welke regelgeving er in het verschiet ligt en doen zo snel mogelijk alles wat nodig is om compliance te garanderen.

Als u meer wilt weten over de stappen die FRISS neemt om de transparantie van onze producten te garanderen, kunt u een demonstratie plannen met een lid van ons team of hier klikken om te lezen hoe we aan de veiligheidsregels elders ter wereld voldoen.

We use cookies to give you the best online experience. Find out more on how we use cookies in our cookie policy.

We use cookies to give you the best online experience. Find out more on how we use cookies in our cookie policy.