Sinds afgelopen zomer werk ik met veel enthousiasme bij Dux. Momenteel vervul ik de rol van procesanalist bij de Gemeente Rotterdam, waar ik me bezighoud met het identificeren en beschrijven van processen in diverse organisatieonderdelen. Hiervoor studeerde ik Business Information Management aan de Erasmus Universiteit. Tijdens mijn studie heb ik mijn scriptie geschreven over de ontwikkeling van AI-governance binnen organisaties en de invloed van de aankomende Europese AI-wetgeving, de EU AI Act. Gezien de snelle ontwikkelingen in de wereld van AI, zoals technologische vooruitgang, nieuwe toepassingsgebieden en maatschappelijke impact, evenals de naderende definitieve Europese wetgeving, deel ik graag mijn onderzoek en inzichten in deze boeiende context.

Waarom AI-regelgeving nodig is

De exponentiële groei van mondiale investeringen in AI, van 5,23 miljard dollar in 2013 tot maar liefst 176,47 miljard dollar in 2021, toont de razendsnelle opkomst van de technologie. AI-toepassingen vinden we tegenwoordig overal, van chatbots tot gezondheidszorgsystemen.

Naarmate AI een grotere invloed krijgt op ons dagelijks leven, rijzen er ethische vraagstukken. De EU AI Act is ontstaan als onderdeel van de bredere AI-strategie van de Europese Unie, om de voordelen van AI te benutten en tegelijkertijd de rechten en veiligheid van burgers te waarborgen.

De EU AI Act in vogelvlucht

De EU AI Act introduceert een op risico gebaseerde benadering met vier niveaus van AI-risico’s: onaanvaardbaar, hoog, beperkt en minimaal/geen. Voor elk niveau stelt de wet vereisten vast voor leveranciers en gebruikers van AI-technologieën, zoals beknopt weergegeven in de onderstaande figuur.

Figuur 1: De risiconiveaus van de EU AI Act

De onderhandelingen over de EU AI Act tussen het Europees Parlement, de Raad en de Commissie zijn momenteel in volle gang en verwacht wordt dat de definitieve wet aan het eind van dit jaar wordt aangenomen. Dit zal een overgangsperiode van ongeveer twee jaar inluiden.

Mijn onderzoek

De introductie van AI-systemen heeft geleid tot de ontwikkeling van AI-governance binnen organisaties: de wijze van bestuur, beheer en toezicht op ontwikkeling en het gebruik van AI. Om deze ontwikkeling en de impact van de EU AI Act te begrijpen heb ik interviews afgenomen met organisaties die gebruikmaken van ‘high-risk’ AI-systemen. De wetgeving vereist dat deze systemen beschikken over adequate risicomanagementsystemen, hoogwaardige datasets, activiteitenlogboeken, technische documentatie, duidelijke gebruikersinformatie, menselijk toezicht en een hoge mate van robuustheid, veiligheid en nauwkeurigheid.

Cruciale elementen voor AI-governance

Uit de interviews kwamen diverse onderwerpen naar voren die cruciaal zijn voor effectief bestuur van AI. Naast voor de hand liggende aspecten als de kwaliteit van data en AI-modellen, kwamen twee elementen veelvuldig naar voren:

  • Verantwoordelijkheid en aansprakelijkheid: Voor AI-beheer is het cruciaal om duidelijke verantwoordelijkheden en aansprakelijkheid te definiëren. Dit betekent dat organisaties specifieke rollen moeten toewijzen aan degenen die betrokken zijn bij AI-ontwikkeling, implementatie en monitoring. Menselijke verantwoording voor de gevolgen van AI-systemen moet bijdragen aan risicominimalisatie.
  • Continu risicomanagement: In de wereld van AI is stilstand geen optie. Daarom moet risicomanagement een continu proces zijn gedurende de hele levenscyclus van AI-systemen. Regelmatige monitoring, evaluatie en aanpassing van risicobeperkende strategieën zijn essentieel om opkomende risico’s, veranderende regelgevingsvereisten en veranderende omgevingen aan te pakken.

Drijvende krachten voor AI-governance

Verder kwamen drie belangrijke drijfveren voor AI-governance naar voren:

  • Regulering van industrie: Industrieën met strenge regulering, zoals de financiële en medische industrie, stimuleren de ontwikkeling van AI-governance. Deze regelgeving dwingt organisaties om snel volwassen te worden met betrekking tot digitale capaciteiten en verantwoorde AI-ontwikkeling te waarborgen.
  • Ethische cultuur: Het merendeel van de geïnterviewde organisaties uitte expliciet de aanwezigheid van een ethische cultuur, veroorzaakt door zowel de normen en waarden van medewerkers als externe druk vanwege de publieke opinie. Dit bevordert transparantie, eerlijkheid en verantwoordelijkheid.
  • Externe samenwerking: De samenkomst van diverse perspectieven, expertise en kennis van academici, industrie(ën), overheidsinstanties en burgers leidt tot standaarden, best-practices en afspraken. Dit draagt bij aan een collaboratieve en inclusieve benadering om complexe AI-uitdagingen aan te pakken.

De EU AI Act als katalysator

Hoewel de geïnterviewde organisaties in hoofdlijnen alle vereisten van de EU AI Act adresseren in verschillende vormen van governance, verschilt het volwassenheidsniveau per organisatie. De implementatie van de EU AI Act dwingt organisaties om hun bestaande governancestructuren en -processen opnieuw tegen het licht te houden, wat leidt tot de ontwikkeling van alomvattende AI-governance.

De toekomst

We staan nog maar aan het begin van het AI-tijdperk. Daarom moet er nu gehandeld worden om technologische vooruitgang hand in hand te laten gaan met ethische en verantwoorde praktijken. De EU AI Act is een cruciale stap in deze richting. Laten we samenwerken om een veelbelovende toekomst voor AI te creëren, waarin AI-systemen niet alleen krachtig en innovatief zijn, maar ook eerlijk, transparant en verantwoord.

Ik kijk uit naar jullie gedachten en discussie over dit onderwerp. Bedankt voor het lezen!

Met vriendelijke groet,

Frank