In de afgelopen jaren heeft kunstmatige intelligentie (AI) een enorme vlucht genomen en is het een integraal onderdeel geworden van ons dagelijks leven en werk. Van geavanceerde algoritmen die onze zoekopdrachten optimaliseren tot AI-systemen die complexe taken uitvoeren: de impact van AI is onmiskenbaar. Maar met deze vooruitgang komt ook de verantwoordelijkheid om AI op een ethische en effectieve manier te gebruiken. Organisaties zijn volgens de nieuwe Europese AI Act zelfs verplicht hun medewerkers op te leiden in AI-geletterdheid. Door medewerkers regelmatig te trainen en een gedegen AI-beleid op te stellen kunnen organisaties de risico’s van AI minimaliseren en de voordelen optimaal benutten.
De verplichtingen van de AI Act
De AI Act – sinds vorig jaar augustus in werking getreden in de hele EU – stelt specifieke verplichtingen aan organisaties die AI gebruiken. En laten we eerlijk zijn: welke organisatie gebruikt het tegenwoordig niet? Een van de belangrijkste aspecten van de AI Act is de onderverdeling van AI-toepassingen op basis van hun risiconiveau: van general purpose-AI als ChatGPT tot hoog risico en zelfs verboden AI. Hoe hoger het risico, hoe meer voorwaarden en regels er gelden. Daarnaast is transparantie heel belangrijk. Chat je met een chatbot of een echt mens? Bel je een medewerker of heb je AI aan de lijn? Je moet als gebruiker weten dat je met AI bezig bent. De AI Act maakt ook onderscheid in het niveau van invloed dat je als gebruiker hebt. AI-toepassingen waarbij je zelf niet kan ingrijpen op kritieke momenten – zoals zelfrijdende auto’s – zijn bijvoorbeeld verboden binnen Europa.
Wat is AI-geletterdheid?
Een van de artikelen uit de AI Act die nu al verplicht wordt gesteld voor organisaties is AI-geletterdheid. Dit betekent dat individuen en organisaties weten hoe ze met AI om moeten gaan. Vergelijk het met digitale geletterdheid, waarbij je leert om digitale technologieën en media op de juiste manier te gebruiken. AI-geletterdheid gaat verder dan alleen het efficiënt en effectief inzetten van AI-toepassingen. Het omvat ook het begrijpen van de mogelijke impact van AI op de omgeving en de mensen die er door geraakt worden. De wetgeving is er met name op gericht om de rechten van mensen te beschermen. Door medewerkers te trainen in AI-geletterdheid zijn ze zich er bewuster van dat AI niet foutloos is en dat ze de resultaten van AI kritisch moeten evalueren. Dit bewustzijn helpt de risico’s van AI te verkleinen en zorgt voor kwalitatief menselijk toezicht, wat een verplichting is vanuit de wetgeving.
Goed werkgeverschap
Het is als organisatie aan te raden AI-geletterdheid niet alleen als verplichting te benaderen. Zie het ook als een recht dat je jouw medewerkers biedt vanuit goed werkgeverschap. AI-tooling als Microsoft Copilot zijn slimme assistenten die taken en processen automatiseren en administratieve taken voor je overnemen. Door AI-toepassingen op een goede en veilige manier in te zetten werken medewerkers efficiënter en besparen ze tijd. Veel medewerkers zijn al gewend in hun privéleven gebruik te maken van AI en willen deze functionaliteiten ook in hun werk gebruiken. Door ze te trainen in het gebruik van de verschillende AI-toepassingen leren ze welke gevaren er schuilen in het gebruik van AI-tools, maar ook hoe ze het beste een vraag stellen aan de chatbot om de gewenste resultaten te krijgen (prompting).
AI-beleid in organisaties
Om de gevaren van AI-toepassingen zoveel mogelijk in te perken is een effectief AI-beleid onmisbaar. Dit begint met het analyseren van de AI-systemen binnen je organisatie en het bepalen van hun risiconiveau. Op basis van deze analyse formuleer je maatregels om eventuele risico’s te beheersen en te voldoen aan de wet- en regelgeving. Daarnaast beslis je welke trainingen nodig zijn en voor welke medewerkers. Het is belangrijk dat AI-geletterdheid een doorlopend proces is waarin medewerkers regelmatig worden getraind. De wereld van AI verandert immers snel. In het AI-beleid moet dus een continue trainingsmethode worden opgenomen. Daarnaast wordt organisaties aangeraden een team te vormen dat verantwoording draagt voor het ontwikkelen, implementeren en monitoren van het AI-beleid en AI-geletterdheid. In dit team zitten bijvoorbeeld rollen als AI compliance officer (CAICO), functionaris gegevensbescherming (FG) en chief information security officer (CISO). Een vertegenwoordiging vanuit het management en de key users is aan te raden.
De belangrijkste valkuilen
Een van de grootste valkuilen waar organisaties tegenaan lopen is het niet bewust zijn van het gebruik van AI en de verstrekkende gevolgen daarvan. Veel organisaties realiseren zich niet dat AI nu al onderdeel is van hun werk en wat de risico’s daarvan zijn. Van de implementatie van een veilige en passende AI-tooling tot het trainen rondom AI-geletterdheid en het opstellen van AI-beleid: er is veel om rekening mee te houden. En hoewel hier in eerste instantie veel kosten mee gepaard gaan, levert het op de lange termijn veel tijd, efficiëntie en kansen op. Bovendien wil je altijd voorkomen dat er gevoelige data wordt gelekt als gevolg van een ontoereikend AI-bewustzijn. Je organisatie loopt hierdoor imagoschade op en er kunnen flinke boetes worden uitgedeeld. We kunnen er niet meer omheen: AI speelt een steeds belangrijkere rol in ons leven en elke organisatie.