De belangrijkste conclusie
De hoofdconclusie van het rapport is dat de grootste uitdaging niet meer zit in de techniek zelf, maar in governance. Medewerkers gebruiken generatieve AI al op grote schaal, terwijl beleid, scholing en controle daar vaak niet in meegroeien. Volgens LexisNexis ontstaat daardoor een risicovolle kloof tussen adoptie en verantwoordelijkheid.
Dat beeld wordt stevig onderbouwd. Zo zegt 53% van de respondenten AI te hebben gebruikt zonder formele goedkeuring, meldt 28% dat hun organisatie geen AI-beleid heeft, betaalt 55% zelf voor AI-tools en heeft 19% helemaal geen AI-training gekregen.
Wat valt verder op?
Een opvallende bevinding is dat veel professionals veel vertrouwen hebben in hun eigen AI-gebruik, terwijl hun kennis van de risico’s beperkter is. 64% zegt zeer of extreem zeker te zijn van verantwoord gebruik van generatieve AI, maar tegelijk zegt 52% dat betere nauwkeurigheid nodig is om vertrouwen op te bouwen en wil 48% meer transparantie over hoe AI tot conclusies komt. Dat wijst op een duidelijke spanning tussen vertrouwen in het eigen handelen en twijfel over de kwaliteit van de output.
Ook laat het rapport zien dat training op zichzelf niet genoeg is. Medewerkers die verplichte AI-training kregen, zijn weliswaar vaker zelfverzekerd, maar blijken ook vaker AI zonder formele toestemming te gebruiken. Volgens LexisNexis komt dat doordat training gebruik stimuleert, terwijl organisaties lang niet altijd veilige en goedgekeurde alternatieven bieden die aansluiten op de praktijk van het werk.
Daarnaast blijkt dat AI in veel organisaties al een stevige plek in het werkproces heeft gekregen. 39% van de respondenten ziet AI als een samenwerkingspartner, 32% gebruikt het voor basale ondersteuning en 16% laat AI zelfs hele taken overnemen. Tegelijk vindt 65% menselijke validatie zeer of uiterst belangrijk en zegt 56% dat mensen in elke fase betrokken moeten blijven. De boodschap is duidelijk: AI wordt steeds normaler, maar menselijk toezicht blijft essentieel.
Aanbevelingen uit het rapport
LexisNexis adviseert organisaties om snel werk te maken van een paar basisstappen. Allereerst: erken dat shadow AI al bestaat. Medewerkers gebruiken nu al eigen tools als de organisatie niet snel genoeg passende middelen aanbiedt. Daarnaast is het belangrijk om direct in kaart te brengen welke tools worden gebruikt, welke data daarin belandt en waar de grootste risico’s zitten.
Verder pleit het rapport voor een helder en praktisch AI-beleid, verplichte en doorlopende training voor alle medewerkers, veilige goedgekeurde tools die echt aansluiten op het werk, en duidelijke validatieafspraken afhankelijk van het risiconiveau van een taak. Juist die combinatie van beleid, vaardigheden, middelen en controle maakt volgens het rapport verantwoord AI-gebruik mogelijk.
Tenslotte maakt het rapport duidelijk dat organisaties die nu investeren in geloofwaardige AI-governance straks beter in staat zijn om AI veilig en op schaal toe te passen. Organisaties die achterblijven, lopen eerder risico op fouten, complianceproblemen, verlies van vertrouwen en een afhankelijkheid van ongecontroleerd gebruik door medewerkers. De centrale boodschap voor 2026 is dan ook helder: succes met AI gaat steeds minder over pure capaciteit, en steeds meer over geloofwaardigheid, veiligheid en regie.
Download het volledige rapport in de bijlage