3 misvattingen over Agentic AI
Agentic AI is omgeven door mythes: van angst voor baanverlies tot beveiligingsrisico's. In dit artikel ontkrachten we drie veelvoorkomende misvattingen en laten we zien hoe het in de praktijk echt werkt.

Het is een bekende ervaring: je surft online op zoek naar het ideale product wanneer er een vraag opduikt. In plaats van de klantenservice van het bedrijf te bellen, is je eerste contact een online chat via een AI-agent. Deze veel voorkomende interactie is een duidelijk en eenvoudig voorbeeld van Agentic AI, dat verwijst naar autonome systemen die proactief beslissingen kunnen nemen, advies kunnen geven en problemen kunnen oplossen met weinig menselijke hulp. Ondanks de groeiende aanwezigheid van AI, begrijpt niet iedereen wat het eigenlijk is. In dit artikel onderzoeken we drie veelvoorkomende misvattingen en leggen we uit waarom ze niet opgaan tegen hoe Agentic AI in de praktijk werkt.
Agentische AI zal uit de hand lopen en controversiële keuzes maken
Een veel voorkomende misvatting is dat zodra Agentic AI autonomie krijgt, het ongecontroleerd zal escaleren en roekeloze of zelfs schadelijke beslissingen zal gaan nemen door rogue te gaan. Deze angst komt vaak voort uit het feit dat AI gebouwd is op systemen die de vraag niet echt kunnen begrijpen en niet-deterministisch van aard zijn (met andere woorden, AI genereert verschillende antwoorden op dezelfde vragen). Willekeur kan niet gelijk staan aan echt redeneren of begrijpen. Willekeur, autonomie en onbegrip zijn een recept voor een ramp.
De werkelijke risico's van Agentic AI hebben minder te maken met het feit dat het oncontroleerbaar is, maar meer met de manier waarop de doelen zijn ontworpen en worden gecontroleerd. Het gedrag wordt gevormd door de doelen, beveiligingen en controlemechanismen die wij mensen bieden. De echte uitdaging ligt daarom in het voortdurend ontwikkelen van de afstemming tussen Agentic AI en de verwachtingen van de organisatie, vooral omdat agents leren, zich aanpassen en af en toe onverwachte resultaten produceren.
Om dit te illustreren, stel je een AI-agent voor die is gemaakt voor sociale media om de betrokkenheid te maximaliseren. Als de beloningsfunctie slecht is ontworpen, kan de agent sensationele of misleidende inhoud verspreiden om meer klikken te krijgen. Maar met goed gestructureerde doelen die de nadruk leggen op nauwkeurigheid, relevantie en betrouwbaarheid, kan het zinvolle inhoud creëren zonder verkeerde informatie te verspreiden. Zonder duidelijke mechanismen voor toezicht kunnen deze misstappen nog erger worden wanneer meerdere agenten samenwerken, met knelpunten, conflicten of dubbel werk als mogelijk resultaat.
Ook een agent die autonoom klantenservicevragen beantwoordt, kan de tools krijgen om coupons of kortingen uit te delen, maar moet net als zijn menselijke tegenhangers voortdurend worden gecontroleerd om ervoor te zorgen dat deze kortingen op het juiste moment en om de juiste redenen worden gegeven. En als dat niet zo is, moeten de instructies worden aangepast en bijgestuurd. Net als de servicemedewerkers die extra training krijgen.
Agentische AI zal menselijke jobs vervangen
De opkomst van agent AI wordt vaak afgeschilderd als een bedreiging voor menselijke jobs, met voorspellingen van massale baanvervanging en krimpende kansen voor werknemers. Hoewel AI-agenten inderdaad uitblinken in het automatiseren van routinetaken, benaderen organisaties ze niet als een botte tool voor baanvervanging. In plaats daarvan zien HR-leiders Agentic AI als een hulpmiddel dat herplaatsing en omscholing versnelt. Uit een onderzoek Salesforce onder 200 HR-managers wereldwijd bleek dat bijna een kwart van de werknemers naar verwachting zal overstappen naar een nieuwe functie als AI-agenten repetitief werk overnemen, terwijl de meeste werknemers (61%) hun functie zullen blijven vervullen met AI-ondersteuning. In plaats van een inkrimping van het personeelsbestand verwachten bedrijven een productiviteitsstijging van 30% per werknemer, waardoor er ruimte ontstaat voor meer strategische, creatieve en mensgerichte bijdragen.
Als we personeel en werving als voorbeeld nemen, kunnen AI-agents al tijdrovende taken zoals het screenen van sollicitanten of het plannen van sollicitatiegesprekken afhandelen. Voor veel teams, die vaak al overbelast en onderbemand zijn, betekent dit een onmiddellijke verlichting: AI vermindert de last van repetitief werk en helpt hen om gelijke tred te houden met de vraag. Het is belangrijk dat dit de rol van recruiters niet wegneemt. Het stelt hen eerder in staat om hun energie te richten op activiteiten met een hogere waarde: het opbouwen van relaties met kandidaten, het uitoefenen van beoordelingsvermogen en het begeleiden van complexe aanwervingsbeslissingen. Executives in verschillende sectoren zien dit als een enorme transformatie: een digitale arbeidsrevolutie waarbij jobs niet verdwijnen maar evolueren. De toekomst van werk zal niet worden gedefinieerd door massale vervanging, maar door een verschuiving naar functies waarin uitgesproken menselijke kwaliteiten (aanpassingsvermogen, creativiteit, empathie en overzicht) waardevoller worden dan ooit.
Agentic AI is te gevaarlijk voor de beveiliging van bedrijven en zal datalekken veroorzaken
Bovendien wordt vaak gedacht dat het inbrengen van Agentic AI in een bedrijf kan leiden tot beveiligingsinbreuken en de verspreiding van gevoelige informatie. Hoewel deze systemen het risico vergroten, ligt het echte probleem opnieuw in hoe ze worden beheerd en geconfigureerd en niet in de technologie zelf. Datalekken zijn meestal terug te voeren op drie problemen: schaduw-AI, te uitgebreide toegangsrechten en gebrek aan toezicht. Met sterke beveiligingen (zoals microsegmentatie, strikte rolgebaseerde toegangscontroles en voortdurende monitoring) kunnen organisaties deze risico's aanzienlijk beperken en AI-systemen in lijn houden met de beveiligingsstandaarden van het bedrijf.
Neem bijvoorbeeld een AI-gestuurde chatbot die bij een advocatenkantoor wordt gebruikt. Zonder beperkingen zou deze vertrouwelijke details over zaken kunnen opnemen in gesprekken met cliënten. Maar onder een bestuursmodel waarbij elke agent unieke referenties, beperkte machtigingen en gecontroleerd gedrag heeft, is diezelfde tool een veilige productiviteitstool. Wanneer Agentic AI op de juiste manier wordt beheerd, versterkt het de operationele efficiency terwijl de vereisten voor gegevensbescherming worden gerespecteerd.
Gen25 Praktijkvoorbeelden: AI-potentieel omzetten in bedrijfsresultaten
Bij Gen25 praten we niet alleen over het potentieel van Agentic AI: we realiseren het ook! Samen met Boat Bike Tours hebben we Agentforce geïmplementeerd om knelpunten in het hoogseizoen te verhelpen, door grote delen van het offerteproces te automatiseren en de verwerkingstijd met meer dan de helft te verkorten. Voor TCC hebben we een verkoopondersteunende agent ontwikkeld die klantinformatie verzamelt en de volgende beste acties aanbeveelt, zodat het verkoopteam effectiever kan werken en sneller deals kan sluiten. Bovendien hebben we samen met Corendon CoCo gelanceerd: een Salesforce Knowledge chatbot die direct en accuraat antwoord geeft op vragen van klanten. CoCo levert nu al geweldige resultaten op omdat het de belvolumes verlaagt en serviceteams vrijmaakt om zich te richten op complexe zaken. Tot slot hebben we Co. uitgerold bij de Bijenkorf, een interne AI-agent die medewerkers ondersteunt met directe en op kennis gebaseerde antwoorden, waardoor de afhandeltijden korter worden en de servicekwaliteit consistent blijft. Deze projecten laten zien dat Gen25 Agentic AI met succes in de praktijk brengt om meetbare verbeteringen te leveren.
Klaar om de kracht van Agentic AI in te zetten voor uw organisatie?
Is jouw bedrijf klaar om het gebruik van Agentic AI te verbeteren of om het te gaan gebruiken voor het optimaliseren van prestaties? Gen25 kan je helpen Agentic AI om te zetten in een betrouwbaar voordeel. Neem nu contact met ons op!