Artificial Intelligence (AI) is niet meer weg te denken uit de actualiteit, maar wat betekent dit voor control rooms waar betrouwbaarheid en veiligheid vooropstaan? In dit artikel deelt Kars Marcelis, Head of Commerce bij INTER, zijn visie op de opkomst van AI en de rol van de zogeheten operator agent. Hij gaat in op de kansen, maar ook op de technische, organisatorische en ethische uitdagingen die de toepassing van AI met zich meebrengt.
In gesprekken met organisaties over het inrichten of vernieuwen van control rooms valt tegenwoordig al snel het woord ‘Artificial Intelligence (AI)’. Het is een term die tot de verbeelding spreekt, maar vaak wordt ingezet zonder duidelijke doelstelling. “We spreken relaties die zeggen dat hun nieuwe omgeving AI moet bevatten,” zegt hij. “Maar als je dan vraagt wat ze ermee willen bereiken, dan ontbreekt het nut en noodzaak.”
Volgens Kars zijn er in de afgelopen tien jaar weinig baanbrekende technologische veranderingen geweest binnen het control room-domein, maar één ontwikkeling springt er onmiskenbaar uit: de opkomst van AI. “Applicaties die voorzien zijn van AI kun je automatisch informatie laten opzoeken, structureren en analyseren. Dat maakt het mogelijk om betere voorspellingen te doen en processen slimmer aan te sturen.” Daarbij spelen technieken als supervised learning en pattern recognition een steeds grotere rol in het analyseren van historische datasets om onderhoud te voorspellen of risico’s te signaleren. Tegelijkertijd zijn er technologieën zoals KVM-systemen die juist een stabiele ontwikkeling hebben doorgemaakt. Bij KVM draait het niet om snelle innovaties, maar om maximale betrouwbaarheid en continuïteit, wat essentieel is voor de 24/7-beschikbaarheid van control rooms.
Toch is er volgens hem een belangrijk misverstand: AI wordt vaak gezien als de oplossing voor álles, terwijl het in werkelijkheid slechts een middel is. Een krachtig middel, mits goed toegepast. “Wat AI vooral doet, is wiskundige formules oplossen en statistische berekeningen uitvoeren,” legt hij uit. “Je traint een model met historische data, waarna het via inference voorspellingen doet in een operationele setting. Maar daar heb je wel de juiste datakwaliteit, infrastructuur en rekenkracht voor nodig.”
AI toepassen in control rooms: van belofte naar praktijk
Volgens Kars zien veel mensen AI nog als een soort magische zwarte doos. Zeker binnen control rooms wordt te vaak gedacht: als we AI toevoegen, worden we automatisch slimmer. “Maar dat is niet hoe het werkt. Control rooms zijn geen open testomgevingen; het zijn bedrijfskritische, vaak afgeschermde omgevingen waarin veiligheid en betrouwbaarheid vooropstaan.”
Daarom is het advies om te beginnen op bronniveau. “Denk aan het toepassen van AI voor videodetectie, onderhoudsvoorspellingen of het combineren van datasets voor inzicht. Dat zijn haalbare stappen die direct waarde opleveren.”
Een goed voorbeeld is videobeeldenanalyse: vroeger moest je als operator dertig camerastreams tegelijk in de gaten houden. Tegenwoordig worden software en tools steeds vaker verrijkt met geavanceerde AI-technologie, waardoor afwijkend gedrag automatisch kan worden gedetecteerd. Dat scheelt niet alleen tijd, maar verhoogt ook de nauwkeurigheid.
Toch is de weg naar een AI-integratie in control rooms niet eenvoudig. Zodra AI onderdeel wordt van besluitvorming, stuit je op complexe vraagstukken: technisch (het koppelen van gescheiden netwerken), organisatorisch (wie is eigenaar van de data en wie beheert de modellen), en juridisch. Wil je AI in de cloud draaien? Dan moet je data daarheen brengen. Wil je het lokaal draaien? Dan heb je forse rekenkracht nodig, en dat is technisch en financieel uitdagend. Vooral het juridische aspect wordt vaak onderschat. Wat gebeurt er als een AI-systeem in een control room een verkeerde beslissing neemt of een cruciale afwijking niet detecteert? Wie draagt dan de verantwoordelijkheid: de leverancier van de software, de beheerder van de control room of de operator die het systeem gebruikt?
Binnen kritieke processen gaat het immers om mensenlevens en om enorme economische belangen. In sectoren waar per dag miljoenen aan productie wordt geleverd, kan het stilvallen van het primaire proces door een verkeerde AI-beslissing leiden tot torenhoge kosten en reputatieschade. Dit maakt dat juridische kaders en aansprakelijkheidskwesties net zo belangrijk zijn als de techniek zelf bij het implementeren van AI in control rooms.
Van hype naar realistische toepassingen
Die tegenstelling leidt soms tot verkeerde verwachtingen. “Organisaties willen ineens alles met AI doen, maar in control rooms staat betrouwbaarheid altijd op nummer één. Dat betekent dat nieuwe technologie zoals AI pas grootschalig wordt toegepast wanneer deze zich volledig heeft bewezen. Op kleine schaal en in ondersteunende toepassingen zullen we AI waarschijnlijk vrij snel terugzien, maar als volledige vervanging van de operator zal dat niet snel gebeuren. Daarom zien we op dit gebied relatief weinig snelle innovaties.”
Als AI een rol gaat spelen binnen control rooms, zal de invoering stap voor stap en met de nodige voorzichtigheid plaatsvinden. ‘’Hoewel de technologie snel volwassener wordt en de toepassingsmogelijkheden groeien, blijft het onzeker of een control room op (korte) termijn volledig door AI wordt aangestuurd, bijvoorbeeld in de vorm van een operator agent.’’
Operator agents: de digitale collega
De volgende stap in die ontwikkeling is volgens hem de operator agent. “Zie het als een digitale collega die je traint met data en gedragsinformatie. Die operator agent herkent patronen, doet suggesties of neemt zelfstandig simpele handelingen over.”
Het concept is niet nieuw: vergelijk het met een webshop waarin een geplaatste bestelling automatisch een serie acties in gang zet. Het magazijn ontvangt een pickopdracht, de voorraad wordt bijgewerkt en de factuur wordt automatisch klaargezet in het financiële systeem. Een AI-agent gaat echter een stap verder. Die blijft continu leren en wordt getraind om op basis van data onderbouwde keuzes te maken, waardoor processen steeds slimmer en efficiënter kunnen verlopen.
Datzelfde principe kun je toepassen in een control room. Bijvoorbeeld bij een alarmmelding: de operator agent herkent de situatie, stelt een diagnose voor en geeft de operator direct de best passende reactie opties.
In de eerste fase blijft de agent een assistent. “Die geeft meldingen als: ‘Ik heb alvast de juiste camerabeelden voor je klaargezet.’ Of: ‘Deze standaardmail staat klaar, wil je hem versturen?'” Maar volgens Kars gaat dit zich mogelijk verder ontwikkelen: “Naarmate het vertrouwen toeneemt, kunnen operator agents ook kleine processtappen zelfstandig uitvoeren. Bijvoorbeeld door alvast een eerste aanzet te doen op binnenkomende meldingen of standaardhandelingen in gang te zetten.”
De echte potentie ligt volgens hem in de volgende fase, waarin meerdere operator agents samenwerken, ieder met een specifieke rol binnen het proces. “Dan krijg je een soort ecosysteem van digitale assistenten, die onderling informatie uitwisselen en taken verdelen. De operator behoudt het overzicht en de eindverantwoordelijkheid, maar krijgt ondersteuning die veel verder gaat dan wat nu mogelijk is.”
Maar juist op dat punt ontstaat een nieuwe complexiteit: welke taken laat je over aan AI en waar blijft de operator onmisbaar? “Dat is waar de grote ethische uitdaging begint. Want wat als een AI een verkeerde inschatting maakt, bijvoorbeeld bij de aansturing van een brug of bij het interpreteren van een noodmelding? Dezelfde ethische discussie speelt bij zelfrijdende auto’s: als zo’n auto een verkeerde beslissing neemt, wie draagt dan de hoofdverantwoordelijkheid? Je kunt die verantwoordelijkheid niet zomaar bij een systeem zonder menselijke toetsing neerleggen.”
Hij maakt duidelijk dit geen abstracte discussie is, maar een reëel vraagstuk dat in de praktijk al aan de orde is. “We hebben in Nederland incidenten gezien waarbij een menselijke fout leidde tot ernstige gevolgen. Stel dat AI dezelfde fout maakt, wie is er dan aansprakelijk? De ontwikkelaar? De operator die de aanbeveling volgde? Of de organisatie die het systeem inzet?”
De uitdaging zit volgens hem dus niet alleen in technologie, maar ook in wet- en regelgeving, en in vertrouwen. “Je kunt AI pas echt inzetten als je ook juridisch en maatschappelijk duidelijk hebt wie waarvoor verantwoordelijk is. Tot die tijd moeten operator agents vooral ondersteunen en adviseren, en pas in een later stadium, met duidelijke randvoorwaarden, ook zelfstandig mogen handelen.”
“Wat je nodig hebt, is een gefaseerde aanpak. Je kunt beginnen met AI op bronniveau en je daarbij laten leiden door wat de markt en fabrikanten ontwikkelen. Naarmate je als organisatie vertrouwd raakt met de technologie en mensen de meerwaarde van dergelijke functionaliteit ervaren, kun je de stap maken naar het implementeren van AI op grotere schaal en met de juiste functionele meerwaarde. In dat geval zal AI uitsluitend suggesties en ondersteuning leveren, zonder het proces daadwerkelijk te beïnvloeden. Pas als het vertrouwen groeit, zowel technisch als menselijk, kun je stap voor stap meer autonomie toekennen. Maar altijd met de operator als laatste schakel in het proces.”
De rol van de operator verandert fundamenteel
Waar de operator nu vaak uitvoerend werkt, verschuift de rol naar een meer datagedreven functie. “De operator wordt straks niet alleen gebruiker van het systeem, maar ook de trainer van de AI-agent . Hij of zij leert het systeem wat gewenst gedrag is, stelt randvoorwaarden in en vertaalt data-inzichten naar gerichte acties. De operator wordt in feite een soort control room data-analist, die de AI continu slimmer en contextbewuster maakt.”
Volgens Kars leidt dat tot een shift van reactief naar preventief handelen. “AI stelt ons in staat om incidenten eerder te herkennen, onderhoud proactief te plannen en piekmomenten te voorspellen in verkeersstromen op basis van historische en actuele data.”
Maar adoptie vraagt tijd en vertrouwen. “In deze sector is de gemiddelde leeftijd hoog, en dat betekent dat digitale adoptie niet vanzelf gaat. Er is een grotere kans op terughoudendheid, en nieuwe technologieën worden eerder met scepsis benaderd. Dat is begrijpelijk, want de impact van fouten is groot. Het is daarom essentieel dat we AI op een laagdrempelige en praktische manier introduceren. Laat het iets zijn dat je helpt, niet iets dat je overneemt. Daarbij verwacht ik niet dat de intrede van AI in control rooms dezelfde snelheid zal hebben als bij het gebruik van ChatGPT, Claude, Microsoft Copilot en andere bekende AI-tools. Hier zal het proces veel geleidelijker verlopen.”
Wat vraagt dit van leveranciers, en van INTER?
De integratie van AI binnen control rooms ontwikkelt zich voorzichtig. Het is geen markt waarin je breed en ongestructureerd kunt experimenteren, daarvoor zijn de processen te kritisch en de risico’s te groot. In plaats daarvan vraagt deze sector om een gefaseerde aanpak: klein beginnen, leren van concrete toepassingen, en goed observeren wat in andere markten werkt of juist niet.
“Wij leveren geen bronnen, maar we denken wel mee over de bronarchitectuur. En als technologie zoals operator agents zijn intrede doet, is het aan ons om te kijken hoe we dit kunnen adopteren in onze propositie,” zegt hij. INTER positioneert zich daarbij bewust als strategisch technology partner.
Eind 2025 start INTER met een technologieonderzoek in de Nederlandse control room-sector. “Iedereen die actief is in dit domein, van operations tot IT en security en van operator tot directie, is uitgenodigd om deel te nemen. Alleen door samen te verkennen, kunnen we richting bepalen.”
Conclusie
AI is geen einddoel, maar een krachtige tool voor verbetering. Control rooms veranderen, stap voor stap. Van reactief naar proactief. Van manueel naar datagedreven. Van individueel naar geïntegreerd.
“De technologie is er al. Nu de mindset nog. Begin klein. Denk groot. En blijf altijd kritisch: wat los je ermee op?”
Wil je meedenken over de toekomst van technologie in control rooms?
Kars gaat graag in gesprek met organisaties die vooruit willen kijken. Onze technisch consultants denken graag mee over hoe nieuwe technologieën zich vertalen naar de praktijk en hoe we samen de control room van de toekomst vormgeven.
Wil je actief bijdragen aan inzichten over waar de markt naartoe beweegt?
Doe dan mee aan ons technologieonderzoek later dit jaar. Als deelnemer ontvang je bovendien een exclusieve rapportage met de resultaten, die in 2026 worden gepresenteerd tijdens de INTER Community Days. Schrijf je in voor onze nieuwsbrief om als eerst de vragen uit het onderzoek te ontvangen.