Stel je voor dat je een huis bouwt. Je hebt de tekeningen, de aannemer, een begroting. Alles lijkt duidelijk: fundering, muren, dak, ramen. Toch blijkt tijdens de bouw dat onverwachte kosten opduiken: de bodem is anders dan verwacht, het hout is duurder, extra vergunningen duiken op, en het werk van specialisten duurt langer dan gepland. Wat je dacht te weten, blijkt slechts een aanname — een schijnzekerheid.
Als het bouwen van een huis laat zien hoe we risico’s onderschatten, laat het ook zien hoe we zekerheid overschatten. Dat is een menselijk patroon — niet alleen in de bouw, maar in hoe we plannen, beslissingen nemen en technologie ontwerpen, inclusief in de wereld van commerce platforms.
De illusie van zekerheid
Gedragswetenschappers Daniel Kahneman en Amos Tversky toonden al decennialang geleden aan dat mensen consistent last hebben van wat we nu de planning fallacy noemen: de neiging om tijd, kosten en risico’s van acties te onderschatten, terwijl we de voordelen overschatten. Dit effect doet zich voor zelfs als we weten dat vergelijkbare taken in het verleden langer duurden.
Kahneman beschreef dit als onderdeel van de menselijke cognitieve architectuur: we zijn uitstekend in snelle, intuïtieve oordelen, maar slecht in abstracte, statistische voorspellingen. Zelfs wanneer data beschikbaar is, heeft het brein de neiging te vertrouwen op heuristieken — mentale snelkoppelingen — die aangenaam lijken maar feitelijk onnauwkeurig zijn.
Een klassiek wetenschappelijk overzicht van expert‑overconfidence liet zien dat mensen — zelfs wanneer ze beweren 90% zeker te zijn van hun voorspelling — in werkelijkheid veel vaker incorrect zijn dan ze denken. Men analyseerde duizenden 90%‑betrouwbaarheidsintervallen van experts en concludeerde dat de ware waarden veel vaker buiten deze intervallen vielen dan de experts vooraf inschatten.
Dit betekent niet dat mensen dom zijn — het betekent dat ons natuurlijke denkproces ontworpen is voor risico’s en beslissingen in een omgeving van directe feedback en concrete consequenties, niet in systemen van grote abstractie en onderlinge afhankelijkheid zoals een commerce platform of grote IT‑implementatie.
Waarom we denken dat we het weten
Er zijn drie belangrijke mentale mechanismen die samen verklaren waarom we zekerheid overschatten:
1. De Illusie van Validiteit
Wanneer we patronen zien in data — bijvoorbeeld consistente verkoopcijfers, rendementen of klantgedrag — neigen we ertoe aan te nemen dat dit patroon voorspellend is voor de toekomst, zelfs wanneer het dat niet is. Kahneman beschrijft dit als de illusion of validity: we vertrouwen te veel op de representativiteit van onze observaties en te weinig op de onzekerheden en noise in data.
In de praktijk leidt dit ertoe dat planners en managers denken dat ze een platform of project “begrepen hebben”, waarbij ze alle factoren in kaart denken te hebben — terwijl de onderliggende risico’s niet in hun model zitten.
2. Overconfidence Bias in voorspellingen
Wetenschappelijk onderzoek laat zien dat zowel leken als experts geneigd zijn te veel vertrouwen te hebben in de nauwkeurigheid van hun eigen voorspellingen. Dezelfde reviewstudie die bovenstaand werd genoemd, concludeerde dat mensen doorgaans te smalle betrouwbaarheidsintervallen geven — wat betekent dat ze denken dat ze meer zekerheid hebben dan statistisch gerechtvaardigd.
In de context van commerce platforms vertaalt dit zich in projectplanning: mensen geven vaak te comfortabele tijdslijnen en kostenramingen, omdat ons brein simpelweg niet goed is in het inschatten van onzekerheid.
3. Reference class forecasting (de buitenstaander‑blik)
Als antwoord op deze menselijke neiging ontwikkelden Kahneman en Tversky samen met anderen de methode van reference class forecasting. In plaats van te vertrouwen op interne verwachtingen, kijkt men naar statistieken van vergelijkbare, afgeronde projecten om realistischere voorspellingen te maken.
In de praktijk van grote infrastructuurprojecten (zoals spoorlijnen of bruggen) heeft het gebruik van dergelijke referentieklassen geleid tot veel realistischer ramingen van kosten en tijd — en veel minder verrassingen. Dat zelfde principe — kijken naar externe, historische data in plaats van interne optimistische aannames — kan commerceplatform‑projecten veel robuuster maken.
Hoe dit speelt in commerce projecten
Wanneer een bedrijf beslist een nieuw commerce platform te bouwen of bestaande architectuur te upgraden, zijn de risico’s niet lineair en vaak niet volledig zichtbaar bij de start. Teams denken soms: “We weten wat we doen — we hebben dit eerder gedaan.” Maar door de biases hierboven, ziet de realiteit er vaak anders uit.
Voorbeeld: B2B → D2C uitbreiding
Een Nederlands B2B‑bedrijf besloot een direct‑to‑consumer (D2C) kanaal te starten. De interne inschatting was dat technische integratie en procesaanpassing eenvoudig zou zijn: “we kennen onze systemen, we weten wat logistiek moet doen, dit doen we er gewoon bij.”
In werkelijkheid bleken retourprocessen, klantsegmentatie, fulfilment en realtime integraties veel complexer en heterogeen. Zonder een gecentraliseerd commerce platform ontstonden dubbele administraties, vertragingen en frustraties bij personeel en klanten. Door pas later te investeren in een geïntegreerd platform met realtime monitoring en data‑dashboards konden deze problemen in weken in plaats van maanden worden opgelost — maar de initiële inschatting was te optimistisch.
Deze discrepantie is typerend: managers overschatten de mate van controle en voorspelbaarheid, vooral wanneer interne kennis wordt geïnterpreteerd als zekerheid, terwijl externe data (zoals retourpercentages, serverbelastingpieken en klantinteractievariabiliteit) vaak niet in de eerste ramingen worden opgenomen.
Waarom mensen moeite hebben met abstracte risico’s
Onze voorouders leefden in omgevingen waarin risico’s visceraal en concreet waren — een misstap kon leiden tot een val van een klif, een verkeerde jachtstrategie tot honger. In die context werkte ons brein uitstekend met snelle heuristieken.
In abstracte, digitale productiesystemen, zoals een commerce platform, worden risico’s gedistribueerd, latent en pas zichtbaar met vertraging. Je ziet niet een “server‑klaar‑om‑te‑crashen‑vlag” of een “retour‑explosie‑alarm” totdat de problemen al een impact hebben. Daarom vertrouwen we onterecht op instinctieve zekerheid, terwijl de realiteit een matige voorspelbaarheid heeft.
Een studie van Xiaoxiao Niu en Nigel Harvey liet bijvoorbeeld zien dat mensen gemiddeld 28% te optimistisch waren in hun voorspellingen over inflatie, én dat hun overconfidence afnam als ze eerst feedback ontvingen over eerdere fouten. Dit benadrukt dat zonder feedback, mensen blijven vertrouwen op hun interne model — zelfs wanneer dat model onnauwkeurig is.
Het onzichtbare zichtbaar maken: wat werkt?
Als we weten dat mensen cognitief geneigd zijn tot overconfidence en onderschatting van onzekerheid, wat kunnen we dan praktisch doen — in en buiten commerce?
1. Gebruik historische data (reference classes)
In plaats van alleen op interne aannames te vertrouwen, begin met echte data van vergelijkbare projecten. Dit vermindert planners’ optimism bias en maakt verborgen risico’s expliciet.
2. Werk met kalibratie en feedbackloops
Studies tonen aan dat wanneer mensen werkelijke uitkomsten zien voordat ze nieuwe voorspellingen doen, ze minder overconfident worden en realistischere inschattingen maken.
3. Scheid aannames van realistische scenario’s
In de bouw van een huis heb je explicit scenario‑analyses (slechte grond, slecht weer, toeleveringsproblemen). Hetzelfde moet gelden voor commerce systemen: wat gebeurt er bij verdubbelde traffic? Verdriedubbelde retouren? Stroomuitval bij de betaalgateway? Door scenario’s te simuleren, leg je verborgen aannames bloot.
4. Acceptatie van onzekerheid als onderdeel van besluitvorming
Het erkennen dat voorspellen nooit perfect is, maar wél kan verbeteren, leidt tot robuuster plannen. Grotere projecten moeten plaats bieden voor iteratief leren en bijsturing, niet alleen een star budgetplan.
Waarom zekerheid troost biedt
Waarom blijven we dan vasthouden aan de illusie van zekerheid? Omdat het voelen dat we “weten wat we doen” rust geeft. Het ontneemt de angst voor het onbekende. Zelfs wanneer we rationeel weten dat voorspellingen fout kunnen zijn, geeft een gedetailleerde planning een gevoel van controle.
Zoals uit surveys met ondernemers blijkt: cognitive biases — waaronder overconfidence — spelen in strategische besluitvorming en risicobeoordeling een rol doordat mensen en teams geneigd zijn hun oordeel te vertrouwen, zelfs als de onderliggende data zwak is.
Dat is geen falen van individuen, maar een symptoom van hoe onze cognitieve architectuur is gevormd: snel, intuïtief en vaak comfortabel — maar niet altijd accuraat in abstracte systemen.
Van onzekerheid naar beter begrip
Het bouwen van een commerce platform is als het bouwen van een huis: de verborgen aannames en onverwachte details hebben de grootste impact.
We onderschatten vaak de kosten — maar belangrijker — we overschatten onze zekerheid. Dit is een universele menselijke eigenschap die voortkomt uit hoe we denken, hoe we leren en hoe we omgaan met risico’s. Door ons daarvan bewust te zijn, kunnen we plannen, ontwerpen en beslissen met meer realisme, robuuste data en een duidelijker zicht op risico’s.
Juist door de menselijke neiging tot zekerheid te erkennen, kunnen we systemen ontwerpen die weerbaar, schaalbaar en mensgericht zijn — niet omdat we alles kunnen voorspellen, maar omdat we leren omgaan met wat we niet kunnen voorspellen.