Als het gaat om datakwaliteit, is voorkomen beter dan genezen. Veel mensen denken daarbij aan klantendata. Maar een minstens zo belangrijk aspect dat data driven organisaties moeten nagaan, is hoe het gesteld is met de kwaliteit van de data in motion (web analytics data) die ze binnenhalen.
Als die data van hoge kwaliteit is, kunnen marketeers sneller acteren en voorkomen dat ze achteraf kostbare tijd kwijt zijn aan het opschonen van data. En nog belangrijker: ze maken ook geen verkeerde beslissingen die veel geld kosten. Maar hoe kunnen ze hun organisatie hierop inrichten?
Tag management
De eerste stap is de implementatie van een tagmanagementsysteem. Denk daarvoor aan tools als Tealium, Tag-Man en BrightTag. Bij vrijwel elke verandering in de digitale data-infrastructuur moeten de pagecodes van een website aangepast worden. Zonder tag management is dat een omslachtig proces dat vaak over veel schijven verloopt.
Met tag management kunnen echter alle pagecodes vanuit een centrale interface worden veranderd, waardoor bijvoorbeeld het opzetten van testen of het toevoegen van nieuwe toepassingen en reporting requirements vanuit één punt gewijzigd kan worden. Dat vergroot de slagvaardigheid. En omdat tag management vanuit generieke standaarden werkt (en er niet voor elke tag iets nieuws ontwikkeld hoeft te worden) wordt de datakwaliteit aanzienlijk verbeterd.
Andere positieve gevolgen van tag management zijn minder belasting van de IT-afdeling, effectievere testen, uitstekende flexibiliteit bij wijzigingen in het cookiebeleid en een betere performance van de website.
Web analytics tools
Stap twee is een goede analytics tool, die de organisatie ook voorziet van compliant data. De gevestigde orde (Google Analytics, Adobe Analytics, IBM Analytics) combineert de datacollectiefunctionaliteit (het verzamelen en opslaan van data) met de reporting-interface (het verwerken en visualiseren ervan). Organisaties die vooroplopen, splitsen deze verschillende functionaliteiten echter, waardoor marketeers niet beperkt worden door de grenzen van de rapportage-interface.
Zorg er voor dat de dataverzameling bij de bron (dus de implementatie) van de juiste kwaliteit is en maak de data daarna beschikbaar in de rapportageomgeving die voor de betreffende gebruiker en afdelingen het meest geschikt is. Dit kan variëren van Excel tot Tableau, Cognos, SPSS en zelfs Domo en Splunk voor organisaties die verschillende databronnen op een specifieke afdeling willen combineren.
Processen
Daarnaast is het essentieel dat processen goed gedefinieerd zijn en dat de verantwoordelijkheden duidelijk zijn. Op het gebied van datakwaliteit is bijvoorbeeld monitoring en automation heel belangrijk. Richt een duidelijk proces in voor zowel automatische als handmatige controle van de datastroom.
In de webanalyticsindustrie worden momenteel twee methoden gebruikt om de kwaliteit van implementaties te monitoren: scenariotesting en crawlertesting. Nadeel van deze methodes is dat marketeers niet onbeperkt veel scenario’s kunnen testen en dat crawlers moeilijk door formulieren heenkomen waardoor juist de metingen van deze bedrijfskritische interacties niet meegenomen worden. Steeds meer organisaties kiezen daarom voor een monitoringtool die 100% van de web analytics data kan testen, zoals Qmon van Adversitement.
Besteed daarnaast aandacht aan incident handling. Stel, er staat ergens een foutieve trackingcode of er is een tool of rapportage verkeerd geconfigureerd. Hoe los je dat op? Die scenario’s moeten goed afgebakend zijn. En niet alleen het oplossen van problemen doet een beroep op de organisatie. Ook het doorvoeren van innovaties, verbeteringen en nieuwe business requirements is een proces op zich. Wordt er een nieuwe minisite of app gelanceerd? Wordt de wetgeving gewijzigd?
Al dit soort situaties vragen om aanpassingen in de data-infrastructuur. Zorg dus voor een duidelijke procedure hiervoor en waarin de juiste personen zo vroeg mogelijk betrokken worden. Daardoor worden fouten in de testfase ontdekt, en niet op het moment dat de implementatie al live staat.
Kennis binnen de organisatie
Ook de kennis binnen de organisatie moet up-to-date zijn. Processen kunnen nog zo doordacht ingericht zijn, als de expertise ontbreekt, lopen ze alsnog vast. Zorg dus bijvoorbeeld voor de vereiste ervaring met web analytics en de tool die hiervoor ingezet wordt.
Daarnaast is testen en innoveren een vakgebied op zich, net als wetgeving en compliance. Cruciaal hiervoor zijn mensen die kunnen vertellen of de data aan alle wettelijke eisen voldoen; niet alleen bij het verzamelen, maar ook later in de data-lifecycle. En kennis in huis hebben is één, die expertise verspreiden is twee. Goede documentatie speelt daarin een belangrijke rol, maar ook training en intervisie tussen de verschillende afdelingen, personen en externe partijen.
Drie P’s
Eigenlijk valt of staat de datakwaliteit met drie factoren, de drie P’s van platform, process en people. Als die drie factoren goed opgelijnd zijn binnen de organisatie of als een service via een externe partij, is dat een garantie voor een uitstekend datafundament. Bovendien bespaart dat over de gehele breedte van de organisatie kostbare tijd die mensen niet hoeven te besteden aan het opschonen van data.