Vad definierar kvalitativ data?

Kvalitet och säkerhet – Yin och Yang i en värld av data

Vad är kvalitativ data? Och hur kan vi säkerställa att den inte missbrukas? Detta kan anses vara några av IT-branschens viktigaste frågor. I en tid av terminologisk akrobatik och en nästan romantisk strävan mot molnbaserad migrering är det hög tid för en nyanserad förklaring av hur vi förhåller oss till vår verksamhets huvudsakliga drivmedel - data.

Ibland känns det som att det finns lika många definitioner av datakvalitet som det finns datapunkter i Mestro Portal. Men det finns vissa grundpelare, utgångspunkter för att arbeta med data. Kanske först och främst att data är information och precis som med allt annat i livet finns det både relevant och irrelevant information. Kvalitativ data kan beskrivas som något som fyller sitt syfte vid planering och beslutsfattande. Kvalitativ kan också beskriva data som nära representerar verkligheten. Och inte helt överraskande, dålig data = dåliga beslut. 

Söndra och härska

För att kunna erbjuda en mer nyanserad förståelse för hur vi på Mestro förhåller oss till datakvalitet, har vi brutit ned begreppet i dess mest relevanta beståndsdelar – värdeord alla på sitt eget sätt viktiga för att definiera vad kvalitet faktiskt är. 

  • Tillgänglighet handlar hos oss ofta om upptid, en hänvisning till tiden vår produkt är i drift och hämtar aktuell data. Ett nyckeltal för oss är upptid per tidsenhet, hur många gånger under en viss period vi hämtar aktuell data. 
  • Korrekthet syftar till att data representerar verkligheten och/eller att data överensstämmer med datakällan. Vi behöver säkerställa att data som presenteras i Mestro Portal till fullo representerar en datakälla som t.ex. en undermätare. Till skillnad från många andra tar vi hänsyn till olika tidszoner, vintertid/sommartid och kontrollerar månadsvärden mot timvärden, allt för att säkerställa att data inte blir missvisande. 
  • Jämförbarhet betyder att våra kunder ska kunna ställa samma fråga på två olika platser och veta att svaren är jämförbara. Detta handlar hos oss ofta om olika noder och kräver stora krav på både uppsättning och taggning. Det kräver också ett visst användande av filter för att säkerställa att olika punkter är jämförbara. 
  • Kompletthet handlar hos oss om datatäckning och vår avsmak för luckor i datainhämtning. 
  • Tydlighet är A och O. Det är svårt att agera på dataunderlaget utan begripliga visualiseringar och pedagogiska förklaringar. 
  • Pålitlighet handlar om förväntningen om att data förväntas presenteras på samma sätt över hela produkten. Vi vill vara så nära den ursprungliga källan som möjligt, detta för att minimera risken för förändringar och felaktigheter när data passerar överflödiga led. 
  • Transparens är en släkting till tydligheten men vi betraktar det som av ytterligare värde då vi måste kunna demonstrera hur datapaket har behandlats i olika led. Vart kommer datapunkten ifrån och hur har den behandlats under vägen?
  • Flexibilitet syftar till att data ska kunna kombineras och användas för olika syften som t.ex. underlag för vidare analys i andra mjukvaror. Ett sätt att hålla sig flexibel är genom användningen av vårt API. 
  • Relevansen är av yttersta vikt för all data. Vi måste ha rätt sorts datakällor. Det kan handla om att data ska kunna användas som underlag för att följa vissa standarder och fungerar för att uppfylla krav och regelverk. 
  • Data måste också vara rimlig. För att säkerställa detta gör vi löpande kontroller och valideringar av inkommande data. Vi erbjuder också larm för avvikelser i datahämtningen, allt för att underlaget i slutändan ska vara just rimligt. 
  • Validitet avser att det man mäter faktiskt är relevant för det man vill göra. Data ska fungera som underlag till vettiga KPI:er. 
  • Sist men inte minst ska data vara verifierbar. Vi måste ALLTID kunna kontrollera den mot dess ursprungliga källa. 

Summan av sina delar 

Det är svårt att placera dessa perspektiv i en hierarkisk ordning, kanske främst för att alla på sitt eget sätt spelar en viktig roll i en process som säkerställer kvaliteten. Och kvaliteten är mer än bara ett mål, det är vår tjänsts existensberättigande. Därför arbetar vi löpande med denna process. 

För lika mycket som ovanstående lista är verktyg för att värdera data, är det ett filter genom vilket data måste passera. En datapunkt kan vara relevant men om den inte går att verifiera, saknar den för många syften helt värde. Med andra ord är jakten på hög kvalitet en fråga lika mycket om att definiera målet som att definiera hinder. 

Mestro Portal är en tjänst under ständig utveckling och det innebär att sättet vi definierar kvalitativ data också måste utvecklas. Se på detta som ett vykort från en arbetsplats där arbetet med att säkerställa datakvalitet, är samma sak som att säkerställa värdet vår tjänst kan erbjuda. 

Och vi kommer alltid erbjuda ett högt värde.

Dela detta inlägg

Ta del av det senaste från Mestrosfären!

Nyhetsbrev från Mestro

Ta del av det senaste från Mestrosfären!

Nyhetsbrev från Mestro

Här lägger vi en Iframe