Hvorfor bør eiendomsforvaltere tenke datakvalitet?

Gode prosesser for datalogging kan være avgjørende for å få et riktig bilde av eiendomsporteføljen, mener Nikolai Narvestad i Intrava.

Published 03. desember 2020
Nikoi intrava

Klyngemedlemmet Intrava har utviklet en analyseplattform som er spesialtilpasset eiendomsutvikling- og forvaltning. Plattformen kan samle, rense og visualisere store mengder data, og gjør det mulig å dra nytte av datakraft uten å investere i interne datavarehusteam eller kostbare programvareverktøy. Nikolai Narvestad jobber som salgssjef i Intrava. Han mener tiden er overmoden for å tenke datakvalitet i eiendomsbransjen.

- Du har sikkert hørt utrykket garbage in is garbage out? Det du får ut av dataene dine blir sjelden bedre enn det du dytter inn. Dårlig datakvalitet kan resultere i dårlige beslutninger, som igjen kan gå ut over alt fra likviditet til vekst, forteller Narvestad.

For å sikre god datakvalitet er det viktig å ha gode prosesser for logging av data. Jo bedre rammeverk man har for logging, jo bedre blir datakvaliteten som kommer ut av systemene.


Viktig med gode prosesser


For en eiendomsforvalter innebærer dette blant annet å ha gode prosesser for logging av nye kontrakter, slik at hele teamet vet hvilke lokaler som er ledige, samt hvor man bør fokusere innsatsen.

- Svake prosesser rundt logging kan føre til at forvaltere fører kontrakter på forskjellige måter i forvaltningssystemet. Se for deg en situasjon der tre av teamets fire forvaltere legger inn kvadratmeter og pris på de forskjellige objektene som er linket til kontrakten, mens sistemann nøyer seg med å føre samlet på ett objekt. Når 25 prosent av porteføljen føres på den måten blir det vanskelig å trekke ut noe fornuftig fra kvartalsrapporten, sier Narvestad.

Når man snakker om dårlig datakvalitet viser man gjerne til manglende data, skrivefeil, duplikater og andre anomalier som grumser til sannheten. Dette kan løses ved bedre rensing, konsolidering og standardisering av data, sier Narvestad, og legger til at dette er det aller viktigste leddet i prosessen når man skal analysere data.

Dårlig datakvalitet kan resultere i dårlige beslutninger, som igjen kan gå ut over alt fra likviditet til vekst.

Nikolai Narvestad – Salgssjef, Intrava

Rensing, konsolidering og standardisering


Når man skal analysere data er målet å skape en sentralisert database, en one source of truth, hvor data fra forskjellige systemer relaterer seg til hverandre i samme datamodell. Dette muliggjør alle former for dataanalyse, ettersom man kan filtrere data med parametere som eksisterer i ulike kildesystemer. Kanskje har virksomheten lånene hos DNB, mens eiendommene finnes i forvaltningssystemet. Ønsker du å identifisere hvilke eiendommer som er knyttet til de ulike lånene, må det være en relasjon mellom disse i den sentraliserte databasen, forklarer Narvestad.

- På toppen av dette så har man gjerne også koblet opp økonomisystemet med eiendommer og lån representert enda en gang. For å unngå dobbelttelling må man rense dataen før den lagres. Dette gjør man gjennom å legge til masse logikk og klassifiseringskode for å sørge for at man teller riktig, sier Narvestad.

Det har gått opp for mange bedrifter at dashboards gjør det vesentlig enklere å styre organisasjonen. Men i prosessen overser man gjerne de viktigste bitene i puslespillet, nemlig dataintegrasjonsrammeverk og datavarehus.

- Gjør man det ordentlig fra starten, og setter opp en robust plattform med dataintegrasjonsrammeverk og datavarehus i bunnen, så sparer man seg for mye hodebry i fremtiden. Samtidig sørger man for at bedriften har superkrefter på dataanalyse, avslutter Narvestad.