Vi skaber enorme mængde information – hver dag. Sådan cirka 2,5 milliard milliarder tegn vurderer IBM. Så meget, at 90 % af det data, som findes i dag, kun er to år gammelt. Det er ikke kun i vores traditionelle it-systemer, de mange data skabes, men alle mulige andre steder: Stregkodelæsere, sensorer af enhver art, kameraer, tællesystemer, smartphones eller sociale netværk. Listen er lang, og den digitale ”udstødning” fra disse enheder enorm. De virksomheder og organisationer som forstår at bruge de mange data, kan blive markedsdominerende.Som
Google blev det på internetsøgning og Amazon indenfor internethandel.
Emnet kaldes ”big data”. Konsulentfirmaet McKinsey definerer big data som datamængder, der er større end traditionelle databaser kan håndtere. Selvom teknologi-udviklingen hele tiden vil ændre, hvad databaser kan håndtere, vil mængden af data vokse hurtigere. De mange data er kendetegnet ved deres forskellighed (video, tekst, klik, …), hastighed hvormed de ændres (og bliver forældet) og deres størrelse: Både hvad den enkelte enhed fylder, og antallet af dem.
Big data er blevet et begreb, leverandører som SAS Institute og IBM elsker at bruge. De vil hellere end gerne sælge dig systemer som kan gemme eller analysere de enorme mængder data.
Det kan der også være god grund til – for mulighederne er svimlende. McKinsey vurderer eksempelvis, at den europæiske offentlige sektor kan spare mere end 250 milliarder Euro – hvert år, ved at bruge teknikkerne. Og at produktionsvirksomheder kan reducere produktudviklingsomkostningerne med op til 50 %, samt at nettofortjenesten kan øjes med op til 60 % i detailkæder.
Men hvor kommer disse gevinster fra? Primært fra større indblik og gennemskuelighed – i værdikæder og mellem afdelinger. Samt fra mulighederne for at kunne produktudvikle ud fra et meget større datagrundlag. To simple eksempler:
Tænk hvis et teleselskab kunne identificere en kunde, som snart vil sige sit abonnement op, ud fra alle de data, der er registreret om kunden i deres mange forskellige systemer. Eller tænk hvis man kunne fremavle de bedste malkekøer ud fra genetiske materiale indsamlet fra alle danske køer, sammenholdt med alle historiske data på, hvor meget mælk de gav, deres levetid og hvilke sygdomme, de fik.
Mange virksomheder lagrer i forvejen store mængder data. I min virksomhed gemmer vi i øjeblikket 200 terabyte data (1 terabyte = 1024 gigabyte). Disse informationer kommer primært fra almindelige it-systemer. Alligevel bliver lagerbehovet fordoblet – hvert år. Men i fremtiden skal vi også bruge data, som kommer mange andre steder fra. Også udenfor virksomheden.
Den danske offentlige sektor er et sandt skatkammer af data, som bare venter på at blive brugt i nye sammenhænge. Det kan dog være svært at grave dem frem. Både fordi det skal gøres forskelligt, og fordi nogle myndigheder har en mærkelig ejerskabsholdning til data, der er borgernes eller virksomhedernes. Som Erhvervs- og Selskabsstyrelsen, der kræver penge for systematisk adgang til CVR-registeret. For at gøre adgangen lettere til alle offentlige data, har IT- og Telestyrelsen igangsat initiativet ” Offentlige data i spil”.
Big data teknikkerne er ikke nye. Metrologerne har eksempelvis i årevis analyseret meget store datamængder fra mange kilder, og gradvist forfinet deres matematiske modeller. Med mere nøjagtige vejrudsigter til følge.
Det første problem er at finde de relevante data. Ikke nogen let opgave. Det kan man se på salgsprisen for virksomheder med dette speciale: HP købte for nylig søgemaskine-virksomheden Autonomy for 54 milliarder kroner. Og Microsoft købte i 2008 norske Fast for 6,2 milliarder kr.
Næste del af opgaven er at forholde sig til sammenhængene mellem data: Er der tal, som afviger? Hvilke sammenhænge er der? Og hvordan kan man udlede regler, som kan beskrive historiske data – og dermed forudsige noget om fremtiden? Danske forskere på it-universitetet har netop fået bevilget 5,6 millioner kroner til forskning i statistiske metoder til den slags. Andre satser på at kunne behandle alle data ved at databaserne ikke ligger på diske, men i stedet gemmes i computernes interne hukommelse.
Men hvem kan forholde sig til resultaterne af de komplicere analyser? Meget tyder på at den slags kompetencer vil blive særdeles efterspurgt i fremtiden. Både personer, der kan lave de rigtige analyser – og de ledere, som hurtigt kan forholde sig til de mange spørgsmål, resultaterne vil rejse.
Lovgivning kan lægge hindringer i vejen for den offentlig sektors brug af de nye muligheder. Der er simpelthen for mange regler, som forhindrer myndighederne i at dele data med hinanden.
Vores egne holdninger vil sikkert også lægge en dæmper: Hvad nu, hvis der var udviklet en digital sundhedsrådgiver, som på baggrund af alt hvad jeg foretog mig, og alt hvad jeg indtog, sammenlignede min profil med andre danskeres, og derefter kom med gode råd til kost og motion det næste døgn? Ville jeg værdsætte dette, eller ville jeg føle mig overvåget?
Men brugt rigtigt, kan de nye teknikker give meget store gevinster. Og som tilfældet Google viser, kan de skabe globale førerpositioner. Men det kræver meget konsekvent og vidtgående tænkning. Som Google praktiserede. Mantraet skal være: Tænk ikke stort. Tænk større!
Bragt som kommentar i Morgenavisen Jyllands-Posten d. 13. september 2011
Skriv et svar