Lås opp dine fangede data: Få innsikt fra kant til sky

getty-sergey-nivens-edge-computing-2

Getty/sergey-nivens

La oss snakke et øyeblikk om datasiloer. Virkelige siloer er selvfølgelig de tårnene på gårder som brukes til å lagre korn for fremtidig bruk eller salg. De er ruvende bygninger som vanligvis inneholder bare én type råstoff. Silokonseptet fungerer generelt som en metafor for å beskrive store samlinger av rådata som er lagret atskilt fra andre rådata.

Servere og enheter silo ofte data. Ulike maskiner lagrer data, men deler ikke nødvendigvis alt med andre enheter. Apper genererer og lagrer data, men bare noen kan...kunne…deles hvis et velskrevet API (applikasjonsprogrammeringsgrensesnitt) brukes. Over tid finner organisasjoner seg med mye data, men det meste er isolert, lagret i separate metaforiske siloer, for aldri å være en del av en større helhet.

Hvordan edge computing skaper den perfekte stormen for datasiloer

Når det gjelder bedriftsnettverk, spesielt kant-til-sky, forekommer datasiloer naturlig. Hver enhet på kanten produserer data, men mye av disse dataene kan forbli på enheten, eller i det minste, klyngen av enheter på den kanten. Det samme gjelder skyoperasjoner. Data lages og lagres hos mange forskjellige skyleverandører, og selv om de noen ganger utveksler data, lever det meste isolert fra resten av bedriften.

Også: Hvordan kant-til-sky driver neste trinn av digital transformasjon

Men innsikt og handlingsdyktige strategier kommer når all data på tvers av bedriften er tilgjengelig for passende brukere og systemer. La oss se på ett eksempel som kan forekomme hos den fiktive forhandleren av hjemmevarer, Home-by-Home, vi diskuterte tidligere.

Home-by-Home selger en veggmontert lysarmatur som bruker plastbraketter for å feste den til veggen. Vanligvis er det en stor selger. Men i mars og april hvert år får selskapet en flom av avkastning fordi brakettene sprekker. Returene er fra hele landet, fra Miami til Seattle. Det er vårt første datasett, og det er kjent for butikkene selv.

Brakettene bygges av et partnerfirma i en fabrikk. Normalt opererer fabrikken ved temperaturer over 62 grader Fahrenheit, men i januar og februar synker fabrikkens omgivelsestemperatur til et gjennomsnitt på 57 grader. Det er vår andre klynge med data, temperaturen på fabrikken.

Ingen av datasettene er koblet til det andre. Men som vi utforsket i dybden for en stund tilbake, begynner noen plastproduksjonsprosesser å mislykkes under 59 grader eller så. Uten å kunne korrelere et datasett på en fabrikk med returstatistikk fra butikker, ville ikke selskapet kunne vite at en litt kjøligere fabrikk produserte understandardbraketter, som sviktet over hele landet.

Men ved å fange opp alle dataene og gjøre datasett tilgjengelig for analyse (og AI-basert korrelasjon og big data-behandling), blir innsikt mulig. I dette tilfellet, fordi Home-by-Home gjorde digital transformasjon til en del av sitt DNA, var selskapet i stand til å gjøre sammenhengen mellom fabrikktemperatur og returer, og nå opplever kunder som kjøper disse lysarmaturene langt færre feil. 

Dataene dine er overalt, men er de handlingsdyktige?

Dette er bare ett eksempel på potensialet for å høste data fra kant-til-sky. Det er noen få nøkkelideer her som alle henger sammen. 

Dataene dine er overalt: Nesten hver datamaskin, server, internett-av-ting-enhet, telefon, fabrikksystem, avdelingskontorsystem, kasseapparat, kjøretøy, programvare-som-en-tjeneste-app og nettverksstyringssystemer genererer konstant data. Noe av det renses etter hvert som nye data genereres. Noe av det bygger seg opp til lagringsenheter blir tette på grunn av overforbruk. Noe av det sitter i skytjenester for hver påloggingskonto du har.

Dataene dine er isolert: De fleste av disse systemene snakker ikke med hverandre. Databehandling tar faktisk ofte formen av å finne ut hvilke data som kan slettes for å gi plass til å samle inn mer. Mens noen systemer har APIer for datautveksling, er de fleste ubrukte (og noen er overbrukt). Når han klaget over noen lokale bedrifter, pleide faren min å elske å bruke uttrykket: "Venstre hånd vet ikke hva høyre hånd gjør." Når data er isolert, er en organisasjon akkurat slik.

Innsikt kommer når du korrelerer flere innganger: Selv om det er mulig å utsette et enkelt datasett for omfattende analyse og komme med innsikt, er det langt mer sannsynlig at du ser trender når du kan relatere data fra én kilde til data fra andre kilder. Vi har tidligere vist hvordan temperaturen på et fabrikkgulv har en fjern, men målbar, sammenheng med volumet av returer i butikker over hele landet. 

For å gjøre det, må alle disse dataene være tilgjengelige i hele bedriften din: Men disse korrelasjonene og observasjonene er bare mulig når analytikere (både menneskelige og AI) kan få tilgang til mange datakilder for å lære hvilke historier det hele forteller.

Gjøre data brukbare og gjøre dem om til intelligens

Utfordringen er da å gjøre all den dataen brukbar, høste den og deretter behandle den til handlingsbar intelligens. For å gjøre dette, må fire ting vurderes.

Den første er reiser. Data må ha en mekanisme for å flytte fra alle disse kantenhetene, skytjenestene, serverne og annet til et sted de kan reageres på, eller samlet. Begreper som "data lake" og "datavarehus" beskriver dette konseptet med dataaggregering, selv om den faktiske lagringen av dataene kan være ganske spredt. 

Også: Digital transformasjon drevet av kant-til-sky kommer til live i dette scenariet med en storboksforhandler

Disse to problemene, lagring av data og bevegelse av data krever begge vurderinger sikkerhet og styresett. Data i bevegelse og data i hvile må beskyttes mot uautorisert tilgang, samtidig som alle disse dataene gjøres tilgjengelige for analytikere og verktøy som kan utvinne dataene for muligheter. På samme måte kan datastyring være et problem, ettersom data generert på ett geografisk sted kan ha myndighets- eller skattemessige problemer hvis de skulle flyttes til en ny lokalitet.

Og til slutt, den fjerde faktoren å vurdere er analyse. Den må lagres på en måte som er tilgjengelig for analyse, oppdateres ofte nok, katalogisert riktig og kurert med forsiktighet.

En skånsom introduksjon til datamodernisering

Mennesker er nysgjerrige skapninger. Det vi skaper i det virkelige liv, reproduserer vi ofte i våre digitale verdener. Mange av oss har rotete hjem og arbeidsplasser fordi vi aldri har funnet det perfekte oppbevaringsstedet for hver gjenstand. Det samme gjelder dessverre ofte hvordan vi håndterer data. 

Som vi diskuterte tidligere, har vi tullet så mye av det. Men selv når vi trekker alle disse dataene inn i en sentral datainnsjø, har vi ikke de beste måtene å søke, sortere og sile gjennom alt. Datamodernisering handler om å oppdatere hvordan vi lagrer og henter data for å gjøre bruk av moderne fremskritt som big data, maskinlæring, AI og til og med in-memory databaser.

IT-buzz-frasene om datamodernisering og digital transformasjon går hånd i hånd. Det er fordi en digital transformasjon ikke kan finne sted med mindre metodene for å lagre og hente data er på topp (ofte de topp) organisatorisk IT-prioritet. Dette kalles en data-først-strategi, og den kan høste betydelige gevinster for virksomheten din.

Se, her er greia. Hvis dataene dine er bundet og fanget, kan du ikke bruke dem effektivt. Hvis du og teamet ditt alltid prøver å finne dataene du trenger, eller aldri ser det i utgangspunktet, vil innovasjon bli stoppet. Men frigjør disse dataene, og det åpner for nye muligheter.

Ikke bare det, dårlig administrerte data kan være en tidsluke for ditt profesjonelle IT-personell. I stedet for å jobbe for å drive organisasjonen fremover gjennom innovasjon, bruker de tid på å administrere alle disse forskjellige systemene, databasene og grensesnittene, og feilsøke alle de forskjellige måtene de kan gå i stykker.

Modernisering av dataene dine betyr ikke bare at du kan innovere, det betyr også at du kan frigjøre tid til å tenke i stedet for å reagere. Det gir deg også tid til å distribuere flere applikasjoner og funksjoner som kan åpne nye horisonter for virksomheten din.

Finn verdien og den praktiske innsikten som er skjult i dataene dine

Prosessen med datamodernisering og å ta i bruk en data-først-strategi kan være utfordrende. Teknologier som skytjenester og AI kan hjelpe. Skytjenester kan hjelpe ved å tilby en infrastruktur på forespørsel, skalere etter behov som kan vokse etter hvert som mer og mer data høstes. AI kan hjelpe ved å tilby verktøy som kan sile gjennom alle disse dataene og organisere sammenhengende, slik at spesialistene og bransjelederne dine kan ta grep.

Men det er fortsatt et stort spørsmål for de fleste IT-team. Vanligvis har ikke IT som mål å silo alle disse dataene. Det skjer bare organisk ettersom flere og flere systemer blir installert og flere og flere gjøremål blir satt på folks lister.

Det er der administrasjons- og infrastrukturtjenester som HPE GreenLake og dets konkurrenter kan hjelpe. GreenLake tilbyr en betal-per-bruk-modell, slik at du ikke trenger å "gjeste" kapasitetsbruken på forhånd. Med dashboards på tvers av applikasjoner og tjenester på tvers og et bredt spekter av profesjonell støtte, kan HPE GreenLake hjelpe deg med å gjøre dataene dine overalt utfordrende til en data først-strategi. 

kilde