Lås upp dina fångade data: Få insikter från kant till moln

getty-sergey-nivens-edge-computing-2

Getty/sergey-nivens

Låt oss prata en minut om datasilos. Verkliga silos är naturligtvis de torn på gårdar som används för att lagra spannmål för framtida användning eller försäljning. De är höga byggnader som vanligtvis bara innehåller en typ av råvara. Silokonceptet fungerar generellt som en metafor för att beskriva stora samlingar av rådata som lagras separat från annan rådata.

Servrar och enheter silo ofta data. Olika maskiner lagrar data, men delar inte nödvändigtvis allt med andra enheter. Applikationer genererar och lagrar data, men bara vissa kanske...kanske…delas om ett välskrivet API (applikationsprogrammeringsgränssnitt) används. Med tiden befinner sig organisationer med mycket data, men det mesta är isolerat, lagrat i separata metaforiska silos, för att aldrig vara en del av en större helhet.

Hur edge computing skapar den perfekta stormen för datasilos

När det gäller företagsnätverk, särskilt kant-till-moln, förekommer datasilos naturligt. Varje enhet vid kanten producerar data, men mycket av denna data kan finnas kvar på enheten, eller åtminstone, klustret av enheter på den kantplatsen. Detsamma gäller molnverksamhet. Data skapas och lagras hos många olika molnleverantörer och, även om de ibland utbyter data, lever de flesta av dem isolerade från resten av företaget.

Dessutom: Hur kant-till-moln driver nästa steg av digital transformation

Men insikter och handlingsbara strategier kommer när all data i företaget är tillgänglig för lämpliga användare och system. Låt oss titta på ett exempel som kan förekomma hos den fiktiva återförsäljaren av hemvaror, Home-by-Home, som vi diskuterade tidigare.

Home-by-Home säljer en väggmonterad belysningsarmatur som använder plastfästen för att fästa den på väggen. Vanligtvis är det en bra säljare. Men i mars och april varje år får företaget en flod av avkastning eftersom fästena spricker. Returerna kommer från hela landet, från Miami till Seattle. Det är vår första datamängd, och den är känd för butikerna själva.

Fästena är byggda av ett partnerföretag i en fabrik. Normalt arbetar fabriken vid temperaturer över 62 grader Fahrenheit, men i januari och februari sjunker fabrikens omgivningstemperatur till i genomsnitt 57 grader. Det är vårt andra kluster av data, temperaturen i fabriken.

Ingen av datamängden är kopplad till den andra. Men när vi utforskade lite djupare för ett tag sedan, börjar vissa plastproduktionsprocesser misslyckas under 59 grader eller så. Utan att kunna korrelera en datamängd på en fabrik med returstatistik från butiker skulle företaget inte kunna veta att en lite svalare fabrik tillverkade undermåliga konsoler, som höll på att misslyckas över hela landet.

Men genom att fånga all data och göra datamängder tillgängliga för analys (och AI-baserad korrelation och big data-bearbetning) blir insikter möjliga. I det här fallet, eftersom Home-by-Home gjorde digital transformation till en del av sitt DNA, kunde företaget göra kopplingen mellan fabrikstemperatur och returer, och nu upplever kunder som köper dessa belysningsarmaturer mycket färre fel. 

Din data finns överallt, men är den genomförbar?

Detta är bara ett exempel på potentialen att samla in data från kant till moln. Det finns några viktiga idéer här som alla är relaterade till varandra. 

Din data finns överallt: Nästan varje dator, server, internet-of-things-enhet, telefon, fabrikssystem, filialsystem, kassaregister, fordon, mjukvara-som-en-tjänst-app och nätverkshanteringssystem genererar ständigt data. En del av det rensas när ny data genereras. En del av det byggs upp tills lagringsenheter blir igensatta på grund av överanvändning. En del av det sitter i molntjänster för varje inloggningskonto du har.

Din data är isolerad: De flesta av dessa system pratar inte med varandra. Faktum är att datahantering ofta tar formen av att man tar reda på vilken data som kan raderas för att ge plats åt mer att samla in. Medan vissa system har API:er för datautbyte, är de flesta oanvända (och vissa är överanvända). När jag klagade på några lokala företag brukade min pappa älska att använda frasen "Vänster hand vet inte vad höger hand gör." När data är isolerade är en organisation precis så.

Insikter kommer när man korrelerar flera indata: Även om det är möjligt att utsätta en enskild datamängd för omfattande analys och komma med insikter, är det mycket mer sannolikt att du ser trender när du kan relatera data från en källa till data från andra källor. Vi har tidigare visat hur temperaturen på ett fabriksgolv har en avlägsen, men mätbar, koppling till volymen av returer i butiker över hela landet. 

För att göra det måste all denna data vara tillgänglig i hela ditt företag: Men dessa korrelationer och observationer är bara möjliga när analytiker (både mänskliga och AI) kan få tillgång till många datakällor för att lära sig vilka historier det hela berättar.

Att göra data användbar och omvandla den till intelligens

Utmaningen är då att göra all data användbar, skörda den och sedan bearbeta den till handlingsbar intelligens. För att göra detta måste fyra saker beaktas.

Den första är färdas. Data måste ha en mekanism för att flytta från alla dessa edge-enheter, molntjänster, servrar och annat till någonstans där det kan ageras, eller aggregerade. Termer som "data lake" och "data warehouse" beskriver detta koncept med dataaggregation, även om den faktiska lagringen av data kan vara ganska spridd. 

Dessutom: Digital transformation som drivs av kant-till-moln kommer till liv i det här scenariot med en storförsäljare

Dessa två frågor, lagring av data och förflyttning av data kräver båda överväganden säkerhet och styrning. Data i rörelse och data i vila måste skyddas från obehörig åtkomst, samtidigt som all denna data görs tillgänglig för analytiker och verktyg som kan bryta data för möjligheter. På samma sätt kan datastyrning vara ett problem, eftersom data som genereras på en geografisk plats kan ha statliga eller skattemässiga problem om den skulle flyttas till en ny plats.

Och slutligen är den fjärde faktorn att tänka på analys. Det måste lagras på ett sätt som är tillgängligt för analys, uppdateras tillräckligt ofta, katalogiseras korrekt och kureras med omsorg.

En mild introduktion till datamodernisering

Människor är nyfikna varelser. Det vi skapar i verkligheten återger vi ofta i våra digitala världar. Många av oss har stökiga hem och arbetsplatser eftersom vi aldrig har hittat den perfekta förvaringsplatsen för varje föremål. Detsamma gäller tyvärr ofta för hur vi hanterar data. 

Som vi diskuterade tidigare har vi slängt så mycket av det. Men även när vi drar all denna data till en central datasjö har vi inte de bästa sätten att söka, sortera och sålla igenom allt. Datamodernisering handlar om att uppdatera hur vi lagrar och hämtar data för att använda moderna framsteg som big data, maskininlärning, AI och till och med minnesdatabaser.

IT-buzz-fraserna datamodernisering och digital transformation går hand i hand. Det beror på att en digital transformation inte kan ske om inte metoderna för att lagra och hämta data är en topp (ofta d top) organisatorisk IT-prioritet. Detta kallas en data-först-strategi och det kan skörda betydande belöningar för ditt företag.

Se, här är grejen. Om din data är bunden och instängd kan du inte använda den effektivt. Om du och ditt team alltid försöker hitta den data du behöver, eller aldrig ser den i första hand, kommer innovation att stoppas. Men frigör den datan, och det låser upp nya möjligheter.

Inte bara det, dåligt hanterad data kan vara en tidssänkning för din professionella IT-personal. Istället för att arbeta för att driva organisationen framåt genom innovation, lägger de tid på att hantera alla dessa olika system, databaser och gränssnitt och felsöka alla olika sätt de kan gå sönder.

Att modernisera din data innebär inte bara att du kan förnya dig, det betyder också att du kan frigöra tid att tänka istället för att reagera. Det ger dig också tid att distribuera fler applikationer och funktioner som kan öppna nya horisonter för ditt företag.

Hitta de värden och praktiska insikter som är gömda i din data

Processen att modernisera data och anta en data-först-strategi kan vara utmanande. Teknik som molntjänster och AI kan hjälpa. Molntjänster kan hjälpa till genom att tillhandahålla en on-demand, skalas efter behov, som kan växa i takt med att mer och mer data samlas in. AI kan hjälpa till genom att tillhandahålla verktyg som kan sålla igenom all denna data och organisera på ett konsekvent sätt, så att dina specialister och linjechefer kan vidta åtgärder.

Men det är fortfarande en stor fråga för de flesta IT-team. Vanligtvis har IT inte som mål att silo all denna data. Det händer bara organiskt när fler och fler system installeras och fler och fler att göra-saker läggs på folks listor.

Det är där management- och infrastrukturtjänster som HPE GreenLake och dess konkurrenter kan hjälpa till. GreenLake erbjuder en betal-per-användningsmodell, så du behöver inte "bedöma" kapacitetsanvändningen i förväg. Med instrumentpaneler för gränsöverskridande applikationer och gränsöverskridande tjänster och ett brett utbud av professionell support kan HPE GreenLake hjälpa dig att utmana din data överallt till en data first-strategi. 

Källa