Strokovnjaki delijo glavne trende velikih podatkov za leto 2017

Avtor: Roger Morrison
Datum Ustvarjanja: 21 September 2021
Datum Posodobitve: 19 Junij 2024
Anonim
High Density 2022
Video.: High Density 2022

Vsebina


Odvzem:

Številni strokovnjaki verjamejo, da bo leto 2017 še večje, ko bo tehnologija velikih podatkov postala vse bolj izpopolnjena in organizacije še naprej izpopolnjujejo svojo sposobnost uporabe velikih podatkov.

Leto 2016 je bilo pomembno za velike podatke. Glede na podatke, ki jih je zbral Tableau, več organizacij kot kdaj koli prej shranjuje, obdeluje in analizira velike podatke kot del svojih poslovnih procesov. Številni strokovnjaki verjamejo, da bo leto 2017 še večje, ko bo tehnologija velikih podatkov postala vse bolj izpopolnjena in organizacije še naprej izpopolnjujejo svojo sposobnost uporabe velikih podatkov. Strokovnjake na tem področju smo prosili, da predstavijo svoje napovedi o tem, kakšno je leto, ko gre za tehnologijo velikih podatkov. Tukaj so nam povedali.

Povečana avtomatizacija znotraj velikih podatkovnih orodij

Podjetja, vložena v velike podatke, morajo poznati več razsežnosti svojih kupcev, izdelkov in poslovanja. Nova orodja za nadzorne plošče podatkov in avtomatizacijo poročanja so postavljena tako, da vpogled z dolgim ​​in kratkim repom pretvorijo v prihodek in dosežejo spodnjo vrstico. Avtomatizacija in stroški znanja na področju podatkov o morju bodo znižali stroške, da bi sprejeli poslovno usmerjena orodja za vpogled in pomagali zavarovanim strankam pri prilagajanju in prodaji večjih izdelkov / storitev svojim strankam novim in zvestim.

-Michael Reddy, ustanovitelj in glavni analitik v Digital Acumen


Povečana osredotočenost na čistočo podatkov

Kljub vse močnejšemu strojnemu učenju in naprednim algoritmom mnogi tržniki dejansko niso pravilno zbrali svojih podatkov, jih normalizirali, očistili, strukturirali in dali na mesto, kjer jih je mogoče analizirati. Leto 2017 bo leto, kjer se bomo bolj osredotočili na te "naloge varovanja podatkov".

-Mike Driscoll, direktor podjetja Metamarkets

Zgodnji posvojitelji bodo začeli uporabljati enotno platformo za izkušnje s strankami

Zgodnji sprejetniki bodo začeli uporabljati enotno platformo za izkušnje s strankami za pridobivanje podatkov, pridobljenih iz vseh točk sodelovanja. Ta vrsta sistema bo vključevala samopostrežno analitiko, mobilno analitiko in analitiko velikih podatkov. Google Analytics zagotavlja vpogled, ki ga iščejo blagovne znamke, vendar je pomembno, da si analitiko kontaktnih centrov ogledate z vidika stranke, zastopnika in organizacije. Druge rešitve, ki poskušajo upravljati izkušnje strank, ne morejo preseči ene same interakcije. Bili so ujeti v funkciji (prodaja, trženje, storitev) ali kanalu (govorni, mobilni, digitalni, družabni) ali še huje: obojega: v kanalu v funkciji. Ti silosi so tam, kjer odgovornost umre. V dobi, ko potrošniki pričakujejo brezhibno digitalno izkušnjo, je potrebna le ena prekinitev, da izgubijo zvestobo kupcev.

-Merijn te Booij, CMO pri Genesysu


SaaS in veliki podatki bodo postali mainstream za IT Operations Analytics

V letu 2017 pričakujte, da se bo kombinacija SaaS in velikih podatkov premaknila v glavni tok za rešitve analitike IT operacij v realnem času.

Brez napak, brez stresa - vaš korak za korakom vodnik za ustvarjanje programske opreme, ki spreminja življenje, ne da bi vam uničila življenje

Ne morete izboljšati svojih programskih veščin, kadar nikogar ne skrbi za kakovost programske opreme.

Veliki podatki so se rodili kot odprtokodna programska oprema. Čeprav je bil izredno močan, ga večina IT trgovin ni zlahka prebavila. Komercializacija velikih podatkov je nastala s svetovalnimi podjetji, ki so ponujala integracijo in podporo okoli teh odprtokodnih orodij. To je bilo učinkovito, vendar drago. Vzporedno so ponudniki oblakov začeli ponujati velika podatkovna orodja v paketu z viri infrastrukture v oblaku. Te evolucijske faze postavljajo temelj za naravno evolucijo od orodij in generičnih platform do ponudbe velikih podatkov SaaS, zgrajenih okoli primerov uporabe v resničnem svetu.

-Jim Frey, podpredsednik strateških zavezništev pri Kentiku

Demokratizacija velikih podatkov bo pospešila in izravnala igralno polje za manjša podjetja

Povečal se bo poudarek na tehnologijah in storitvah, ki moč podatkov dajo v roke tistim, ki jih najbolj potrebujejo. Na primer, prodaja in trženje bosta imela več možnosti za spremljanje, saniranje in analizo velikih podatkov "na robu", preden se jih odloži v velike centralizirane zbirke podatkov, kjer bi lahko hitro izgubili vrednost. Podjetja se bodo vedno bolj zavzemala za ponudnike, ki ublažijo breme nad vsem tem upravljanjem podatkov, hkrati pa bodo olajšali učinkovitejšo prodajo in trženje z zagotavljanjem dobrih podatkov v roke prodajnih predstavnikov in tržnih vodij, da bodo lahko bolj obveščeni in takoj ukrepali. To bo še posebej koristno za manjša podjetja, ki bodo demokratizirane podatke uporabila za konkurenco večjim tekmecem.

-Henry Schuck, soustanovitelj in izvršni direktor DiscoverOrg

Podjetja in tehnologije, ki ustvarjajo in upravljajo velike podatke, se bodo soočila z večjimi pričakovanji

Podjetja se zavedajo, da so preverjeni podatki najbolj kritični dejavnik za uspešno prodajo in trženje. Ko se pri prodaji in trženju uporablja več tehnologije, dobri podatki postajajo vedno pomembnejši, saj je to orodje tisto, ki napaja ta orodja. Ogromna vrednost, ki jo je Microsoft postavil na LinkedIn zaradi svojih bogatih podatkov, in naložba, ki jo je Salesforce pripravil na orodjih za zbiranje podatkov za obveščanje o "poti stranke", so glavni signali, ki napovedujejo prihodnje povezave na trgu, konsolidacijo in inovacije, ki bodo temeljile predvsem na vrednost dobrih podatkov.

-Henry Schuck, soustanovitelj in izvršni direktor DiscoverOrg

Suverenost in varnost podatkov bosta spodbudila razprave na svetovnih forumih

Eno največjih vprašanj v zvezi z velikimi podatki v letu 2017 se bo glasilo: „Kdo jih ima v resnici? Podatkovna suverenost in varnost - tako na ravni podjetij kot na ravni posameznikov - bosta vodila razprave o tej temi na številnih vidnih forumih po vsem svetu (npr. Svetovni ekonomski forum v Davosu in G8).

Ko prehajamo v obdobje strojnega učenja, umetne inteligence (AI) in virtualne resničnosti, podatki, ki jih ustvari kateri koli kos tehnologije, pripadajo lastniku / ustvarjalcu tehnologije. Vendar pa pri državah, kot je Evropa, ki izvajajo okvire, kot je Splošno Uredba o varstvu podatkov (GDPR) v letu 2018, ki bo zajemala bistveno večje globe za kršitve zakonov o varstvu podatkov (do 4% svetovnega prihodka podjetja v nekaterih primerih), pomeni tudi finančno odgovornost za neupoštevanje.

Zdaj, ko bo malomarnost glede podatkovne suverenosti neposredno udarila v globoke žepe korporacij, moja napoved pomeni, da bo v letu 2017 pritegnila veliko več pozornosti.

-Garry Connolly, ustanovitelj in predsednik gostitelja na Irskem

Aktivnosti združevanja in trgovanja s prodajalci AI in Analytics se bodo pospešile

Ni dvoma, da obstaja ogromen zajem zemlje za karkoli AI, strojno učenje ali globoko učenje. V letošnjem letu so trend akvizicije spodbudili najpomembnejši igralci, kot so Google, Apple, Salesforce in Microsoft, AOL in Amazon. Zaradi kratke zgodovine poslovanja večine zagonskih podjetij se te poteze nanašajo na pridobivanje omejenega števila strokovnjakov AI na planetu kot na vrednost tistega, kar je doslej ustvarilo vsako podjetje. Med Watsonom, Salesforceom Einsteinom in Oracle-jevimi prilagodljivimi inteligentnimi aplikacijami se je očitno spopadal boj za AI podjetja. Dobro se razume, da AI potrebuje dosledno podlago za zanesljive podatke, na katerih lahko deluje. Z omejenim številom zagonov, ki ponujajo te integrirane zmogljivosti, bo iskanje ustreznih vpogledov in na koncu priporočljiva dejanja, ki lahko pomagajo pri napovedovanju in učinkovitejšem napovedovanju in odločanju, v letu 2017 pripeljalo do še bolj agresivnih dejavnosti M&A.

-Ramon Chen, glavni direktor marketinga v podjetju Reltio

Podatkovna jezera bodo končno postala uporabna

Številna podjetja, ki so se v zgodnjih dneh lotila podatkovnega jezera, so porabila veliko denarja, ne le za nakup obljubljanja nizkih stroškov shranjevanja in obdelave, temveč množico storitev, da bi zbrala in dala na razpolago pomembne skupine velikih podatkov za biti povezani in odkriti za boljši vpogled. Izziv je najti kvalificirane znanstvenike, ki bi te podatke lahko smiselno obenem zagotovili za zanesljivost podatkov, po katerih se podatki poravnajo in z njimi povezujejo (čeprav je opozorjeni strokovnjak Tom Davenport pred kratkim trdil, da je to mit, da so znanstveniki podatkov trdi najti). Podatkovna jezera so tudi primanjkovala pri zagotavljanju prispevkov in prejemanju posodobitev v realnem času iz operativnih aplikacij. Na srečo se vrzel zmanjšuje med tradicionalno disciplino in nizom tehnologij, imenovanim master data management (MDM), in svetom operativnih aplikacij, analitičnih podatkovnih skladišč in podatkovnih jezer. Ob obstoječih velikih podatkovnih projektih, ki prepoznavajo potrebo po zanesljivi podatkovni fundaciji, in novi projekti, ki so združeni v celostno strategijo upravljanja podatkov, lahko podatkovna jezera v letu 2017 končno izpolnijo svoje obljube.

-Ramon Chen, glavni direktor marketinga v podjetju Reltio

Moorov zakon bo veljal za baze podatkov

Po Mooreovem zakonu so procesorji vedno hitrejši in cenejši. Zgodnje baze podatkov že pozno sledijo istemu vzorcu.

Leta 2013 je Amazon spremenil igro, ko so predstavili Redshift, množično vzporedno bazo obdelave, ki je podjetjem omogočala shranjevanje in analiziranje vseh njihovih podatkov za primerno ceno. Od takrat pa so podjetja, ki so izdelke, kot je Redshift, videla kot shrambe podatkov z učinkovito neomejeno zmogljivostjo, udarila v zid. Imajo na stotine terabajtov ali celo petabajtov podatkov in so obtičali med plačevanjem več za hitrost, na katero so se navadili, ali čakanjem pet minut, da se poizvedba vrne.

Vnesite (ali ponovno vstavite) Moorov zakon. Redshift je postal industrijski standard za baze podatkov v MPP v oblaku in tega ne bomo videli kmalu. Glede na to je naša napoved za leto 2017 ta, da bodo baze podatkov MPP na zahtevo, kot sta Google BigQuery in Snowflake, zelo priljubljene. Podatkovne baze na zahtevo zaračunavajo penije za shranjevanje, kar podjetjem omogoča shranjevanje podatkov brez skrbi za stroške. Ko uporabniki želijo zagnati poizvedbe ali potegniti podatke, poženejo potrebno strojno opremo in delo opravijo v nekaj sekundah. Hitro so, prilagodljivi in ​​pričakujemo, da bomo v letu 2017 videli veliko podjetij, ki jih uporabljajo.

-Lloyd Tabb, ustanovitelj, predsednik in glavni tehnološki direktor podjetja Looker

SQL bo imel še eno izjemno leto

SQL obstaja že desetletja, toda od konca devetdesetih do sredine 2000-ih je šlo iz mode, ko so ljudje začeli raziskovati alternative NoSQL in Hadoop. Vendar se je SQL vrnil z maščevanjem. Renesansa SQL je bila lepa na pogled in niti ne mislim, da je še blizu svojega vrhunca.

-Lloyd Tabb, ustanovitelj, predsednik in glavni tehnološki direktor podjetja Looker

IT ekipe bodo usmerile več pozornosti k uporabi velikih podatkov

V letu 2017 bodo IT ekipe daleč od rešitev za velike podatke, zato bodo več pozornosti usmerile na uporabo velikih podatkov kot naslednji korak. Strojno učenje bo uporabljeno kot vir široke inteligence in uvidov, ki prej niso bili možni. V kombinaciji s povratnimi informacijami kupcev bodo IT-ekipe uporabile vpogled, pridobljene iz strojnega učenja, za napovedovanje in prilagajanje izkušenj strank.

-Rajagopal Chandramohan, glavni arhitekt, Enterprise Business Services pri Intuitu

Več podjetij bo uporabljalo analitiko velikih podatkov za odkrivanje (ne samo preprečevanje) prevar

Številni vodje IT se ne zavedajo, da imajo sistemi za načrtovanje podjetniških virov (ERP), ki hranijo in upravljajo velike podatkovne zbirke podjetja, povezane zapletenosti, ki dejansko lahko ustvarijo priložnosti za goljufije. Glede na stroške prenove takšnih sistemov se podjetja začenjajo bolj osredotočati na odkrivanje goljufij, vgradnjo orodij za analizo podatkov za dvojno preverjanje zmožnosti ERP z namenom odkriti nepravilnosti, ki lahko kažejo na goljufijo.

Čeprav dodajanje kontrol ERP lahko prepreči dodatne goljufije, je drago in pogosto zaduši učinkovitost postopka, medtem ko odločni goljufi odpirajo vrata za izogibanje. S premikom svoje osredotočenosti lahko podjetja pridobijo sposobnost analize trendov podatkov ERP in zaznajo, kje je kdo zmotil ali poskušal zaobiti nadzor, namesto da bi postavili neskončne zapore cest.

-Dan Zitting, glavni produktni direktor pri ACL

Leto 2017 bo leto optimizacije za organizacije z zbirkami podatkov v oblaku

Za organizacije z shranjevanjem podatkov v oblaku bo leto 2017 leto optimizacije. Za tiste, ki želijo premakniti podatke v oblak, bo leto 2017 leto za vključitev strategij za optimizacijo podatkov. Vse ceste vodijo k odpravi nepotrebnih obratovalnih stroškov, hkrati pa pospešujejo poslovno uspešnost z dostopom do vpogledov in dejstev. Zgodbe podatkovnih bumerangov - podatki so se preselili v oblak in nato premaknili nazaj zaradi nepričakovanih stroškov - je mogoče odpraviti z upoštevanjem strateške zonirane podatkovne strategije. To vključuje podpiranje podatkovnih arhitektur s predpostavko, da vsi podatki niso enaki organizaciji. Arhitekti podatkov morajo upoštevati vrednost podatkov glede na organizacijske potrebe. Uskladitev je mogoče doseči s podatkovnimi območji. Skupni primeri bi vključevali: osvetlitev podpore, konkurenčne prednosti ter inovativnost in izpopolnjevanje. Potekajo dnevi, ko je podatkovna jezera mogoče razumeti kot preprosto in nediferencirano zatočišče za vse podatke. Pojdi v cono, podatkovno območje.

-William Hurley, višji direktor storitev programskega življenjskega cikla v Astadiji