Revista si suplimente
MarketWatch
Inapoi Inainte

Inevitabilul declin al soluţiilor Big Data

10 Iunie 2014



Big Data reprezintă, din păcate, o tehnologie supraevaluată la momentul actual. Şi, ca urmare a supraevaluării, companii care au investit serios în proiecte de acest tip şi şi-au construit aşteptări pe măsură sunt pe cale să descopere, într-un orizont de timp nu prea îndepărtat, că rezultatele obţinute nu sunt cele preconizate, iar beneficiile scontate necesită un efort mai mare decât anticipaseră. Este o evoluţie firească, pe care însă numeroase companii o ignoră, în pofida avertismentelor şi recomandărilor făcute de către specialişti.

Este bizar ca, în plină perioadă de glorie a unei tehnologii precum Big Data, să te apuci să prezici iminenta intrare a acesteia pe o pantă descendentă. Şi totuşi, este o evoluţie firească şi pe deplin explicabilă. Cel puţin din perspectiva analistului Gartner Svetlana Sicular, care argumentează că este foarte probabil ca, anul acesta, Big Data să atingă punctul de apogeu al evoluţiei sale. Mai precis, aşa-numitul „Peak of inflated expectation“, punctul de inflexiune al graficului care ilustrează modelul ciclului de adopţie creat de analiştii Gartner (Hype Cycle Adoption).
Evoluţia rapidă, constant ascendentă şi atingerea acestui punct de maxim într-un interval de timp relativ scurt – raportat la intervalul mediu de timp necesar materializării şi maturizării unui concept IT – reprezintă un fenomen firesc în cazul tehnologiilor care se dezvoltă şi sunt adoptate într-un ritm accelerat. Iar Big Data respectă întru totul acest tipar comportamental.



Modelul Gartner prevede însă, după atingerea acestui punct de maxim, o continuare pe o traiectorie descendentă rapid, finalizată prin intrarea în zona „Trough of Disillu-sionment“. Tocmai la această „cădere“ abruptă face referire Svetlana Sicular, atunci când avertizează că se apropie o perioadă în care numărul plângerilor şi nemulţumirilor faţă de soluţiile Big Data se vor înmulţi considerabil. (În modelul ciclului de adoptare creat de Gartner, după „Trough of Disillusionment“ urmează o revenire lentă pe o traiectorie moderat ascendentă, respectiv zonele „Slope of Enlightenment“ şi „Plateau of Productivity“.)
Avertismentul lansat de Sicular nu reprezintă o noutate – ca orice nouă tehnologie, Big Data aduce nu doar beneficii, ci şi o serie de provocări aferente. Pe care însă numeroase companii le ignoră, sub efectul studiilor de caz despre companii de pretutindeni care au reuşit să identifice oportunităţi de business nebănuite utilizând noi metode de analiză şi modelare a datelor.
Poveştile de succes sunt reale, dar, ceea ce se pierde din vedere, e faptul că nu sunt replicabile 100%. Ba chiar nici într-o proporţie de 50%, având în vedere nivelul de specificitate şi complexitate al business-urilor, factorii diferenţiatori existenţi etc. – susţin unii specialişti. Dar, de fapt, principala problemă rezidă în faptul că marea majoritate a companiilor nu au experienţa lucrului efectiv cu volume mari de date nestructurate, de o mare varietate. Iar, potrivit expertului Gartner citat, dificultatea formulării întrebărilor corecte creşte exponenţial atunci când se operează cu volume mari de date, un fenomen similar producându-se şi în cazul validării răspunsurilor primite.

Provocarea „dirty data“

Cele două probleme amintite mai sus sunt amplificate de o a treia – cea a validităţii datelor cu care operează companiile. Conform unui studiu de piaţă realizat în 2013 de către TEKsystems pe un eşantion de companii care consideră Big Data o prioritate reală de business, 60% din responsabilii IT intervievaţi au manifestat dubii majore asupra modului în care organizaţiile lor îşi gestionează datele, iar peste 50% din aceştia au declarat că nu sunt siguri asupra calităţii şi corectitudinii datelor pe care le stochează.
Într-o astfel de situaţie, principiul GI-GO („Garbage In - Garbage Out“) se verifică întru totul, iar deziluzia beneficiarilor este pe deplin explicabilă. Este un scenariu frecvent întâlnit, care se confirmă mai ales în cazul soluţiilor Big Data dezvoltate pe baza serviciilor Cloud, în care încărcarea de date este simplificată la maxim, fără a mai presupune etape anterioare de verificare şi validare.
Problema este că externalizarea procesului de „curăţare“ a datelor nu reprezintă o practică frecventă – argumentul de bază fiind acela că nimeni nu poate decela mai bine decât compania-client o informaţie utilă de una inutilă, dar mai ales de una eronată. Se ignoră însă o serie de elemente-cheie: că este o operaţiune de durată, că necesită resurse calificate şi că este dificil de justificat din punct de vedere RoI (Return of Investment). Când încep să conştientizeze toate aceste aspecte, organizaţiile încep să scadă turaţia, iar rezultatul final este, în cel mai bun caz, o „curăţare“ parţială.
În concordanţă cu aceste practici, majoritatea vendorilor de soluţii Big Data recomandă potenţialilor clienţi să realizeze o pregătire şi o „curăţire“ sumară a datelor înainte de a trece la implementare şi utilizare. Este o abordare relativ corectă, dintr-o anumită perspectivă (nu neapărat pur comercială), dar care creşte probabilitatea erorilor atunci când se caută anumite răspunsuri.

Supra-simplificarea problemei

Toate aceste tipuri de probleme sunt cunoscute de mai mult timp şi nici măcar nu sunt specifice soluţiilor Big Data. Dar sunt ignorate adesea ca urmare a strategiei de „simplificare“ pe care o pun în practică o parte din vendorii de soluţii IT complexe.
Într-un recent grup de discuţii coordonat de analiştii McKinsey Group, care a reunit executivi de vârf ai unor companii precum Samsung Mobile, Wal-Mart sau American Express, o primă concluzie a fost aceea că Big Data reprezintă o soluţie care poate genera avantaje competitive majore, dar suferă de un păcat major – vendorii super-simplifică efortul de implementare.
Motivul este evident: orice vendor face efortul de a-şi prezenta şi explica soluţiile în termeni pe care top managementul potenţialei companii client să îi poată înţelege fără un efort prea mare, respectiv încearcă să limiteze ponderea limbajului tehnic într-o pledoarie business. Un demers perfect justificat, dar care are un efect secundar periculos – cel al simplificării excesive a tehnologiei şi chiar a eludării provocărilor apărute în procesul de adoptare a acesteia.
Super-simplificarea este o strategie care vinde pe termen scurt. Pe termen lung însă poate genera „efecte adverse“ de durată. Care fac ca tehnologiile inovatoare, adoptate rapid de piaţă într-o primă fază, să intre, ulterior, într-o etapă descendentă, în care criticile şi nemulţumirile să le diminueze sensibil gradul de atractivitate. Exact ceea ce estimează expertul Gartner că se va întâmpla cu Big Data.

Ce nu face Big Data pentru o companie
Big Data nu poate rezolva problemele de business. Oamenii o pot face. Doar companiile care identifică şi decid de ce au nevoie cu adevărat înainte de a demara orice iniţiativă Big Data au şanse reale de a utiliza eficient şi valorifica potenţialul volumelor mari de date.
Big Data nu eficientizează managementul datelor. IBM susţine că, zilnic, la nivel mondial, sunt generate 2,5 miliarde de miliarde de bytes de informaţie (2,5x1030 bytes). Evident, volumele de date cu care operează companiile nu cresc cu aceeaşi viteză, dar, dacă acestea nu utilizează reguli clare de retenţie, triere, validare şi utilizare a datelor, iniţiativele Big Data au şanse scăzute de reuşită.
Big Data nu reduce încărcarea departamentelor IT. Managementul bazelor de date, interconectarea platformelor în care datele sunt colectate, managementul serverelor şi al dispozitivelor de stocare, dezvoltările software aferente proiectelor Big Data aduc o încărcare suplimentară pentru departamentele IT, multe dintre acestea nedeţinând competenţe pe zonele respective de activitate.
Big Data nu îmbunătăţeşte calitatea datelor. Sistemele tranzacţionale clasice prezintă avantajul că lucrează cu o varietate redusă de date structurate şi deţin instrumente de validare şi editare a acestora. Spre deosebire de acestea, soluţiile Big Data operează cu o mare varietate şi cantitate de date nestructurate, dificil de validat din punct de vedere al calităţii. Există specialişti care susţin că 99% din datele cu care operează sistemele Big Data sunt „noise“, care nu contribuie cu nimic la rezultatele obţinute.
Big Data nu este validată prin metricile uzuale. Randamentul investiţiei (Return on Investment) într-un sistem clasic de capturare şi proce-sare a datelor se bazează, în general, pe măsurarea vitezei cu care se derulează operaţiunile-tranzacţiile, din aceasta extrapolându-se indici de eficienţă şi profitabilitate. În cazul procesării volumelor mari de date, viteza nu mai reprezintă însă un parametru viabil, ci ar trebui luat în calcul nivelul de utilizare al rezultatelor obţinute în urma procesării datelor şi impactul acestora la nivel operaţional. O astfel de abordare reprezintă o schimbare drastică de metodologie, ceea ce face ca proiectele Big Data să fie greu de argumentat intern.



Parerea ta conteaza:

(0/5, 0 voturi)

Lasa un comentariu



trimite