Revista si suplimente
MarketWatch
Inapoi Inainte

De la analiza de tip analog, la cea digitală – Big Data Analysis

27 Iunie 2013



Fenomenul Big Data ne obligă să regândim analiza datelor/informațiilor: în loc să extrapolăm de la eșantioane de date, acum trebuie să fim capabili să analizăm TOATE DATELE. Asistăm la o SCHIMBARE DE PARADIGMĂ în lumea informației, iar noi trebuie să o înțelegem, pentru a fi pregătiți să ne adaptăm la ea. Trebuie să fim inteligenți, pro-activi, să anticipăm schimbarea, nu doar să reacționăm la stimuli.

Nu știu ce precizie ar fi avut un sondaj de opinie cu privire la câștigarea concursului Eurovision. S-ar fi bazat, în mod cert, pe anumiți factori subiectivi, precum alegerea eșantionului, disponibilitatea celor chestionați și, în mod cert, nu ar fi putut să ia în calcul înțelegerile care se fac de fiecare dată la Eurovision privind susținerea între națiuni. Victoria Danemarcei a fost prevăzută – cu o precizie destul de mare – de către un cercetător de la Microsoft, care a utilizat un soft de analiză pe conceptul de Big Data. Cu ceva timp în urmă am identificat un site care include rezultatele alegerilor din SUA din 1940 până în prezent. Modelul de date corelează informațiile (pe multiple categorii) și a fost utilizat de un analist pentru a prezice – cu o acuratețe foarte mare – victoria lui Obama de anul trecut.

Volumul datelor accesibile pe Internet creşte exponenţial

La finele lui 2011, numărul de utilizatori ai Internetului era estimat la 2,1 miliarde, între timp probabil a ajuns la 50% din populația globului. Numărul de site-uri era estimat (la finele lui 2011) la 555 milioane, fără paginile personale. În numai câteva luni, numărul trecuse de 620 milioane, ceea ce înseamnă o rată de creștere de circa 7 milioane site-uri/lună.
În condiţiile în care apar 2-3 site-uri noi la fiecare secundă, însăși inventarierea lor a devenit dificilă. Cât privește volumul de date și informații vehiculate pe Internet, lucrurile se complică și mai mult, pentru că aici vorbim și de e-mail, forumuri etc., care tind să înlocuiască formele clasice de comunicare. Nu mai luăm în calcul faptul că Internetul nu înseamnă doar pagini accesibile oficial, ci și deepweb, dimensiune a lumii virtuale ce nu poate fi măsurată.

Volumul de date generate zilnic se dublează la fiecare 40 de luni, adică în fiecare secundă se generează mai multe date decât existau în total pe Internet acum 20 de ani. Circa 90% din datele actuale de pe Internet au fost generate doar în ultimii 2 ani. Dacă adăugăm şi statisticile legate de sporirea volumului de date din telecomunicații – (creștere de circa 1.000 de ori în ultimii 20 de ani - sursa Orange), avem imaginea complexității și efervescenței domeniului.

În România, la începutul acestui an, erau circa 9,6 milioane de utilizatori de Internet, iar estimarea numărului site-urilor este îngreunată şi de diversitatea domeniilor (.ro, .com, .org, .edu, .eu etc.).

Iar Big Data nu înseamnă doar Internet, ci și miliarde de date acumulate în baze de date proprii (să ne imaginăm doar volumul de informații acumulat de NASA).

Cum stăvilim un tsunami informațional?

Problema nu mai este cum să obținem informațiile de care avem nevoie, ci cum să scăpăm de informațiile de care nu avem nevoie. În condiţiile în care multe date pe Internet nu pot fi datate ori certificate, sunt anonime și/sau false, tot mai puțin va conta culegerea, ci căutarea din oceanul de date și informații a celor autentice, corecte și relevante.

Simultan, asistăm şi la o deplasare a relevanței sau impactului. Facebook și Twitter devin actori non-statali relevanți pe scena internațională, influențând opinii și determinând acțiuni (primăvara arabă, „revoluția twitter“ din R. Moldova). Bloggerii par să devină noii jurnaliști și formatori de opinie, iar Internetul tinde să înlocuiască mass-media clasice. Peste toate aceste realităţi ale globalizării se suprapune nevoia de decizii în timp real, care presupune capabilități tot mai mari de analiză.



Parerea ta conteaza:

(0/5, 0 voturi)

Lasa un comentariu



trimite