Acasă tendinţe Cum pot mediile de stocare de date existente la scară optimă pentru a răspunde nevoilor analizelor de date mari?

Cum pot mediile de stocare de date existente la scară optimă pentru a răspunde nevoilor analizelor de date mari?

Anonim

Î:

Cum pot mediile de stocare de date existente la scară optimă pentru a răspunde nevoilor analizelor de date mari?

A:

Proiectele individuale ale depozitului de date trebuie evaluate de la caz la caz. În general, în încercarea de a întinde un proiect de depozit de date existent pentru a gestiona mai bine analizele de date mari, există un proces de bază pentru a descoperi ce trebuie făcut. Profesioniștii IT pot numi acest „scalare” sau „eliminarea”.

Webinar: Big Iron, Meet Big Data: Liberating Data Mainframe with Hadoop & Spark

Înregistrează-te aici

În general, extinderea presupune căutarea unei puteri de procesare suficiente, obținerea unei cantități suficiente de memorie și acomodarea activităților serverului mai puternice pentru a gestiona toate seturile de date mai mari pe care le va prelucra afacerea. Dimpotrivă, eliminarea poate însemna colectarea de grupuri de hardware de server și conectarea lor la corral de date mari.

Unii experți IT au sugerat că metoda mai comună cu Apache Hadoop și alte instrumente și platforme populare de date mari este să extindeți și să cluster hardware pentru a obține efectele dorite. Cu toate acestea, alții subliniază că, cu tehnologia actuală, un depozit de date se poate extinde folosind o strategie de achiziții care adaugă resurse la un server, cum ar fi obținerea unui număr mai mare de nuclee de procesare, împreună cu o cantitate mai mare de memorie RAM.

Indiferent dacă cresc sau măresc, depozitele de date au nevoie de elemente fizice suplimentare pentru a putea gestiona volumele de lucru mai mari. De asemenea, au nevoie de administrare umană suplimentară, ceea ce înseamnă mai multă pregătire pentru echipele interne. O multime de planificări trebuie să intre în proiect pentru a determina ce fel de stres și presiune vor avea volumele de lucru mai mari ale datelor asupra unui sistem existent, pentru a-l potrivi pentru un nou ecosistem de date mari. O problemă importantă este blocajele de stocare, care necesită îmbunătățiri la centrele de stocare și alte tipuri de blocaje de performanță care pot încuraja un sistem nou, dacă nu sunt abordate.

Cum pot mediile de stocare de date existente la scară optimă pentru a răspunde nevoilor analizelor de date mari?