Acasă Baze de date Ce este sistemul de fișiere distribuit de hadoop (hdfs)? - definiție din techopedia

Ce este sistemul de fișiere distribuit de hadoop (hdfs)? - definiție din techopedia

Cuprins:

Anonim

Definiție - Ce înseamnă sistemul de fișiere distribuit Hadoop (HDFS)?

Sistemul de fișiere distribuit Hadoop (HDFS) este un sistem de fișiere distribuit care rulează pe hardware standard sau low-end. Dezvoltat de Apache Hadoop, HDFS funcționează ca un sistem de fișiere distribuit standard, dar oferă o mai bună transfer de date și acces prin algoritmul MapReduce, toleranță ridicată la erori și asistență nativă a seturilor de date mari.

Techopedia explică sistemul de fișiere distribuite Hadoop (HDFS)

HDFS stochează o cantitate mare de date plasate pe mai multe mașini, de obicei în sute și mii de noduri conectate simultan și oferă fiabilitatea datelor prin reproducerea fiecărei instanțe de date ca trei copii diferite - două într-un grup și una în alta. Aceste copii pot fi înlocuite în caz de eșec.

Arhitectura HDFS constă din clustere, fiecare dintre ele fiind accesat printr-un singur instrument software NameNode instalat pe o mașină separată pentru a monitoriza și gestiona sistemul de fișiere al acelui cluster și mecanismul de acces al utilizatorului. Celelalte aparate instalează o instanță a DataNode pentru a gestiona stocarea clusterului.

Deoarece HDFS este scris în Java, are suport nativ pentru interfețele de programare a aplicațiilor Java (API) pentru integrarea și accesibilitatea aplicațiilor. De asemenea, poate fi accesat prin intermediul browserelor web standard.

Ce este sistemul de fișiere distribuit de hadoop (hdfs)? - definiție din techopedia