Cuprins:
Definiție - Ce înseamnă Hadoop Common?
Hadoop Common se referă la colecția de utilități și biblioteci comune care acceptă alte module Hadoop. Este o parte sau modul esențial al cadrului Apache Hadoop, împreună cu sistemul de fișiere distribuite Hadoop (HDFS), Hadoop YARN și Hadoop MapReduce. Ca toate celelalte module, Hadoop Common presupune că erorile hardware sunt frecvente și că acestea ar trebui gestionate automat în software de către Hadoop Framework.
Hadoop Common este cunoscut și sub numele de Hadoop Core.