Navigation Menu+

Apache Hadoop : un framework open source

L’Apache Hadoop est un framework open source facilitant le stockage et le traitement de grands ensembles de données sur du matériel standard. C’est grâce à cet outil si une entreprise arrive à assurer l’exploitation rapide des informations à l’issue des grandes quantités de données. À noter que de nombreux projets Apache Software Foundation incluent les services utiles à l’usage de l’Apache Hadoop. Chaque projet va généralement de pair avec une fonctionnalité bien précise.

Apache Hadoop et ses caractéristiques

Le système de fichiers Apache Hadoop peut aller de pair avec de nombreux types de matériels standards à un coût raisonnable. Utilisé auprès d’une entreprise, Hadoop requiert généralement l’installation d’Apache YARN. C’est cet outil qui assure la gestion des ressources ainsi que de l’architecture afin de pouvoir mettre en œuvre un large choix de méthodes d’accès aux données. L’objectif est de pouvoir assurer l’exploitation des données stockées dans Hadoop tout en profitant d’une qualité de service. À noter qu’Apache Hadoop YARN fait partie du projet Hadoop. Il s’agit, en effet, d’un nouveau framework, dont le principal rôle s’avère de booster les fonctionnalités de MapReduce en matière de traitement des données Hadoop. À l’Apache Hadoop YARN s’ajoute également le système de fichiers HDFS qui facilite le stockage des données, de façon fiable et évolutive à la fois.

De multiples modes d’interactions avec ce logiciel

Avec Apache Hadoop, il est possible de jouer sur différents modes d’interactions. Avec YARN, de nombreux systèmes, pour ne citer qu’Apache Fig, Apache HBase et Apache Accumulo, permettent d’exploiter en toute facilité des données et ressources. Mais, ce logiciel peut aussi s’unir avec des nouvelles méthodes d’accès au grand volume de données, notamment Apache Solr. Par ailleurs, Apache Hadoop peut fonctionner avec d’autres systèmes tels que HCatalog, Apache Hive, Kafka, Mahout, Pig, Slider, Spark, Storm, Apache Tez et MapReduce.