Le troisième article sur Apache Hadoop est enfin disponible et s'intéresse d'une part à l'installation et la configuration d'un cluster Apache Hadoop multinœud et d'autre part à l'exécution d'un job MapReduce dans ce même cluster. Afin de montrer l'avantage de l'architecture matérielle que supporte Apache Hadoop, nous avons comparé l'exécution d'un job MapReduce avec celle d'un simple programme Java en insistant sur l'évolution :
La distribution CDH 5 fournie par la société Cloudera a été utilisée pour les expérimentations.
- du nombre de nœuds pour Apache Hadoop
- du nombre de cœurs CPU pour le programme Java.
La distribution CDH 5 fournie par la société Cloudera a été utilisée pour les expérimentations.
Le lien est le suivant : http://mbaron.developpez.com/tutoriels/bigdata/hadoop/installation-monitoring-performance-multinoeud-avec-cloudera-cdh5/
En espérant que l'article vous plaira.
Aucun commentaire:
Enregistrer un commentaire