690 shaares
3 liens privés
3 liens privés
C’est pour cette raison que des distributions telles qu’Hortonworks se sont enrichies avec de nombreux autres projets comme HBase, Solr, Storm. Pour comprendre Hadoop il faut s’intéresser aux patterns d’utilisation et d’accès de la donnée. De quoi avons nous besoin?
Faire des scans complets de ma donnée pour calculer des agrégations, des indicateurs → Map Reduce, Hive, Pig
Stocker de grandes quantités de données dans un format permettant de requêter un objet spécifique instantanément → Hbase
Traiter des données en flux avec des latences minimes et de grand volumes→ Storm
Analyser ou indexer des documents texte → Solr, ElasticSearch
Entraîner des modèles prédictifs par apprentissage → Mahout, H20