3 liens privés
Après avoir résolu le problème d'espace :
curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d {"index.blocks.read_only_allow_delete": null}'
Et kibana peut à nouveau sauvegarder ses settings
Delete index with special characters :
%% : escape character for elasticsearch
{ : escape character for unix shell
curl -XDELETE 'localhost:9200/log_%%{typeindex}_2015.12.24?pretty'
" .... 'aaa' ..." : escape ' character
curl -XDELETE "localhost:9200/log_%%{fields['type']}_2015.12.24?pretty"
List all indexes :
curl 'localhost:9200/_cat/indices?v' | grep %
Installation d'un plugin dans un docker sans internet
bin/plugin -u file:///your/zip/file/path -i mobz/elasticsearch-head
C’est pour cette raison que des distributions telles qu’Hortonworks se sont enrichies avec de nombreux autres projets comme HBase, Solr, Storm. Pour comprendre Hadoop il faut s’intéresser aux patterns d’utilisation et d’accès de la donnée. De quoi avons nous besoin?
Faire des scans complets de ma donnée pour calculer des agrégations, des indicateurs → Map Reduce, Hive, Pig
Stocker de grandes quantités de données dans un format permettant de requêter un objet spécifique instantanément → Hbase
Traiter des données en flux avec des latences minimes et de grand volumes→ Storm
Analyser ou indexer des documents texte → Solr, ElasticSearch
Entraîner des modèles prédictifs par apprentissage → Mahout, H20