Pré-requis : Avoir des connaissances pratiques de la plateforme Microsoft Windows. Des notions de programmation sont utiles sans toutefois être obligatoires
Objectifs : - Intégrer les compostants Big Data pour créer un Data Lake approprié - Sélectionner des entrepôts de Big Data adaptés pour gérer plusieurs ensembles de données - Traiter des ensembles de données volumineux avec Hadoop pour faciliter la prise de décisions techniques et métier - Interroger des ensembles de données volumineux en temps réel
Sanction : Attestation de fin de formation mentionnant le résultat des acquis
Taux de retour à l’emploi : Aucune donnée disponible
Référence : BAS100301-F
Accessibilité : Si vous êtes en situation de handicap, nous sommes en mesure de vous accueillir, n'hésitez pas à nous contacter à referenthandicap@dawan.fr, nous étudierons ensemble vos besoins
Contact : commercial@dawan.fr
2 070,00 CHF HT
Les quatre dimensions du Big Data : volume, vélocité, variété, véracité Présentation de l'ensemble MapReduce, stockage et requêtes
Mesurer l'importance du Big Data au sein d'une entreprise
Réussir à extraire des données utiles
Intégrer le Big Data aux données traditionnelles
Sélectionner les sources de données à analyser
Supprimer les doublons
Définir le rôle de NoSQL
Modèles de données : valeur clé, graphique, document, famille de colonnes Système de fichiers distribué Hadoop (HDFS)
HBase
Hive
Cassandra
Hypertable
Amazon S3
BigTable
DynamoDB
MongoDB
Redis
Riak
Neo4J
Choisir un entrepôt de données en fonction des caractéristiques de vos données
Injecter du code dans les données, mettre en œuvre des solutions de stockage des données multilingues
Choisir un entrepôt de données capable de s'aligner avec les objectifs de l'entreprise
Mapper les données avec le framework de
programmation, se connecter aux données et les extraire de l'entrepôt de
stockage, transformer les données à traiter
Fractionner les données pour Hadoop MapReduce
Créer les composants des tâches Hadoop MapReduce
Distribuer le traitement des données entre plusieurs fermes de serveurs, exécuter les tâches Hadoop MapReduce
Surveiller l'avancement des flux de tâches
Identifier les démons Hadoop
Examiner le système de fichiers distribué Hadoop (HDFS)
Choisir le mode d'exécution : local, pseudo-distribué, entièrement distribué
Comparer des modèles de traitement en temps réel
Exploiter Storm pour extraire des événements en direct
Traitement rapide avec Spark et Shark
Communiquer avec Hadoop en Pig Latin
Exécuter des commandes avec le shell Grunt
Rationaliser les traitements de haut niveau
Assurer la persistance des données dans le Hive MegaStore
Lancer des requêtes avec HiveQL
Examiner le format des fichiers Hive
Analyser les données avec Mahout, utiliser des outils de génération d'états pour afficher le résultat du traitement
Interroger en temps réel avec Impala
Définir les besoins en matière de Big Data
Atteindre les objectifs grâce à la pertinence des données
Évaluer les différents outils du marché dédiés au Big Data
Répondre aux attentes du personnel de l'entreprise
Identifier l'importance des traitements métier
Cerner le problème
Choisir les bons outils
Obtenir des résultats exploitables
Bien choisir les fournisseurs et options d'hébergement
Trouver le juste équilibre entre les coûts engendrés et la valeur apportée à l'entreprise
Garder une longueur d'avance
Pour suivre une session à distance depuis l'un de nos centres, contactez-nous.
Lieu | Date | Remisé | Actions |
---|---|---|---|
Distance | Du 10/03/2025 au 12/03/2025 | S'inscrire | |
Distance | Du 30/06/2025 au 02/07/2025 | S'inscrire | |
Distance | Du 29/09/2025 au 01/10/2025 | S'inscrire | |
Genève | Du 13/01/2025 au 15/01/2025 | S'inscrire | |
Genève | Du 07/04/2025 au 09/04/2025 | S'inscrire | |
Genève | Du 15/07/2025 au 17/07/2025 | S'inscrire | |
Genève | Du 20/10/2025 au 22/10/2025 | S'inscrire |