Formation Hadoop : Deploiement + Administration

icon public

Public : Tous

icon horloge

Durée : 5 jour(s)

Syllabus de la formation Hadoop : Deploiement + Administration

Pré-requis : Connaissances en administration système, préférablement Java

Objectifs : Comprendre le Big Data et ses enjeux - Savoir déployer Hadoop et son écosystème - Comprendre HDFS, MapReduce - Structurer les données avec HBase - Ecrire des requêtes avec HiveQL - Installer les services d'un nœud Hadoop - Assembler plusieurs nœuds Hadoop - Déployer une nouvelle application sur un cluster existant - Effectuer une restauration de données suite à une reprise sur incident

Sanction : Attestation de fin de formation mentionnant le résultat des acquis

Taux de retour à l’emploi : Aucune donnée disponible

Référence : BUS101732-F

Accessibilité : Si vous êtes en situation de handicap, nous sommes en mesure de vous accueillir, n'hésitez pas à nous contacter à referenthandicap@dawan.fr, nous étudierons ensemble vos besoins

Contact : commercial@dawan.fr

À partir de

1 075,00 CHF HT / jour

3 100,00 CHFHT

1 535,71 CHF HT

Pour 10 heures utilisables pendant 12 mois

3 875,00 CHF HT

Tarif plein:

  • Paiement à 60 jours
  • Report possible à J-3
  • 3 tickets d'assistance
Contacter Dawan

Programme de Formation Hadoop : Deploiement + Administration

Introduction au Big Data

Qu'est-ce que le Big Data ?
Source des données : l'homme, la machine
La problématique de taille
Position de Hadoop dans le paysage

Introduction à Hadoop

L'origine du projet
Le système de fichiers HDFS
Comprendre l'algorithme MapReduce
L'environnement d'Hadoop : HBase, ZooKeeper, Hive, Pig…
L'API YARN

Mettre Hadoop en place : HDFS

Du mode autonome au mode complètement distribué en cluster
Pré-requis, distributions Hadoop
Cluster Hadoop : NameNode, ResourceManager, DataNode, NodeManager
Les fichiers de configuration
Opérations de base sur le cluster HDFS : formatage, démarrage, arrêt

Atelier pratique : installer Hadoop sur 2 nœuds, formater et manipuler HDFS

Travailler avec MapReduce

L'intérêt de MapReduce
Mappers, reducers, parallélisme et indépendance des traitements
Entrées, sorties
Soumission d'un job à Hadoop

Atelier pratique : exécuter une tâche via MapReduce, avec sortie dans HDFS

Une base de données distribuée : HBase

L'accès aléatoire, temps réel, lecture-écriture au Big Data
Fonctionnalités de HBase, NoSQL
Pré-requis, configuration
Manipulation via le shell HBase

Atelier pratique : mettre en place HBase sur Hadoop, créer et manipuler une table

Et pourquoi pas un peu de SQL avec Hive ?

Présentation de Hive
Gérer le schéma : bases, tables, vues, partitions
Manipulation des données, requêtes et map-reduce avec HiveQL
Audits et journal d'erreurs

Atelier pratique : chargement de données massives dans Hive, requêtes

Aller plus loin avec Hadoop

Gérer les logs et l'audit de tâches Hadoop
Découvrir MRUnit pour les test unitaires dans Hadoop
Débogage en local
Surveillance des perfomances

Atelier pratique : mise en place d'un job MapReduce plus complexe avec traces et tests unitaires

Administration de Hadoop

Présentation d’un nœud existant
Organisation des services et étude du séquencement avec YARN

Atelier : modifier la taille des blocs HDFS pour diminuer le nombre de Map/Reduce

Mettre Hadoop en place

Relation entre la plateforme installée et les framework de développement
Proposer de frameworks indépendants pour assurer la compatibilité : Spring Data

Atelier : déployer une application d’accès à HBase au travers d’un mapping O/R Spring Data

Travailler avec MapReduce

Déployer un programme Map/Reduce sur un cluster de nœuds Hadoop
Recherche des logs
Remonter les anomalies aux développeurs
Proposer l’usage de file Kafka

Atelier : utilisation de file d’entrée sortie pour un programme Map/Reduce

Routage de données

Définition de routes logicielles
Mettre en place un cas de calcul où les données déclenchent les programmes

Atelier : faire un routage de données depuis un répertoire HDFS vers une file Kafka qui est l’entrée d’un programme Map/Reduce

Utilisation des vues

Utilisation des vues Ambari
Visualisation de l’état des nœuds d’un cluster
Importer/exporter des fichiers de configuration

Atelier : relancer une grappe de services, utilisation des vues YARN et Tez

Gestion des droits

Gestion des comptes utilisateurs
Gestion des droits de fichier sur un système de fichier distribué
Utilisation de certificat

Atelier : configurer les services Knox et Ranger

Pour suivre une session à distance depuis l'un de nos centres, contactez-nous.

Lieu Date Remisé Actions
Distance Du 03/03/2025 au 07/03/2025 S'inscrire
Distance Du 09/06/2025 au 13/06/2025 S'inscrire
Distance Du 01/09/2025 au 05/09/2025 S'inscrire
Distance Du 24/11/2025 au 28/11/2025 S'inscrire
Genève Du 13/01/2025 au 17/01/2025 S'inscrire
Genève Du 31/03/2025 au 04/04/2025 S'inscrire
Genève Du 04/08/2025 au 08/08/2025 S'inscrire
Genève Du 03/11/2025 au 07/11/2025 S'inscrire

Nos centres de formation

  • Distance

    32 Boulevard Vincent Gâche

    44000 Nantes

  • Genève

    c/o CCI France Suisse Route de Jussy 35 Case postale 6298

    CH-1211 Thônex - Genève