Pré-requis : Expérience avec les bases de données relationnelles et non relationnelles et connaissances des fondamentaux du cloud computing
Objectifs : Maîtriser l'installation, la configuration et la gestion des solutions de stockage de données sur Azure, incluant Cosmos DB, Data Lake Storage Gen2 et Azure Blob Storage - Développer des compétences avancées en traitement de données par lots et en temps réel en utilisant Azure Data Factory et Azure Databricks - Implémenter des mesures de sécurité robustes pour protéger les données, incluant le cryptage, le masquage des données et la configuration des points de terminaison sécurisés - Concevoir et optimiser des solutions de données pour garantir des performances élevées et une haute disponibilité, incluant la surveillance et la résolution des goulots d'étranglement - Préparer efficacement les participants aux examens de certification Microsoft Azure Data Engineer Associate en couvrant les compétences et connaissances évaluées.
Sanction : Attestation de fin de formation mentionnant le résultat des acquis
Taux de retour à l’emploi : Aucune donnée disponible
Référence : CLO102220-F
Code RS : RS5307
Taux de satisfaction : 4,80 / 5
Accessibilité : Si vous êtes en situation de handicap, nous sommes en mesure de vous accueillir, n'hésitez pas à nous contacter à referenthandicap@dawan.fr, nous étudierons ensemble vos besoins
Contact : commercial@dawan.fr
3 750,00 CHF HT
Installer une solution qui utilise Cosmos DB, Data Lake Storage Gen2 ou le stockage Blob
Mettre en œuvre la distribution de données et les partitions
Définir un modèle de cohérence dans Cosmos DB
Atelier pratique : Implémentation des modèles de cohérence dans Cosmos DB.
Provisionner un entrepôt de données non relationnelles
Fournir un accès aux données pour répondre aux exigences de sécurité
Atelier pratique : Configuration des accès sécurisés aux données.
Mettre en œuvre la haute disponibilité, la reprise après sinistre et la distribution mondiale
Atelier pratique : Configuration de la haute disponibilité et de la reprise après sinistre.
Développer des solutions de traitement par lots
Ingérer des données à l'aide de PolyBase
Créer des services et des ensembles de données liés
Créer et planifier des déclencheurs
Mettre en œuvre des clusters, des blocs-notes, des travaux et une mise à l'échelle automatique dans Azure Databricks
Atelier pratique : Gestion des clusters et mise à l'échelle automatique dans Azure Databricks.
Surveiller les sources de données relationnelles et non relationnelles
Mettre en place la surveillance des outils de stockage
Configurer les alertes Azure Monitor
Optimiser les solutions de données Azure
Atelier pratique : Optimisation des performances des solutions de données
Choisir la bonne solution de stockage de données
Conception de la distribution des données et des partitions
Anticiper et paramétrer la haute disponibilité et la reprise après sinistre
Atelier pratique : Planification de la haute disponibilité et des stratégies de reprise après sinistre.
Concevoir des solutions de traitement par lots
Identifier la méthode optimale d'ingestion de données
Concevoir des solutions de traitement en temps réel
Atelier pratique : Implémentation du traitement en temps réel avec Stream Analytics et Azure Databricks.
Définir les moyens de sécurité pour accéder aux données
Concevoir le cryptage des données
Définir le cadre de l'audit des données et le masquage des données
Concevoir une politique de conservation et d'archivage des données
Atelier pratique : Définition des politiques de conservation et d'archivage des données.
Pour suivre une session à distance depuis l'un de nos centres, contactez-nous.
Aucune date de programmée actuellement. Pour plus d'information sur les prochaines sessions, nous vous invitons à joindre le service commercial par téléphone au 22 519 09 66 (prix d'un appel local) ou depuis notre formulaire de contact.