Azure - DP-200T01 - Implementing an Azure Data Solution

Standort:

Termin:

1.690,00 € *

zzgl. MwSt.

Preis inkl. gesetzlicher MwSt.: 2.011,10 €
DP-200T01 - Implementing an Azure Data Solution In diesem Kurs implementieren die Teilnehmer... mehr

DP-200T01 - Implementing an Azure Data Solution

In diesem Kurs implementieren die Teilnehmer verschiedene Datenplattformtechnologien in Lösungen , die den geschäftlichen und technischen Anforderungen entsprechen, einschließlich On-Premises-, Cloud- und hybride Datenszenarien, die sowohl relationale als auch NoSQL-Daten beinhalten. Sie lernen außerdem, wie Daten mit einer Reihe von Technolofien und Sprachen für Streaming und Batch daten verarbeitet werden.

Die Teilnehmer erkunden die Implementation von Datensicherheit, dazu gehört die Autentifizierung, Autorisation, Datenrichtlinien und Standards. Außerdem definieren und implementieren sie Datenlösungen die Datenspeicher und Datenverarbeitung überwachen. Zum Schluss erledigen Sie die Verwaltung und Fehlerbehebung von Azure-Datenlösungen inklusive der Optimierung und Disaster Recovery von großen Daten, Batchverarbeitung und Streaming Datenlösungen.

Diese Schulung kann auch zur Vorbereitung auf die Prüfung "DP-200: Implementing an Azure Data Solution" zur Zertifizierung als "Microsoft Certified: Azure Data Engineer Associate" besucht werden.

Bitte beachten Sie das für die Zertifizierung zum "Microsoft Certified: Azure Data Engineer Associate" ein weitere Prüfung (DP-201: Designing an Azure Data Solution) nötig ist.

Wir bieten auch eine Komplettausbildung zur Vorbereitung auf die Prüfungen DP-200 und DP-201 an.

Prüfungsgebühren sind nicht im Kurspreis inklusive.

Hinweis: Der Kurs wird in deutscher Sprache gehalten, die MOC Unterlagen sind nur in englischer Sprache verfügbar.

Dieses Seminar führen wir in Kooperation mit der cmt Computer- & Management Trainings GmbH mit zertifizierten Trainern durch.

Inhalt

Modul 1: Azure für den Data Engineer
In diesem Modul wird die Entwicklungen in der Welt der Daten untersucht und wie die Technologien der Cloud-Datenplattformen den Unternehmen neue Möglichkeiten bieten, ihre Daten auf unterschiedliche Weise zu erkunden Die Teilnehmer erhalten einen Überblick über die verschiedenen verfügbaren Datenplattformtechnologien und wie sich die Rolle und die Verantwortlichkeiten eines Datentechnikers entwickelt haben, um in dieser neuen Welt zum Nutzen einer Organisation zu arbeiten.
Lektionen:
- fortschreitende Datenwelt erklären
- Services in der Azure Datenplattform untersuchen
- Aufgaben die von Datentechniker ausgeführt werden identifizieren
- Die Nutzungsfälle für die Cloud in einer Fallstudie beschreiben

Modul 2: Mit Datenspeicher arbeiten
Dieses Modul lehrt eine Vielzahl an Datenspeichermöglichkeiten in Azure. Die Teilnehmer lernen die Grundlagen der Speicherverwaltung in Azure, das Anlegen eines Storage-Accounts und die Auswahl des richtigen Modells für die Daten, die in der Cloud gespeichert werden sollen. Sie werden auch verstehen, wie Data Lake-Speicher erstellt werden können, um eine Vielzahl von großen Datenanalyselösungen mit minimalem Aufwand zu unterstützen.
Lektionen:
- Datenspeicheransatz in Azure auswählen
- Erstellen und Konfigurieren von Speicherkonten
- Azure Data Lake Analytics erklären
- Daten in Azure Data Lake speichern

Modul 3: Enabling Team Based Data Science with Azure Databricks
Dieses Modul stellt die Azure-databricks vor und erklärt wie ein Datentechniker mit ihnen arbeitet, um es der Organisaiton zu ermöglichen, Team Data Science Projekte durchzuführen. Die Teilnehmer lernen die Grundlagen von Azure-databricks kennen und von apache Spark Notebooks; wie der Dienst und der Arbeitsplatz bereitgestellt wir; und wie Datenvorbereitungsaufgaben die zum Data Science Projekt gehören ausgeführt werden.
Lektionen:
- Azure-Databricks erklären
- mit Azure-databricks arbeiten
- Einlesen von Daten in Azure Databricks
- Transformationen mit Azure-databricks durchführen

Modul 4: Building Globally Distributed Databases with Cosmos DB
In diesem Modul lernen die Teilnehmer, mit NoSQl Daten mithilfe von Azure Cosmos DB zu arbeiten Sie lernen, wie der Service bereitgestellt wird, wie sie Daten in den Service via Visual Studio Code Erweiterungen laden lännen und den Azure Cosmos DB NET Core SDK. Außerdem lernen sie wie Verfügbarkeitsoptionen konfiguriert werden, so dass Nutzer weltweit auf die Daten zugreifen könen.
Lektionen:
- Azure Cosmos DB Datenbank built to scale erstellen
- Daten in die Azure Cosmos DB Datenbank einfügen
- NET Coreapp für Cosmos DB in Visual Studio Code bauen
- Daten weltweit mit Azure Cosmos DB verteilen

Modul 5: Working with Relational Data Stores in the Cloud
In diesem Modul werden die Teilnehmer die Optionen der relationalen Datenplattform Azure, einschließlich der SQL-Datenbank und des SQL Data Warehouse, erforschen. Die Teilnehmer können danach erklären, warum sie eine Dienstleistung einer anderen vorziehen würden und wie sie jede der Dienstleistungen bereitstellen, verbinden und verwalten können.
Lektionen:
- Azure SQL-Datenbank verwenden
- Implementierung einer SQL-Datenbank
- Ein Azure SQL Data Warehouse entwerfen und implementieren
- PolyBase Nutzen um Daten nach Azure SQL Data Warehouse zu laden

Modul 6: Performing Real-Time Analytics with Stream Analytics
In diesem Modul lernen die Teilnehmer die Konzepte der Ereignisverarbeitung und Datenstreaming kennen und wie dies auf Event Hubs und Azure-stream-analytics zutrifft. Die Teilnehmer richten dann einen Stream Analytics Job ein, um Daten zu streamen und lernen, wie man die eingehenden Daten abfragt, um die Analyse der Daten durchzuführen. Zum Schluss lernen sie, wie laufende Jobs verwaltet und überwacht werden
Lektionen:
- Datenströme un Ereignisverarbeitung erklären
- Datenaufnahme mit Event Hubs
- Datenverarbeitung mit Stream Analytics Jobs

Modul 7: Orchestrating Data Movement with Azure Data Factory
In diesem Modul lernen die Teilnehmer, wie Azure Data Factory verwendet werden kann um Datenbewegungen und Transformationen aus einer reihe von Data Platform Technologien gelenkt werden können. Sie werden die Möglichkeiten der Technologie erklären können und eine End-to-End Datenpipeline aufbauen können, die Daten aufnimmt und transformiert.
Lektionen:
- erklären, wie Data Factory funktioniert
- Azure Data Factory Komponenten
- Azure Data Factory und Databricks

Modul 8: Securing Azure Data Platforms
In diesem Modul lernen die Teilnehmer, wie Azure mehrschichtige Sicherheitsmodelle für den Datenschutz einsetzt. Die Teilnehme untersuchen, wie Sicherheit von der Einrichtung sicherer Netzwerke und Zugangsschlüssel über die Definition von Berechtigungen bis hin zur Überwachung über eine Reihe von Datenspeichern reichen kann.
Lektionen:
- Einführung in die Sicherheit
- Sicherheits-Schlüsselkomponenten
- Speicherkonten und Data Lake Storage sichern
- Datenspeicher sichern
- Streamingdaten sichern

Modul 9: Monitoring and Troubleshooting Data Storage and Processing
In diesem Modul erhalten die Teilnehmer einen Überblick über die Bandbreite der Überwachungsmöglichkeiten, die zur Unterstützung des Betriebs zur Verfügung stehen, falls es Probleme mit einer Datenplattformarchitektur gibt. Sie untersuchen übliche Datenspeicher und Datenverarbeitungsprobleme. Disaster Recoveryoptionen werden zum Schluss gezeigt um die Geschäftskontinuität zu gewährleisten.
Lektionen:
- verfügbare Überwachungsmöglichkeiten erklären
- Geöhnliche Datenspeicherprobleme beheben
- gewöhnliche Datenverarbeitungsprobleme beheben
- Verwalten Notfallwiederherstellung

Voraussetzungen

Besuch des Kurses AZ-900T00 - Microsoft Azure Fundamentals oder vergleichbare Kenntnisse aus der Praxis.

Zielgruppe

Die primäre Zielgruppe für diesen Kurs sind Datenexperten, Datenarchitekten und Business Intelligence-Experten, die sich über die Datenplattformtechnologien, die auf Microsoft Azure existieren, informieren möchten. Die sekundäre Zielgruppe für diesen Kurs sind Personen, die Anwendungen entwickeln, die Inhalte aus den Datenplattformtechnologien, die auf Microsoft Azure existieren, bereitstellen.

Zielsetzung

Siehe Inhalte.

Zuletzt angesehen