Shows the icon for the burger menu.
Hier finden Sie uns!
Augustinusstraße 11B
50226 Frechen
LinkedinInstagramFacebookX

Databricks Advanced

In 2 Tagen zum Experten: Advanced Databricks Schulung für erfahrene Data Engineers, DataOps Engineers und Data Analysts mit Fokus auf Architektur, Governance und Data Pipelines.

Auf einen Blick

  • Shows a small check icon.

    Länge

    2 Tage

  • Shows a small check icon.

    Datum

    Auf Anfrage

  • Shows a small check icon.

    Ort

    Remote, bei uns oder bei Ihnen Vor-Ort (auf Anfrage)

  • Shows a small check icon.

    Level

    Intermediate

  • Shows a small check icon.

    Preis

    1.200,00 € p. P. zzgl. MwSt.

Lernziele

Ziel der Databricks Advanced Schulung ist es, erfahrene DataOps Engineers, Data Engineers und Data Analysts innerhalb von zwei Tagen auf ein Expertenniveau zu bringen. Der Fokus liegt dabei ausschließlich auf DataOps-, Data Engineering- und Analytics-Themen – exkl. Data Science und Machine Learning, hierfür existiert eine separate Schulung.

Benefits, Zielgruppe & Voraussetzungen

Shows an arrow.Shows an arrow.
01

Benefits

- Fundiertes Wissen für den professionellen Einsatz von Databricks
- Performance- und Kostenoptimierung mit Apache Spark
- Erweiterte Governance, Data Quality & Data Sharing

02

Zielgruppe

Die Databricks Advanced Schulung richtet sich an erfahrene DataOps Engineers, Data Engineers und Data Analysts, die bereits aktiv mit Databricks arbeiten. Sie ist besonders geeignet für Teams, die produktive Data Pipelines betreiben, komplexe Datenarchitekturen weiterentwickeln oder Herausforderungen in den Bereichen Governance, Performance, FinOps oder Automatisierung lösen müssen.

03

Nötige Vorerfahrung

Für die Teilnahme sind folgende Kenntnisse erforderlich:

- Fundierte praktische Erfahrung mit Databricks (Notebooks, Delta, ETL/ELT, Workflows)
- Gute Kenntnisse in Apache Spark (Python und SQL)
- Sichere Nutzung von Git und grundlegenden DevOps-Konzepten (z. B. CI/CD, Security, Pipeline-Design)
- Verständnis moderner Datenarchitekturen (Lakehouse, Medaillon, Cloud-Storage)
- Grundlegende Erfahrung mit AWS oder Azure

Diese Schulung richtet sich nicht an Einsteiger und setzt Projekterfahrung im Enterprise-Umfeld voraus.

Agenda

Tag 1: Deep Dive Databricks Plattform & Performance
Teil 1: Advanced Spark & Performance Tuning

- Analyse des Spark Execution Models
- Optimierung von DataFrame- und SQL-Operationen
- Umgang mit Skew, Shuffle, Partitioning, Caching und Z-Order
- Nutzung des Spark UI für Fehleranalyse und Performance-Debugging
- Best Practices für skalierbare ETL/ELT-Pipelines

Teil 2: Cluster Tuning & Ressourceneffizienz

- Vergleich von Cluster-Typen (Classic Compute, Serverless, Jobs-Clusters)
- Cluster Policies, Pools und Optimierungsstrategien
- Auto-Scaling korrekt konfigurieren und Monitoring sinnvoll nutzen
- Kostenkontrolle und FinOps-Praktiken im Umgang mit Databricks Lakehouse Architekturen

Teil 3: Databricks Unity Catalog – Expertenfunktionen

- Erweiterte Governance-Konzepte mit dem Unity Catalog
- Arbeiten mit Metadaten, Data Lineage und Automatisierungsansätzen
- Feingranulare Berechtigungsverwaltung
- Umgang mit Primary Keys und Foreign Keys in Delta-Tables
- Erweiterte Delta-Funktionen: Optimize, Vacuum, Constraints, Expectations
Tag 2: Enterprise Features, Automation & GenAI
Teil 4: Fortgeschrittene DataOps & Automatisierung

- Infrastrukturautomatisierung: Asset Bundles, CI/CD, Git-Workflows
- Abgrenzung: Terraform vs. Databricks Asset Bundles vs. Databricks Python SDK
- Jobs, Workflows und Pipelines für Enterprise DataOps
- Fehleranalyse und Monitoring für produktive Pipelines
- Deployment-Strategien für Data Products

Teil 5: Enterprise Data Management & Data Quality

- Data Quality Patterns (z. B. Funnels, Wrangling-Prozesse) mit Delta Live Tables und Databricks AI/BI Dashboards
- Professioneller Einsatz von Constraints, Checks & Expectations
- Enterprise Metadatenmanagement und Katalogisierung
- Data Labeling im Kontext moderner Governance

Teil 6: GenAI & Databricks Genie

- Optimierung von Tabellen-, Spalten- und Schema-Beschreibungen im Unity Catalog für präzise GenAI-Generierung
- Einsatz klarer Metadaten, damit Genie natürliche Sprache korrekt in SQL und Strukturvorschläge übersetzen kann
- Definition von Relationen, Constraints und Data Contracts zur besseren Orientierung für Genie
- Best Practices für konsistente Dokumentation, um Genies Query- und Code-Assistenz gezielt zu unterstützen

Teil 7: Enterprise Sharing & Collaboration

- Erweiterte Nutzung von Delta Sharing (intern/extern)
- Best Practices für sichere Datenbereitstellungen
- Cross-Workspace-Architekturen und Multi-Cloud-Szenarien

Unsere Trainer

Unsere Trainer verfügen über fundierte Fachkenntnisse und umfangreiche Praxiserfahrung im Einsatz von Databricks. Sie arbeiten regelmäßig in realen Projekten und vermitteln komplexe Themen klar und praxisnah. Lernen Sie uns kennen:

  • Niklas Arft

    null

    Niklas bringt langjährige Erfahrung in Entwicklung, Architektur und Betrieb moderner Cloud- und Datenplattformen mit. Er leitet Teams, entwickelt Architekturen sowie Big-Picture-Konzepte, und vermittelt diese verständlich bis auf C-Level. Sein hoher Qualitäts- und Nutzungsanspruch prägt sowohl Projekte und Trainings. Als ausgebildeter Ausbilder bereitet er komplexe Inhalte strukturiert und mit hohem Praxisbezug auf.

    • Shows Linkedin icon in white.
    • Shows Github icon in white.
    null
  • Manbir Singh Pawar

    null

    Mani ist ein erfahrener Data Engineer mit Schwerpunkt auf Azure und Databricks. Er optimiert Spark-basierte Datenpipelines, entwickelt robuste ETL/ELT-Workflows und bringt dafür Projekterfahrung sowie Databricks-Zertifizierungen mit. Dank seiner Full-Stack-Expertise versteht er Datenarchitekturen ganzheitlich und vermittelt technische Konzepte präzise. Die Kombination aus Hands-On-Projektarbeit und kontinuierlicher Trainingspraxis sorgt dafür, dass er komplexe Inhalte praktisch vermitteln kann.

    • Shows Linkedin icon in white.
    • Shows Github icon in white.
    null

IT-Schulung anfragen:

Wir freuen uns auf Ihre Nachricht.

Wir dürfen Sie mit unserer Begeisterung für Databricks anstecken? Schreiben Sie uns eine kurze Nachricht und wir freuen uns darauf, Sie in unserem Training kennen zu lernen.