Shows the icon for the burger menu.
Hier finden Sie uns!
Augustinusstraße 11B
50226 Frechen
LinkedinInstagramFacebookX

Databricks Foundation

3 Tage Databricks pur: Praxisnahes Training zu Data Pipelines, Governance, Medaillon-Architektur & Analytics – ideal für DataOps, Data Engineering und Reporting auf AWS oder Azure.

Auf einen Blick

  • Shows a small check icon.

    Länge

    3 Tage

  • Shows a small check icon.

    Datum

    Auf Anfrage

  • Shows a small check icon.

    Ort

    Remote, bei uns in Köln oder bei Ihnen (auf Anfrage)

  • Shows a small check icon.

    Level

    Beginner

  • Shows a small check icon.

    Preis

    1.800,00 € p. P. zzgl. MwSt.

Lernziele

Ziel der Schulung ist es, DataOps Engineers, Data Engineers und Data Analysts eine robuste Grundlage für den professionellen Einsatz mit Databricks zu vermitteln. Der Fokus liegt auf den zentralen Bausteinen des Lakehouse-Ansatzes, der datengetriebenen Arbeit über alle Verarbeitungsstufen hinweg und dem Aufbau praxiserprobter Data Pipelines.

Die Schulung behandelt Architektur, Governance, Ingestion, Transformation und Analytics auf AWS oder Azure, jedoch ohne Data-Science- oder Machine-Learning-Schwerpunkt – hierfür existiert eine separate Schulung.

Benefits, Zielgruppe & Voraussetzungen

Shows an arrow.Shows an arrow.
01

Benefits

- Sicherer, praxisorientierter Einstieg in Databricks

- Klares Architekturverständnis

- Fundierte Apache Spark- und Data Pipeline-Grundlagen

02

Zielgruppe

Die Schulung richtet sich an DataOps Engineers, Data Engineers und Data Analysts, die einen systematischen und praxisnahen Einstieg in Databricks benötigen. Sie eignet sich besonders für Teams, die Datenplattformen auf AWS oder Azure aufbauen, betreiben oder optimieren möchten.

03

Nötige Vorerfahrung

Teilnehmende sollten grundlegende Kenntnisse in Python und SQL besitzen und sicher mit Git arbeiten können. Ein Basisverständnis von DevOps-Konzepten (z. B. CI/CD, Deployment Pipelines, Automatisierung) sowie Erfahrungen mit AWS oder Azure ist hilfreich, aber nicht zwingend erforderlich.

Agenda

Tag 1: Theorie und Grundarchitektur – Lakehouse Platform & Data Governance
Teil 1: Theorie, Grundlagen und Einordnung

- Rolle von DataOps, Data Engineering und Data Analytics in modernen Datenökosystemen
- Überblick Databricks Lakehouse: zentrale Konzepte, Architektur und Workflow
- Aufbau einer Medaillon-Architektur (Bronze → Silber → Gold)
- Einordnung von Data Mesh, Data Products und Data Fabric
- Spark-Grundlagen: Cluster, Runtimes, Execution Model
- Delta Lake: ACID, Versionierung, Time Travel, Performance-Optimierung

Teil 2: Grundarchitektur – Lakehouse Plattform & Data Governance

- Databricks Workspaces, Cluster-Typen (Classic Compute vs. Serverless), SQL Warehouses
- Unity Catalog: Data Governance, Berechtigungen, Data Lineage, Data Discovery
- Databricks One: Integration von Databricks AI/BI Dashboards und Databricks Genie
- Cloud-Integration (AWS / Azure): Landing Zones, Networking, Storage-Anbindung
- Sicherheitsmodelle: Rollen, Berechtigungen, Secrets, Verschlüsselung
Tag 2: Ingestion & Intergration, Transformation & Pipelines
Teil 3: Daten kommen an – Ingestion & Integration

- Anbindung von Datenquellen: Datenbanken, Cloud-Storages, APIs, Streaming
- Ingestion-Strategien: Batch, Streaming, Auto Loader, Partner Connect
- Aufbau von Landing Zones für strukturierte & unstrukturierte Daten (z. B. SAP / Non-SAP)
- Best Practices zur zuverlässigen Datenübernahme (DataOps-Ansätze)

Teil 4: Daten werden verarbeitet – Transformation & Pipelines

- Arbeiten mit Notebooks (Python, SQL, Spark)
- Aufbau von ETL/ELT-Pipelines mit Spark, Delta Live Tables und Jobs
- DataOps-Prinzipien: CI/CD, Git-Integration, Reproduzierbarkeit
- Optimierung von Pipelines und Clustern
Tag 3: Data Products & Sharing, Analytics & Reporting
Teil 5: Bereitstellung der Daten – Data Products & Sharing

- Umsetzung der Medaillon-Stufen (Bronze → Silber → Gold)
- Aufbau produktionsreifer Data Products
- Delta Sharing: interne und externe Datenbereitstellung
- Data Governance mit dem Databricks Unity Catalog
- Databricks Asset Bundles: strukturierte Blueprints für Data Products & Use Cases

Teil 6: Auswertung der Daten – Analytics & Reporting

- Analytische Abfragen mit Databricks SQL
- Erstellung von Databricks AI/BI Dashboards und Reports
- Integration von BI-Tools (am Beispiel von Power BI)
- Skalierungsstrategien für Analyse-Workloads
- Typische Use Cases: Standarding Reporting, Self-Service BI und Ad-hoc-Analysen

Unsere Trainer

Unsere Trainer verfügen über fundierte Fachkenntnisse und umfangreiche Praxiserfahrung im Einsatz von Databricks. Sie arbeiten regelmäßig in realen Projekten und vermitteln komplexe Themen klar und praxisnah. Lernen Sie uns kennen:

  • Niklas Arft

    null

    Niklas bringt langjährige Erfahrung in Entwicklung, Architektur und Betrieb moderner Cloud- und Datenplattformen mit. Er leitet Teams, entwickelt Architekturen sowie Big-Picture-Konzepte, und vermittelt diese verständlich bis auf C-Level. Sein hoher Qualitäts- und Nutzungsanspruch prägt sowohl Projekte und Trainings. Als ausgebildeter Ausbilder bereitet er komplexe Inhalte strukturiert und mit hohem Praxisbezug auf.

    • Shows Linkedin icon in white.
    • Shows Github icon in white.
    null
  • Manbir Singh Pawar

    null

    Mani ist ein erfahrener Data Engineer mit Schwerpunkt auf Azure und Databricks. Er optimiert Spark-basierte Datenpipelines, entwickelt robuste ETL/ELT-Workflows und bringt dafür Projekterfahrung sowie Databricks-Zertifizierungen mit. Dank seiner Full-Stack-Expertise versteht er Datenarchitekturen ganzheitlich und vermittelt technische Konzepte präzise. Die Kombination aus Hands-On-Projektarbeit und kontinuierlicher Trainingspraxis sorgt dafür, dass er komplexe Inhalte praktisch vermitteln kann.

    • Shows Linkedin icon in white.
    • Shows Github icon in white.
    null

IT-Schulung anfragen:

Wir freuen uns auf Ihre Nachricht.

Wir dürfen Sie mit unserer Begeisterung für Databricks anstecken? Schreiben Sie uns eine kurze Nachricht und wir freuen uns darauf, Sie in unserem Training kennen zu lernen.