Shows the icon for the burger menu.
Hier finden Sie uns!
Augustinusstraße 11B
50226 Frechen
LinkedinInstagramFacebookX

Databricks für Softwareentwickler

Databricks Schulung in Köln, online oder bei Ihnen vor Ort: Praxisnaher Einstieg für Softwareentwickler zu SQL Warehouses, Lakehouse-Daten und App-Entwicklung mit Python, Node.js & Java.

Auf einen Blick

  • Shows a small check icon.

    Länge

    2 Tage

  • Shows a small check icon.

    Datum

    Auf Anfrage

  • Shows a small check icon.

    Ort

    Remote, bei uns in Köln oder bei Ihnen (auf Anfrage)

  • Shows a small check icon.

    Level

    Intermediate

  • Shows a small check icon.

    Preis

    1.200,00 € p. P. zzgl. MwSt.

Lernziele

Ziel der Databricks Schulung ist es, Softwareentwickler einen praxisorientierten Einstieg in Databricks zu geben – mit Fokus darauf, wie Anwendungen direkt auf Daten in Databricks zugreifen können. Dabei stehen Databricks SQL Warehouses, Databricks Lakebase und Copy-Mechanismen in relationale Datenbanken (wie z. B. Azure PostgreSQL/Amazon RDS for PostgreSQL) sowie die Entwicklung von Anwendungen mit Databricks Apps (Python, Node.js und Java) im Vordergrund.

Die Schulung zeigt außerdem, wie Data- und Engineering-Teams effizient auf einer Data Lakehouse-Plattform zusammenarbeiten und dabei auf komplexe Data Ingestion-Prozesse verzichten können.

Benefits, Zielgruppe & Voraussetzungen

Shows an arrow.Shows an arrow.
01

Benefits

- Fundiertes Wissen zur Erweiterung der Medaillon-Architektur für (Web) App-basierte Use Cases

- Strukturierte Zusammenarbeit zwischen Softwareentwicklung, Data Engineering und Data Analytics

- Effiziente Nutzung und Bereitstellung von Datenprodukten für Softwareanwendungen

02

Zielgruppe

Die Databricks Schulung richtet sich an Softwareentwickler, Backend-Engineers, Full-Stack-Entwickler sowie Architekten, die Databricks als Datenfundament für Anwendungen nutzen möchten.

Sie eignet sich für Teams, die Anwendungen über SQL Warehouses, direkte Lakebase-Anbindung oder Copy-Mechanismen entwickeln und eng mit Data-/BI-Teams zusammenarbeiten.

03

Vorerfahrung

- Gute Kenntnisse in Python, Node.js oder Java

- Solides Verständnis von SQL und grundlegenden Datenbankkonzepten

- Grundkenntnisse in Git, CI/CD und moderner Softwareentwicklung

- Erste Cloud-Erfahrungen (AWS oder Azure) sind hilfreich

Databricks-Vorkenntnisse werden nicht vorausgesetzt – die Einführung erfolgt an Tag 1.

Agenda

Tag 1: Grundlagen, Datenbereitstellung & Datenaufbereitung
Teil 1: Databricks Grundlagen für Softwareentwickler

- Überblick Data Lakehouse, Architektur und zentrale Komponenten
- Medaillon-Architektur (Bronze → Silber → Gold) für Softwareentwickler erklärt
- Unity Catalog: Data Governance, Berechtigungen, Data Lineage, Data Discovery
- SQL Warehouses als performante Zugriffsschicht für Anwendungen

Teil 2: Cloud-Spezifika & Plattformintegration (AWS / Azure)

- Unterschiede im Deployment von Databricks
- Identity, Connectivity und Security: Tokens, OAuth, Managed Identity
- Zugriff aus Anwendungen (JDBC/ODBC, REST, SDKs)
- Secrets, Networking, Storage und Private Links

Teil 3: Datenbereitstellung für Anwendungen

- Bereitstellung produktionsreifer Daten über SQL Warehouses und Lakebase
- Nutzung von Databricks Lakebase als transaktionales Fundament
- Copy-Out / Copy-In in operative Systeme (z. B. Azure PostgreSQL/Amazon RDS for PostgreSQL)
- Direct Query vs. Materialized Tables
- Architekturpatterns zur Integration von Data- und Engineering-Teams

Teil 4: Datenaufbereitung für Business-Anwendungen

- Anforderungen von Anwendungsteams an Datenmodelle
- Verwendung von Databricks Asset Bundles zur Vorbereitung und Bereitstellung der benötigten Daten
- Schema-Design, Data Contracts, PK/FK
- Aufbau konsistenter Views und Business Layer für Anwendungen
- Umgang mit Schema-Änderungen und Breaking Changes
- Strukturierte Zusammenarbeit zwischen Data Engineering, BI und Development
Tag 2: Datenverwendung in Anwendungen & App-Entwicklung
Teil 5: Arbeiten mit Unity Catalog-Daten in Anwendungen

- Zugriffsmuster: Direct Query, Caching, API-Layer, Materialization
- Nutzung von Delta Tables, Views und Query Engines
- Performance-Aspekte: Pushdown, Concurrency, Caching
- Validierung und Monitoring von App-Datenzugriffen

Teil 6: Softwareentwicklung mit Databricks Apps

- Einführung in Databricks Apps (Python, Node.js) und Anbindung von Java Anwendungen
- Aufbau serverloser Anwendungen im Workspace
- Lokale Entwicklung vs. Deployment über Asset Bundles
- Security, Logging und Monitoring für Databricks-basierte Anwendungen

Teil 7: Technologie-spezifische Deep Dives

- Python/FastAPI: Backend/APIs mit direkter JDBC/REST-Integration, Enterprise Patterns
- Node.js/Nest.js: Backend/APIs mit direkter JDBC/REST-Integration, Enterprise Patterns
- Java/Spring Boot: Backend/APIs mit direkter JDBC/REST-Integration, Enterprise Patterns

Teil 8: Zusammenarbeit zwischen Software Engineering und Data/BI-Teams

- Gemeinsame Artefakte: Data Contracts, Kataloge, Schemas, Tabellen, Business/Semantic Layer
- CI/CD für Data Pipelines und Anwendungen
- Versionierung, Change-Management und Data Governance
- Best Practices für stabile und skalierbare datengetriebene Anwendungen

Unsere Trainer

Unsere Trainer verfügen über fundierte Fachkenntnisse und umfangreiche Praxiserfahrung im Einsatz von Databricks. Sie arbeiten regelmäßig in realen Projekten und vermitteln komplexe Themen klar und praxisnah. Lernen Sie uns kennen:

  • Niklas Arft

    null

    Niklas bringt langjährige Erfahrung in Entwicklung, Architektur und Betrieb moderner Cloud- und Datenplattformen mit. Er leitet Teams, entwickelt Architekturen sowie Big-Picture-Konzepte, und vermittelt diese verständlich bis auf C-Level. Sein hoher Qualitäts- und Nutzungsanspruch prägt sowohl Projekte und Trainings. Als ausgebildeter Ausbilder bereitet er komplexe Inhalte strukturiert und mit hohem Praxisbezug auf.

    • Shows Linkedin icon in white.
    • Shows Github icon in white.
    null
  • Manbir Singh Pawar

    null

    Mani ist ein erfahrener Data Engineer mit Schwerpunkt auf Azure und Databricks. Er optimiert Spark-basierte Datenpipelines, entwickelt robuste ETL/ELT-Workflows und bringt dafür Projekterfahrung sowie Databricks-Zertifizierungen mit. Dank seiner Full-Stack-Expertise versteht er Datenarchitekturen ganzheitlich und vermittelt technische Konzepte präzise. Die Kombination aus Hands-On-Projektarbeit und kontinuierlicher Trainingspraxis sorgt dafür, dass er komplexe Inhalte praktisch vermitteln kann.

    • Shows Linkedin icon in white.
    • Shows Github icon in white.
    null

IT-Schulung anfragen:

Wir freuen uns auf Ihre Nachricht.

Wir dürfen Sie mit unserer Begeisterung für Databricks anstecken? Schreiben Sie uns eine kurze Nachricht und wir freuen uns darauf, Sie in unserem Training kennen zu lernen.