Analytischer Data Engineer mit 5+ Jahren Erfahrung in der Entwicklung von End-to-End-Lösungen, vorzugsweise mit Databricks und Hyperscalern (Azure, AWS, GCP). Experte in Data Engineering, Architektur, ETL/ELT, Streaming und skalierbaren Lösungen. Fundierte Kenntnisse in Python, SQL, Apache Spark, Delta Lake und Terraform. Innovativ, kommunikationsstark und teamorientiert, mit ausgeprägtem Fokus auf Prozessoptimierung und kontinuierliche Weiterentwicklung.
Du konzipierst und implementierst End-to-End-Lösungen auf Basis von Databricks in Kombination mit einem der führenden Hyperscaler (Azure, AWS, GCP) und entwickelst Best Practices sowie Standards für unsere Kunden.
Du führst ein Team aus Data Engineers, förderst deren Weiterentwicklung und agierst als Mentor, um Exzellenz im Data Engineering zu etablieren.
Du spielst eine zentrale Rolle neben der Geschäftsführung, mit der Möglichkeit, Personen zu entwickeln, Geschäftsfelder zu erweitern und Kundenbeziehungen aufzubauen. Dein Einfluss reicht über das Tagesgeschäft hinaus – du prägst aktiv unsere strategische Ausrichtung.
Du übernimmst eine zentrale Rolle in unserer internen Produktentwicklung mit Schwerpunkt Data Ingestion und Data Preparation und treibst Innovationen in diesem Bereich voran.
Du hast ein abgeschlossenes Studium im MINT-Bereich oder in Wirtschaftsinformatik – oder eine vergleichbare Qualifikation. Neue Technologien und Geschäftsmodelle erschließt du dir schnell und mit Begeisterung.
Du bringst mindestens fünf Jahre Berufserfahrung mit, insbesondere im Bereich Data Engineering.
Du hast bereits End-to-End-Lösungen konzipiert und umgesetzt, idealerweise mit Databricks und mindestens einem Hyperscaler (Azure, AWS oder GCP). Data Lakehouse-Architekturen, ETL/ELT-Pipelines, Streaming-Technologien und verteiltes Rechnen sind für dich vertraute Konzepte.
Die Anbindung von Quellsystemen, die Gestaltung einer Medallion-Architektur oder die Versorgung unterschiedlicher Nutzergruppen meisterst du mit Leichtigkeit. Dein Code ist nicht nur funktional, sondern auch nachhaltig und wartbar.
Du verfügst über fundierte Kenntnisse in Python, SQL und gängigen Frameworks für Data Pipelines (Apache Spark, Delta Lake, dbt) und entwickelst robuste, skalierbare Lösungen.
Infrastructure as Code (z. B. Terraform) sowie die Implementierung von CI/CD-Pipelines für Data Workloads sind für dich eine Selbstverständlichkeit, um effiziente und nachhaltige Prozesse sicherzustellen. Außerdem unterstützt du die Kollegen bei DataOps-Themen.
Du entwickelst skalierbare Data Engineering-Lösungen und setzt Standards für Data Ingestion und Pipeline-Automatisierung. Stetige Optimierung und Automatisierung sind für dich selbstverständlich.
Du vermittelst komplexe Sachverhalte verständlich und überzeugend – sowohl für technische als auch nicht-technische Stakeholder. Dein sicheres Auftreten ermöglicht es dir, Kunden und Teams zu gewinnen. Zusammenarbeit und Wissenstransfer sind für dich essenziell.
Du bildest dich kontinuierlich weiter – sei es durch Zertifizierungen, den Austausch mit Experten oder eigene Projekte. Deine Begeisterung für Technologie zeigt sich in deinem Drang, neue Frameworks oder Tools auszuprobieren und dein Wissen stetig zu erweitern.
Du weißt, wann fokussierte Arbeit ausreicht und wann es sich lohnt, mehr zu investieren, um ein Projekt erfolgreich abzuschließen. Dein vorausschauendes Planen ermöglicht dir einen effizienten Umgang mit deiner Zeit.
Damit Du Dich bei uns wohl fühlst, bieten wir Dir neben spannenden, abwechslungsreichen Projekten weitere echte Benefits und haben auch immer ein offenes Ohr für Deine Ideen und Anregungen!
Bist Du neugierig geworden? Wir würden uns freuen Dich kennenlernen. Schreib uns jetzt unkompliziert und schnell über unser Kontaktformular oder melde Dich telefonisch unter:
In diesem FAQ-Bereich beantworten wir alle wichtigen Fragen rund um Deine Bewerbung – von den benötigten Unterlagen bis hin zum Ablauf des Auswahlprozesses. So erhältst Du schnell einen klaren Überblick darüber, was Dich erwartet.