Aufgaben
- Entwicklung skalierbarer Datenpipelines — Konzeption, Aufbau und Betrieb von ETL/ELT-Prozessen auf Basis von Databricks und Spark
- Modellierung moderner Datenarchitekturen — Erstellung robuster Datenmodelle für Reporting, Analytics und Data-Products (Lakehouse-Ansatz)
- Power-BI-Reporting — Entwicklung performanter Dashboards, DAX-Modelle und Dataflows zur Unterstützung internationaler Fachbereiche
- Datenintegration — Anbindung neuer Datenquellen, inkl. Cloud-Systeme, APIs und operativer Systeme
- Qualität & Stabilität — Sicherstellung von Datenqualität, Monitoring, Incident-Management und Dokumentation
- Zusammenarbeit in agilen Teams — Enge Abstimmung mit Data Scientists, BI Engineers und Produktteams zur Weiterentwicklung unserer Datenplattformen
Profil
- Fundierte Erfahrung mit Databricks
- Sehr gute Kenntnisse in Power BI
- Sicherer Umgang mit SQL
- Erfahrung im Aufbau moderner Datenarchitekturen (ETL/ELT, Data Lake / Lakehouse)
- Alteryx oder vergleichbare ETL-Tools (z.B. Tableau Prep) — insbesondere für Workflow-Automatisierung und Datenaufbereitung
- Tableau — Erfahrung im Dashboard-Design und Visualisierung
Benefits
- Mitarbeit in einem globalen Data- & Analytics-Umfeld
- Moderne Cloud-Technologien und State-of-the-Art-Tools
- Flexible Arbeitsmodelle (inkl. Mobile Working)