Deine Aufgaben:
* Sicherstellen eines stabilen Betriebs unserer Anwendungen – ohne Pikettdienst
* Entwurf, Aufbau und Weiterentwicklung datenzentrierter Anwendungen, ETL-/ELT‑Pipelines und Datenprodukte auf unserer Analytics‑Plattform
* Planung und Durchführung von Releases und Deployments sowie Integration in die bestehende Plattformlandschaft
* Enge Zusammenarbeit mit Data Engineers, Data Scientists, Software Engineers und Fachbereichen zur Umsetzung einer ganzheitlichen, konsolidierten Datensicht
* Automatisierung von Betriebsabläufen und Softwaretests
* Erstellung und Pflege von technischer Software‑Dokumentation
Dein Profil:
* Mehrjährige praktische Erfahrung im Design, Aufbau, der Entwicklung und dem Betrieb cloudbasierter Datenplattformen
* Fundiertes Know‑how moderner Data‑Stack‑Konzepte und -Werkzeuge (ETL/ELT, Data Warehousing, Streaming, Orchestrierung), z.B. Snowflake, dbt, dltHub, Helm, Argo Workflows, Kafka
* Ausgezeichnete SQL‑Skills sowie Erfahrung in Datenmodellierung (Star/Snowflake, dimensionales Modellieren) und Performance‑Optimierung
* Sehr gute Software‑Engineering‑Fähigkeiten in Python: produktionsreifer Code, Tests, CI/CD, Code‑Reviews, Git, Packaging & Deployment
* Fähigkeit, skalierbare und kosteneffiziente Datenarchitekturen zu entwerfen sowie Trade-offs (Latenz, Konsistenz, Kosten) fundiert zu beurteilen
* Selbständige, lösungsorientierte Arbeitsweise mit hohem Qualitätsanspruch und Verlässlichkeit
Fliessende Deutsch- und Englischkenntnisse zwingend
#J-18808-Ljbffr