Deine Aufgaben:
1. Sicherstellen eines stabilen Betriebs unserer Anwendungen – ohne Pikettdienst
2. Entwurf, Aufbau und Weiterentwicklung datenzentrierter Anwendungen, ETL-/ELT‑Pipelines und Datenprodukte auf unserer Analytics‑Plattform
3. Planung und Durchführung von Releases und Deployments sowie Integration in die bestehende Plattformlandschaft
4. Enge Zusammenarbeit mit Data Engineers, Data Scientists, Software Engineers und Fachbereichen zur Umsetzung einer ganzheitlichen, konsolidierten Datensicht
5. Automatisierung von Betriebsabläufen und Softwaretests
6. Erstellung und Pflege von technischer Software‑Dokumentation
Dein Profil:
7. Mehrjährige praktische Erfahrung im Design, Aufbau, der Entwicklung und dem Betrieb cloudbasierter Datenplattformen
8. Fundiertes Know‑how moderner Data‑Stack‑Konzepte und -Werkzeuge (ETL/ELT, Data Warehousing, Streaming, Orchestrierung), z. B. Snowflake, dbt, dltHub, Helm, Argo Workflows, Kafka
9. Ausgezeichnete SQL‑Skills sowie Erfahrung in Datenmodellierung (Star/Snowflake, dimensionales Modellieren) und Performance‑Optimierung
10. Sehr gute Software‑Engineering‑Fähigkeiten in Python: produktionsreifer Code, Tests, CI/CD, Code‑Reviews, Git, Packaging & Deployment
11. Fähigkeit, skalierbare und kosteneffiziente Datenarchitekturen zu entwerfen sowie Trade-offs (Latenz, Konsistenz, Kosten) fundiert zu beurteilen
12. Selbständige, lösungsorientierte Arbeitsweise mit hohem Qualitätsanspruch und Verlässlichkeit
13. Fliessende Deutsch- und Englischkenntnisse zwingend