Ihre Aufgaben:
* Entwicklung und Wartung skalierbarer, effizienter Backend-Lösungen mit Python und PySpark in einer Databricks-Umgebung
* Erweiterung und Pflege bestehender Backend-Komponenten (z. B. Transformations‑ und Test‑Engine)
* Implementierung von Unit‑Tests mit hoher Testabdeckung sowie Integration in CI/CD‑Pipelines (z. B. GitLab) im Rahmen eines trunk‑basierten Entwicklungsprozesses
* Mitarbeit in einem vielseitigen technischen Umfeld mit REST‑APIs, Oracle‑Datenbanken, Dateiimporten und Docker‑Containern
* Automatisierung von Datenvorbereitungsprozessen und lokalen Workflows mit Dagster (Kenntnisse in vergleichbaren Orchestrierungstools wie Airflow oder Databricks Workflows von Vorteil)
* Identifikation technischer Lücken und Erarbeitung operativer Stories zur kontinuierlichen Verbesserung
* Übersetzung fachlicher Anforderungen in technische Spezifikationen, Dokumentation und User Stories
* Aktive Mitarbeit im agilen Scrum‑Team, inklusive Teilnahme an Code‑Reviews, technischen Diskussionen und DevOps‑Aktivitäten
* Unterstützung im laufenden Betrieb sowie bei der Weiterentwicklung der Datenplattform in einer Cloud‑Umgebung (Azure von Vorteil)
Ihr Profil:
* Abgeschlossenes Studium in Informatik, Data Engineering oder vergleichbare Ausbildung
* Mehrjährige Erfahrung in der Software‑ oder Datenentwicklung mit Python (idealerweise in Kombination mit PySpark und Databricks)
* Sicherer Umgang mit CI/CD‑Pipelines, Unit‑Testing und Versionierung (GitLab oder vergleichbar)
* Gute Kenntnisse in SQL und Datenmodellierung
* Erfahrung mit Cloud‑Technologien (Azure, AWS oder GCP von Vorteil)
* Verständnis moderner ETL/ELT‑Konzepte und Datenarchitekturen
* Strukturierte, analytische und lösungsorientierte Arbeitsweise
* Freude an Teamarbeit, agilen Methoden und der kontinuierlichen Verbesserung von Prozessen
* Fliessende Deutsch- und Englischkenntnisse
#J-18808-Ljbffr