Du begeisterst dich für Daten, moderne Cloud-Technologien und sauberen Code?
Dann erwartet dich eine spannende Aufgabe an der Schnittstelle zwischen Softwareentwicklung und Data Engineering. In einem agilen Scrum-Team arbeitest du an der Weiterentwicklung der Datenplattform und entwickelst skalierbare, performante Backend-Lösungen, die Datenprozesse intelligent automatisieren und optimieren.
Aufgaben:
* Entwicklung und Wartung skalierbarer, effizienter Backend-Lösungen mit Python und PySpark in einer Databricks-Umgebung
* Erweiterung und Pflege bestehender Backend-Komponenten (z. B. Transformations- und Test-Engine)
* Implementierung von Unit-Tests mit hoher Testabdeckung sowie Integration in CI/CD-Pipelines (GitLab, trunk-based development)
* Arbeiten in einem heterogenen Umfeld mit REST-APIs, Oracle-Datenbanken, Dateiimporten und Docker-Containern
* Automatisierung von Datenvorbereitungsprozessen und lokalen Workflows mit Dagster (oder vergleichbaren Tools wie Airflow oder Databricks Workflows)
* Identifikation technischer Lücken und Erstellung operativ getriebener Stories
* Übersetzung fachlicher Anforderungen in technische Spezifikationen, Dokumentation und User Stories
* Aktive Mitarbeit im agilen Scrum-Team, inklusive Code-Reviews, technischen Diskussionen und kontinuierlicher Produktverbesserung (DevOps)
* Unterstützung im Betrieb und bei der Weiterentwicklung der Datenplattform in einer Cloud-Umgebung (Azure von Vorteil)
Weitere Tätigkeiten:
* Umsetzung moderner Datenverarbeitungskonzepte wie ETL/ELT, Data Warehouse, Data Lake, Lakehouse und Medaillon-Architektur, inklusive Performance-Optimierung
* Modellierung und Weiterentwicklung von Star- und Snowflake-Datenmodellen zur effizienten Datenanalyse und -bereitstellung
Anforderungen:
* Abgeschlossenes Studium oder Ausbildung im Bereich Informatik, Data Science oder Wirtschaftsinformatik
* Fundierte Erfahrung in der Backend-Entwicklung mit Python (PySpark-Erfahrung von Vorteil)
* Kenntnisse in CI/CD-Pipelines (GitLab), Git und DevOps-Praktiken
* Erfahrung mit SQL und Oracle-Datenbanken
* Erfahrung in Cloud-Umgebungen (Azure von Vorteil)
* Vertraut mit Orchestrierungstools wie Dagster, Airflow oder Databricks Workflows
* Gute Kenntnisse moderner Datenarchitekturen (ETL/ELT, DWH, Lakehouse)
* Freude an agiler Zusammenarbeit und technischen Diskussionen
* Sehr gute Deutsch- und Englischkenntnisse
Generelle Rahmenbedingungen:
* Start: Januar Dezember 2026
* Pensum: 60%
* Ort: Bern, 2 mal pro Woche vor Ort zwingend