Für unseren Kunden aus Versichrungsbranche suchen wir aktuell einen Data Engineer.
Vertragsdauer:
Workload: 60% = 3 days/week = 24h/week
Location: Bern
Contract type: Temp (keine Freelancers)
Aufgaben:
* Entwicklung und Wartung skalierbarer, effizienter Backend-Lösungen mit Python und PySpark in einer Databricks-Umgebung
* Erweiterung und Pflege bestehender Backend-Komponenten (z.B. Transformations- und Test-Engine)
* Implementierung von Unit-Tests mit hoher Testabdeckung sowie Integration in CI/CD-Pipelines (z.B. GitLab) im Rahmen eines trunk-basierten Entwicklungsprozesses
* Tätigkeiten in einem heterogenen Umfeld (REST-APIs, Oracle-Datenbanken, Dateiimporte und Docker-Container)
* Automatisierung von Datenvorbereitungsprozessen und lokalen Workflows mit Dagster (Kenntnis von vergleichbaren Orchestrierungstools z.?B. Airflow, Databricks Workflows von Vorteil).
* Identifikation von technischen Lücken und Erstellung operativ getriebener Stories
* Übersetzung von fachlichen Anforderungen in technische Spezifikationen, Dokumentation und User Stories
* Aktive Mitarbeit im agilen Scrum-Team, inklusive Teilnahme an Code-Reviews, technischen Diskussionen und kontinuierlicher Verbesserung des Produkts (DevOps)
* Unterstützung im täglichen Betrieb sowie bei der Weiterentwicklung der Datenplattform in einer Cloud-Umgebung (Azure von Vorteil)
Qualifikationen:
* Mehrjährige Erfahrung als (Backend) Data Engineer im Versicherungswesen
* Erfahrung in der Arbeit agiler Methoden, vorzugsweise SAFe
* Fließende Deutsch- und Englischkenntnisse
* Erfahrung mit CI/CD-Pipelines und Git
* Kenntnisse in Cloud-Umgebungen (Azure von Vorteil) und Interesse an Know-how-Erweiterung
* Praxis mit Orchestrierungslösungen (z.B. Dagster, Airflow, Databricks Workflows)
* Solide Kenntnisse in Oracle, SQL und REST-APIs
* Vorteilhaft: Docker, DevOps und Performance-Optimierung