 
        Job description:Entwicklung und Wartung skalierbarer, effizienter Backend-Lösungen mit Python und PySpark in einer Databricks-UmgebungErweiterung und Pflege bestehender Backend-Komponenten (z. B. Transformations- und Test-Engine)Implementierung von Unit-Tests mit hoher Testabdeckung sowie Integration in CI/CD-Pipelines (z. B. GitLab) im Rahmen eines trunk-basierten EntwicklungsprozessesTätigkeiten in einem heterogenen Umfeld (REST-APIs, Oracle-Datenbanken, Dateiimporte und Docker-Container)Automatisierung von Datenvorbereitungsprozessen und lokalen Workflows mit Dagster (Kenntnis von vergleichbaren Orchestrierungstools z. B. Airflow, Databricks Workflows von Vorteil).Identifikation von technischen Lücken und Erstellung operativ getriebener StoriesÜbersetzung von fachlichen Anforderungen in technische Spezifikationen, Dokumentation und User StoriesAktive Mitarbeit im agilen Scrum-Team, inklusive Teilnahme an Code-Reviews, technischen Diskussionen und kontinuierlicher Verbesserung des Produkts (DevOps)Unterstützung im täglichen Betrieb sowie bei der Weiterentwicklung der Datenplattform in einer Cloud-UmgebungUmsetzung moderner Datenverarbeitungskonzepte wie ETL/ELT, Data Warehouse, Data Lake, Lakehouse und Medaillon-Architektur, inklusive Performance-OptimierungModellierung und Weiterentwicklung von Star- und Snowflake-Datenmodellen zur effizienten Datenanalyse und -bereitstellungAbout the customer:Im Auftrag unseres Kunden in der Versicherungsbranche sind wir auf der Suche nach einem motivierten und erfahrenen Software Engineer mit Python und PySpark Programmiersungserfahrung für eine langfristige Contract Stelle von 01.01.2026 - 31.12.2026 (Verlängerung möglich) in einem renommierten Schweizer Unternehmen auf 60% Basis.Unser Kunde bietet Home Office 30-60% pro Woche. Der Arbeitsort befindet sich in Bern (direkt neben zum Bahnhof).Requirements:Abgeschlossene Ausbildung im Bereich Informatik oder eine vergleichbare QualifikationMehrjährige Erfahrung in der Software- oder Datenentwicklung mit Python (idealerweise in Kombination mit PySpark und Databricks)Sicherer Umgang mit CI/CD-Pipelines, Unit-Testing und Versionierung (GitLab oder vergleichbar)Gute Kenntnisse in SQL und DatenmodellierungErfahrung mit Cloud-Technologien (Azure, AWS oder GCP von Vorteil)Verständnis moderner ETL/ELT-Konzepte und DatenarchitekturenStrukturierte, analytische und lösungsorientierte ArbeitsweiseFreude an Teamarbeit, agilen Methoden und der kontinuierlichen Verbesserung von ProzessenFliessend Deutsch (gute Englisch- und Französischkenntnisse sind wünschenswert)Compensation benefits:Unser Kunde bietet:Modernen Arbeitsort mit sehr guten ÖV-Verbindungen und familiärem ArbeitskulturHome Office 30-60%Dauer: Jan 2026 bis Dez 2026 (Verlängerung möglich)Falls der oben beschriebene Aufgabenbereich dein Interesse geweckt hat und du die wichtigsten Anforderungen erfüllst, dann zögere nicht dich noch heute zu bewerben. Wir freuen uns auf deine Bewerbung! j4id9922574a j4it1044a j4iy25a