Diese Vakanz wurde bereits geschlossen. Alle verfügbaren Jobs findest du in unserer Stellenübersicht .
Melde dich gerne telefonisch oder per E-Mail bei uns – auch wenn du gerade keine passende Stelle gesehen hast. Wir freuen uns von dir zu hören.
Für unseren Kunden aus der Transportbranche in Bern, suchen wir eine:n analytische:n motivierte:n und aufgeschlossene:n Snwoflake Date Engineer.
In einem innovativen, cloudbasierten Umfeld arbeitest du an der Weiterentwicklung einer modernen Enterprise Analytics Plattform. Der Fokus liegt auf performanten ELT-Pipelines, Datenmodellierung sowie der Integration in komplexe Unternehmenssysteme
Deine Aufgaben:
* Entwicklung, Optimierung und Betrieb von Snowflake Data-Warehouse-Lösungen
* Aufbau und Betreuung von ELT/ETL-Pipelines (dbt, Airflow, Snowpipe, Streams & Tasks)
* Datenmodellierung (Star-Schema, Data Vault) inkl. Erstellung und Optimierung von Tabellen, Views & Schemas
* Performance-Tuning (Clustering, Micro-Partitioning, Query-Optimierung, Warehouse-Sizing)
* Erstellung und Wartung von Daten-Exports & Reports
* Einrichtung von Datenqualitäts-Checks, Monitoring & Alerting
* Integration von Snowflake mit externen Systemen (Cloud Storage, APIs, Streaming)
* Fehleranalyse und Incident-Handling in Data Pipelines & Reports
* Optimierung von Argo-/Kubernetes-Batchprozessen
* Mitarbeit beim Aufbau von Infrastructure as Code (Terraform) und CI/CD
* Dokumentation von Architektur und Datenflüssen sowie Know-how-Transfer
* Unterstützung von Fachbereichen und Support bei technischen Fragestellungen
Dein Profil:
* Abgeschlossenes Studium in Informatik, Data Engineering oder einem verwandten Bereich
* Mindestens 3 Jahre Erfahrung als Snowflake-Entwickler:in in produktiven Projekten
* Starke SQL- und Python-Skills; weitere Skriptsprachen von Vorteil
* Erfahrung mit ELT/ETL-Tools (dbt, Airflow, Snowpipe, Prefect)
* Erfahrung mit Cloud-Storage (AWS S3, Azure Blob)
* Kenntnisse in Terraform sowie CI/CD (Tekton oder Jenkins)
* Erfahrung im Umgang mit REST-APIs und Fehleranalyse
* Erfahrung in Kubernetes-/Container-Umgebungen (Argo Workflows)
* Routiniert in Monitoring, Logging und Incident Handling
* Eigenständig, strukturiert, proaktiv und zuverlässig
* Sehr gute Deutsch- und Englischkenntnisse
* Ab sofort - 31.12.2026 (mit Option auf Verlängerung)
Traumjob nicht dabei?
Wir freuen uns auch über Spontanbewerbungen.
#J-18808-Ljbffr