Aufgaben
* Aufbau & Entwicklung sowie Wartung von Datenpipelines mit Apache Airflow
* Entwicklung von PL/SQL-Abfragen und Prozeduren
* Nutzung von NoSQL-Datenbanken (z.B. MongoDB)
* ETL-Prozesse zur Datenintegration in die CMDB
* Integration von Datenquellen via MuleSoft
* Modellierung nach dem Common Information Model (CIM)
* Datenabgleich & Qualitätssicherung
* Zusammenarbeit mit Teams zur Anforderungsanalyse
* Dokumentation von Prozessen & Datenmodellen
Anforderungen
* Data Engineering & Data Modeling Erfahrung
* Kenntnisse in Apache Airflow, PL/SQL, Python, Perl
* Kenntnisse in SACM (z.B. Microfocus Asset Manager)
* Erfahrung mit NoSQL & MuleSoft
* Containertechnologien wie Kubernetes
* Frontend-/Backend-Mechanismen für Datenladeprozesse
* Grundkenntnisse in Anchor Modeling
Standorte: Grenchen, Solothurn, Schweiz (vor 2 Wochen), Zollikofen, Bern, Schweiz (vor 1 Monat)
#J-18808-Ljbffr