Stellenbeschreibung
Aufgaben: Aufbau & Entwicklung sowie Wartung von Datenpipelines mit Apache Airflow
Entwicklung von PL/SQL-Abfragen und Prozeduren
Nutzung von NoSQL-Datenbanken (z.?B. MongoDB)
ETL-Prozesse zur Datenintegration in die CMDB
Integration von Datenquellen via MuleSoft
Modellierung nach dem Common Information Model (CIM)
Datenabgleich & Qualitätssicherung
Zusammenarbeit mit Teams zur Anforderungsanalyse
Dokumentation von Prozessen & Datenmodellen
Anforderungen: Data Engineering & Data Modeling Erfahrung
Apache Airflow, PL/SQL, Python, Perl
Kenntnisse in SACM (z.?B. Microfocus Asset Manager)
Erfahrung mit NoSQL & MuleSoft
Containertechnologien wie iKube, Kubernetes
Frontend-/Backend-Mechanismen für Datenladeprozesse
Grundkenntnisse in Anchor Modeling