Stellenbeschreibung
Aufgaben:">
Datenintegration und -analyse
* Aufbau & Entwicklung sowie Wartung von Datenpipelines mit Apache Airflow
* Entwicklung von PL/SQL-Abfragen und Prozeduren
* Nutzung von NoSQL-Datenbanken (z. B. MongoDB)
* ETL-Prozesse zur Datenintegration in die CMDB
* Integration von Datenquellen via MuleSoft
* Modellierung nach dem Common Information Model (CIM)
* Datenabgleich & Qualitätssicherung
* Zusammenarbeit mit Teams zur Anforderungsanalyse
* Dokumentation von Prozessen & Datenmodellen
Anforderungen:
* Data Engineering & Data Modeling Erfahrung
* Apache Airflow, PL/SQL, Python, Perl
* Kenntnisse in SACM (z. B. Microfocus Asset Manager)
* Erfahrung mit NoSQL & MuleSoft
* Containertechnologien wie iKube, Kubernetes
* Frontend-/Backend-Mechanismen für Datenladeprozesse
* Grundkenntnisse in Anchor Modeling