Stellenbeschreibung
Aufgaben:
* Aufbau & Entwicklung sowieWartung von Datenpipelines mit Apache Airflow
* Entwicklung von PL/SQL Abfragen und Prozeduren
* Nutzung von NoSQL Datenbanken (z.?B. MongoDB)
* ETL Prozesse zur Datenintegration in die CMDB
* Integration von Datenquellen via MuleSoft
* Modellierung nach dem Common Information Model (CIM)
* Datenabgleich & Qualitatssicherung
* Zusammenarbeit mit Teams zur Anforderungsanalyse
* Dokumentation von Prozessen & Datenmodellen
Anforderungen:
* Data Engineering & Data Modeling Erfahrung
* Apache Airflow, PL/SQL, Python, Perl
* Kenntnisse in SACM (z.?B. Microfocus Asset Manager)
* Erfahrung mit NoSQL & MuleSoft
* Containertechnologien wie iKube, Kubernetes
* Frontend /Backend Mechanismen fur Datenladeprozesse
* Grundkenntnisse in Anchor Modeling