Als Mitglied des Data Mesh Enabling Teams befähigst du Domänenteams, Datenprodukte nach Data-Mesh-Prinzipien zu designen, zu modellieren, zu entwickeln und erfolgreich einzuführen. Du setzt Standards, leitest Workshops und arbeitest eng mit der Enterprise Architektur zusammen.
Aufgaben
* Vorhaben im Unternehmen beim Design, der Modellierung, Entwicklung und Einführung von Datenprodukten unterstützen und begleiten.
* Data-Mesh-Prinzipien (Domain Ownership, Data as a Product, Self-Serve Data Platform, Federated Governance) intern kommunizieren und verankern.
* Arbeitsworkshops zu Data Mesh inhaltlich gestalten und moderieren.
* Enge Zusammenarbeit mit der Enterprise Architektur; architektonische Entscheide abstimmen.
* Datenkontrakte anhand aktueller Spezifikationen / Standards definieren und Reviews durchführen.
* Einführung und Nutzung von Datenkatalogen (z. B. DataHub) unterstützen.
* Datenprodukte auf Basis von Apache Kafka designen und erstellen.
* Daten- und Datenbank-Modellierung sowie Aufbau von Datenpipelines und ETL-Prozessen im Analytics-Umfeld (z. B. Apache Spark, Data Lake, Data Warehouse).
* Fundierte Kenntnisse der theoretischen Grundlagen, Prinzipien und Best Practices von Data Mesh.
* Erfahrung in der Einführung / Begleitung von Data Mesh in Unternehmen.
* Vertrautheit mit Big-Data-Technologien und relevantem Tooling im Analytics-Bereich (z. B. Apache Spark, Data Lake, Data Warehouse).
* Expertise in Daten- / Datenbank-Modellierung, Pipelines und ETL.
* Datenkontrakte: aktuelle Spezifikationen / Standards kennen und bei der Erstellung unterstützen.
* Datenkataloge (z. B. DataHub) – Funktionen kennen und bei der Einführung unterstützen.
* Design und Erstellung von Kafka-basierten Datenprodukten.
* Fähigkeit, Workshops zu Data Mesh zu konzipieren und zu leiten.
* Enge Abstimmung mit der Enterprise Architektur.
* Sehr gute Kommunikations- und Stakeholder-Skills zur internen Verankerung der Prinzipien.
#J-18808-Ljbffr