Sie überzeugen
uns mit Ihren Fähigkeiten.
1. Entwicklung und Wartung skalierbarer Datenpipelines:
Konzeption und Entwicklung effizienter ETL/ELT-Prozesse von der optimalen Datenanbindung bis zur Bereitstellung moderner Datenprodukte und Self-Services.
2. Dimensionale Datenmodellierung im Data-Warehouse:
Bereitstellung analytischer Datenmodelle im DWH (Exasol) für unsere Reporting- und BI-Landschaft. Begleitung der Fachspezialisten von der Anforderungserhebung bis zur Abnahme der implementierten Lösung.
3. Automatisierung von Data-Workflows:
Optimierung bestehender Daten-Workflows mit intelligenten Automatisierungen (Airflow) sowie schnelle und zuverlässige Bereitstellung mittels CI/CD-Praktiken für maximale Effizienz im Data Management.
4. Weiterentwicklung der BI-Architektur:
Ergänzung und Optimierung der onPrem-Infrastruktur, um steigende Anforderungen an Datenverarbeitung und –speicherung zu erfüllen. Ihr Know-how im Umgang mit Cloud-Plattformen und der Verarbeitung unstrukturierter Daten sind ein Plus.
5. Datenqualität und Monitoring:
Überwachen und orchestrieren neuer und bestehender Datenlieferungen sowie Datenanalyse zur Sicherstellung von Datenintegrität und -verfügbarkeit. Sie implementieren Monitoring-, Alarmierungs- und Datenvalidierungstools zur Gewährleistung hoher Datenqualität.
6. Datensicherheit und Compliance:
Dokumentation und regelmässige Überprüfung von Datenschutzbestimmungen und Datensicherheitskonzepten sowie Umsetzung von Best Practices bei Rollen- und Berechtigungskonzepten.
7. Leitung und Mitwirkung bei innovativen Data-Projekten:
Umsetzung von Initiativen mit Fokus auf Qualitäts-, Risiko- und Performance-Management zusammen mit Peers aus Fach und IT.
Ihre Parameter überzeugen uns.
Für uns ist entscheidend, dass Sie ein gutes Verständnis für ganzheitliche Business Intelligence Fragestellungen mitbringen, lösungsorientiert denken und innovativ sind.
- Abgeschlossenes Hochschulstudium in Informatik oder technischer Ausrichtung
- Mindestens drei Jahre Berufserfahrung in relevantem Tätigkeitsgebiet
- Fundierte Kenntnisse in SQL und Python. Weitere Kenntnisse in LUA, R und Skriptsprachen (Bash, Shell) sind ein Plus
- Erfahren im Umgang mit unterschiedlichen Datenbanksystemen, gängigen ETL-, Versionsverwaltungs- und Automatisierungs-Tools sowie Containerisierungs-Lösungen
- Überzeugender Auftritt in der Beratung und Begleitung interner Kunden bei Datenfragen über die gesamte Wertschöpfungskette
- Kompetenzen im Bereich Requirements Engineering und Datenanalyse
- Erfahrungen mit Big-Data-Technologien, aus dem Bereich Machine Learning oder im Umgang mit BI-Tools runden ihr Profil ab