OneAPPS (www.oneapps.com) ist ein Technologieberatungsunternehmen mit Sitz in der Schweiz und Niederlassungen in ganz Europa. Wir arbeiten an verschiedenen Projekten mit diversen, multikulturellen Teams mit Kunden in ganz Europa. Wir sind ein unschätzbarer Partner unserer Kunden und unsere Teams arbeiten zusammen, um das Wachstum von uns und unserer Kunden zu unterstützen. Mit mehr als sieben Standorten weltweit helfen wir unseren Kunden, ihre Projekte reibungslos durchzuführen. Wir freuen uns darauf, Sie kennen zu lernen und mit Ihnen zu arbeiten. Rolle: Senior Azure platform Engineer Standort: Zürich Wir suchen jemanden, der: Praktische Erfahrung (7 bis 12 Jahre) in der Entwicklung skalierbarer, Cloud-nativer Datenlösungen auf Azure Databricks, Palantir Foundry und Azure Data Factory. Konzeption und Implementierung von metadatengesteuerten Ingestion-Frameworks, Datenpipelines und ETL-Workflows zur Verbesserung der Skalierbarkeit und Datenqualität. Architektur des Frameworks basierend auf attributbasierten Zugriffssteuerungsrichtlinien (Databricks ABAC). Leitung funktionsübergreifender Teams, darunter Data Engineers und DevOps-Experten. Onboarding von Quellsystemen in das Data Lakehouse mithilfe des metadatengesteuerten Frameworks, Automatisierung von Ingestion-Pipelines und Verbesserung der Datenauffindbarkeit und Datenherkunftsverfolgung. Implementierung von Databricks Asset Bundles (DAB) zur Versionierung, Bereitstellung und Verwaltung von Datenpipelines und Notebooks in verschiedenen Umgebungen. Konzeption und Orchestrierung von End-to-End-Datenworkflows in Azure Databricks mithilfe von Jobs und Workflows für skalierbare, automatisierte Datenverarbeitung und effizientes Pipeline-Management. Ausbildung/Zertifizierung • Master in Informatik oder verwandten Fachgebieten • Databricks Certified Associate Developer für Apache Spark 3.0 • PCEP – Zertifizierter Python-Programmierer (Einstiegsniveau) • Microsoft-zertifiziert: DevOps Engineer Expert – AZ-40 • Databricks Certified Data Engineer Associate Kenntnisse • Big Data Engineering mit Python, PySpark und Azure Databricks • Datenarchitektur und -governance mit attributbasierter Zugriffskontrolle (ABAC), Unity Catalog • Datenvalidierung und -automatisierung für Transaktions- und Streaming-Pipelines • Cloud- und DevOps-Integration mit CI/CD, Azure DevOps, Databricks Asset Bundles und Jenkins • Technologien: Python, PySpark, Java, Oracle, SQL, Pandas, CI/CD • Big Data-Plattform: Foundry (Palantir), Azure Databricks, Airflow, Azure Data Factory, Azure Data Lake, Hadoop, Azure DevOps • BI-Tools: OBIEE • Tools: JMeter, UFT/QTP, Jira & Confluence, Git, Jenkins Pega