Missions :
* Concevoir et maintenir l’architecture des flux de données pour garantir leur accessibilité, fiabilité et sécurité.
* Développer et optimiser des pipelines de données pour répondre aux besoins analytiques de l’entreprise.
* Collaborer étroitement avec les équipes data et IT pour assurer la disponibilité des données.
* Participer activement à l’intégration de solutions Cloud et de plateformes de type Data Lakehouse (ex : Databricks, Snowflake).
* Mettre en place des mécanismes de surveillance, de contrôle qualité et de gouvernance des données.
* Assurer la bonne performance des bases de données et du traitement des flux de données.
* Implémenter des pratiques d’industrialisation, de CI/CD et de versioning pour fiabiliser les déploiements.
* Contribuer à l’évolution de l’infrastructure data avec des outils d’orchestration et de traitement distribués.
* Participer à la valorisation des données dans une logique d’aide à la décision stratégique.
Qualifications :
* Formation supérieure en informatique (HES, brevet fédéral ou équivalent).
* Minimum 3 à 5 ans d’expérience dans un rôle similaire en ingénierie de la donnée.
* Solide expertise en bases de données relationnelles et NoSQL.
* Maîtrise de langages de programmation comme Python ou Java, et des outils de traitement de données.
* Connaissances confirmées des environnements Cloud (AWS, Azure, GCP) et des outils d’intégration continue.
* À l’aise avec des solutions comme Git, Terraform, Ansible, ainsi que des orchestrateurs comme Airflow.
* Expérience avec des outils ETL (ex : Talend) et bases temporelles (InfluxDB) appréciée.
* Bonne compréhension des outils de BI (ex : Power BI) et des enjeux liés à la qualité et à la gouvernance des données.
* Très bon niveau de français, avec un bon anglais technique (min. B2).
#J-18808-Ljbffr