Overview
Dashboarding centralise, traite et valorise des données pour produire des indicateurs clés de performance (KPI) et des tableaux de bord personnalisables. Le pipeline data s’appuie sur Pandas/NumPy, SQL (PostgreSQL/MySQL) et des APIs REST exposées par le backend Python; le front intègre les visualisations. Rôle Data Analyst : vous préparez, qualifiez et modélisez les données (KPI), assurez leur qualité et prototypez des visualisations (par ex. Dash/Streamlit) avant intégration front.
Responsabilités
* Collecter, structurer et préparer les données nécessaires au calcul et à la visualisation des KPI.
* Nettoyer et transformer les données issues de différentes sources (bases SQL, fichiers, API).
* Construire des modèles d’analyse descriptive et de reporting automatisé (dashboards, statistiques, tendances).
* Collaborer avec les développeurs Full Stack pour l’intégration des datasets au sein d’interfaces Angular/React via API REST.
* Assurer la qualité, l’intégrité et la mise à jour des données utilisées dans les dashboards.
* Participer à l’élaboration de pipelines de données (automatisation, gestion des flux).
* Prototyper des visualisations en Python ou dans des outils compatibles front (Chart.js).
Modalités du poste
* Début du stage ou mission : immédiatement ou à convenir
* Durée du stage ou mission : 3 mois minimum à 100% ou 6 mois à 50%
* Travail à distance (télétravail)
* Convention de stage ou contrat de bénévolat
* Horaires à définir ; min. 2 réunions hebdomadaires (via skype) obligatoires
* Le stage ou mission n’est pas rémunéré mais nous attestons les compétences professionnelles développées et vous délivrons un certificat par compétence acquise
Profil recherché / Qualifications
* Maîtrise de SQL (PostgreSQL ou MySQL) pour l’analyse et l’extraction de données.
* Excellente pratique de Python, notamment avec Pandas, NumPy, et outils de nettoyage.
* Expérience avec API REST : appel d’API, structuration des flux, formats JSON.
* Notions en visualisation de données et bonnes pratiques de data storytelling.
* Connaissance des frameworks légers de BI ou dashboarding (Dash, Streamlit, voire intégration avec Flask/FastAPI).
* Bonne compréhension des structures de base de données relationnelles (modélisation, jointures, relations).
* Sensibilité à l’optimisation des performances de requêtes.
* Rigueur dans la manipulation de données et dans les contrôles de qualité.
* Autonomie dans l’exploration et la structuration de données hétérogènes.
* Bon esprit d’analyse et capacité à comprendre les besoins métiers.
* Capacité à travailler en équipe avec des profils techniques (développeurs) et fonctionnels (chefs de projet, UX).
* Clarté dans la restitution des résultats (tableaux, visualisations, présentations).
Ce que nous offrons
* gaea21 propose un modèle de coaching carrière axé sur le bilan, l’identification de compétences et la mise en place d’un plan de carrière et de formation.
* Formation en gestion de projets et management durable si souhaité (utilisation de Google suite et amélioration des tableurs Excel/Google Sheets et Gantt).
* Un poste à responsabilité avec une large autonomie.
* Un travail dans une équipe dynamique et pluridisciplinaire.
* La mesure et la réduction de votre empreinte écologique grâce à votre participation au staff sustainability program.
Comment postuler
Vous êtes à la recherche d’une expérience professionnalisante dans le domaine du développement web ? Vous vous sentez concerné.e par le développement durable et vous avez envie de gérer des projets de manière autonome, alors envoyez votre CV et votre lettre de motivation (exclusivement par courrier électronique) à hr@gaea21.org en mentionnant la référence de l’annonce (DBLP07). Pour en savoir plus sur notre association ou consulter nos autres offres, visitez notre site: www.gaea21.org
Descriptif du projet et du sous-projet
Dashboarding centralise, traite et valorise des données pour produire des indicateurs clés de performance (KPI) et des tableaux de bord personnalisables. Le pipeline data s’appuie sur Pandas/NumPy, SQL (PostgreSQL/MySQL) et des APIs REST exposées par le backend Python; le front intègre les visualisations. Rôle Data Analyst : vous préparez, qualifiez et modélisez les données (KPI), assurez leur qualité et prototypiez des visualisations (par ex. Dash/Streamlit) avant intégration front.
#J-18808-Ljbffr