Data Engineer

    Retour à la recherche

    Data Engineer - Mode et textile

    Ref: T-11300 - Publiée le 15 mai 2026

    • Localisation

      Région de Lyon

    • TJM

      Selon profil

    • Part de télétravail

      2j / semaine

    • Expérience minimum

      3 à 5 ans (Confirmé)

    • Date de démarrage

      ASAP

    Contexte et description de la mission

    Contexte
    Pour notre client dans le secteur de la mode et du textile, nous recherchons un consultant freelance pour une mission de Data Engineer. L'objectif est de renforcer l'équipe de gestion des données afin de mieux exploiter et valoriser les informations disponibles. Le contexte industriel et commercial du client offre une opportunité unique d'interagir avec de grands volumes de données et de contribuer à des projets stratégiques qui visent à améliorer l'efficacité opérationnelle et à maximiser la satisfaction client. Il s'agit d'une mission où l'innovation technologique est centrale afin de s'adapter à un marché en constante évolution.

    Responsabilités
  1. Concevoir, développer et maintenir des pipelines de données robustes pour intégrer efficacement les données issues de multiples sources.
  2. Collaborer avec les équipes de data scientists et d'analystes pour comprendre leurs besoins en matière de données et optimiser les flux de travail.
  3. Assurer la qualité des données en mettant en place des techniques de nettoyage et de validation adaptées.
  4. Participer à la mise en œuvre de projets Big Data et à l'optimisation des outils de gestion des données.
  5. Contribuer à l'amélioration continue des processus de gestion des données par l'intégration de nouvelles technologies et méthodes innovantes.
  6. Garantir la sécurité et la confidentialité des données traitées conformément aux exigences réglementaires.

    Profil recherché
  7. Expérience confirmée en tant que Data Engineer, avec une solide compréhension des architectures Big Data et des pipelines ETL.
  8. Compétence en programmation avec des langages tels que Python, Java ou Scala.
  9. Maitrise des outils de gestion de données comme Hadoop, Spark, Kafka, et des bases de données NoSQL.
  10. Expérience dans le cloud computing et les services associés comme AWS, Google Cloud ou Azure.
  11. Capacité à travailler en équipe et à collaborer étroitement avec des data scientists et autres parties prenantes.
  12. Connaissance des enjeux de confidentialité et des pratiques de gouvernance des données.
  13. Capacité d’analyse et de résolution de problèmes complexess.