Data Engineer DevOps Senior Elastic

    Retour à la recherche

    Data Engineer DevOps Senior Elastic - Entreprise non communiquée

    Mission terminée

    Ref: T-50234 - Publiée le 10 janv. 2026

    • Localisation

      Région de Montpellier

    • TJM

      Selon profil

    • Part de télétravail

      2j / semaine

    • Expérience minimum

      6 à 8 ans (Senior)

    • Date de démarrage

      ASAP

    Contexte et description de la mission

    En tant que Platform Engineer, au cœur du dispositif d’ingénierie de plateforme, aura un rôle clé dans la construction, l’évolution et la sécurité et l’opérabilité de notre stack technique. Dans une logique Platform-As-A-Product pour mettre à disposition des équipes internes (devs, ops, data, etc…) un environnement cohérent, standardisé et automatisé, en production.

    Voici les principales responsabilités :

    1. Automatiser & Industrialiser l’infrastructure
  1. Maintenir et faire évoluer l’infrastructure virtualisée et conteneurisée (VMs, Kubernetes).
  2. Implémenter des workflow GitOps robustes avec ArgoCD, Gitlab CI et Ansible.
  3. Gérer le cycle de vie des environnements techniques (dev, test, recette, prod),
    depuis le provisionning jusqu’à la décommissions.

    2. Support les équipes via la plateforme
  4. Accompagner les équipes tech dans l’onboarding, l’usage des outils, le déploiement des applications.
  5. Assurer un support niveau plateforme, incluant le diagnostic, l’amélioration continue et la documentation claire.
  6. Participer à la co-construction des « golden paths» pour les cas d’usage récurrents (déploiement, logs, monitoring, intégration).

    3. Concevoir des abstractions réutilisables
  7. Créer des blueprints, templates et modules pour accélérer les déploiements et éviter les duplications.
  8. Maintenir un portail interne de la plateforme, pour exposer ces composants, documentations, et automatisations.

    4. Assurer la sécurité et la conformité
  9. Intégrer les exigences de CyberAct et autres réglementation de sécurité dans les pipelines et l’infrastructure.
  10. Automatiser les contrôles de conformité (analyse d’images, gestion des secrets, règles de sécurité Kubernetes, audit trail)
  11. Participer à la mise en œuvre des politiques de contrôle d’accès et à leur revue régulière.

    5. Fiabiliser la plateforme
  12. Travailler sur la résilience, l’automatisation des redémarrages, la capacité à rollback, et la haute disponibilité.
  13. Contribuer au traitement des incidents, aux post-mortems et à la réduction du MTTR.
  14. Participer à la définition et au suivi d’indicateurs de performance SLOs, taux de succès des déploiements, couverture, IaC, etc.)

    6. Collaborer en transverse
  15. Travailler main dans la main avec le Product Owner pour prioriser les évolutions de la plateforme.
  16. Contribuer aux choix d’architecture, d’outillage et à l’orientation technique des services internes.
  17. Documenter de manière structurée, pédagogique et à jour.

    Dans un contexte d’une production informatique, nous exploitons la solution d’Elastic au travers de 4 plateformes Elastic Cloud Enterprise avec 600 machines virtuelles dont 400 déploiements de la Stack Elastic.

    Cet ensemble se décompose 2 000 instances Elasticsearch, 700 instances Kibana, 70 instances APM et 600 instances Logstash pour une volumétrie de 15 Tb/j.

    Le développement de cette plateforme Elastic est faite au travers une chaine de fabrication permettant à l’équipe de développer les projets avec du versionning control (Git), de la CI et du déploiement via Ansible. Nous étudions aussi la possibilité de transformer le développement de cette plateforme pour un déploiement dans des plateformes Kubernetes.

    L’environnement technique est interconnecté à un ensemble de plateforme complexe tels que :
  18. Plateforme Streaming
  19. Plateforme d’orchestration de conteneurs
  20. Plateforme de virtualisation
  21. Applications critiques


    Nous exploitons la solution Grafana au travers de 4 plateformes avec 6 000 utilisateurs dont 2 000 utilisateurs mensuels sur l’environnement de production.

    Cet ensemble se décompose de 3800 tableaux de bord, 650 sources de données, 600 alertes.

    Le développement de cette plateforme Grafana est faite au travers une chaine de fabrication permettant à l’équipe de développer les projets avec du versionning control (Git), de la CI et du déploiement via ArgoCD. L’orchestration de la plateforme est réaliser par une offre Kubernetes.

    L’environnement technique est interconnecté à un ensemble de plateforme complexe tels que :
  22. Plateforme d’orchestration de conteneurs
  23. Applications critiques

    Compétences minimales requises :
  24. Expertise du Platform Engineering
  25. Expertise des outils de fabrication, Git, Gitlab, Gitlab CI, Ansible, ArgoCD, HELM
  26. Bonnes connaissances dans le développement Python et de la plateforme Kubernetes
  27. Maitrise de la culture DevOps et des pratiques SRE
  28. Bonnes connaissances système et réseaux
  29. Maitrise de l’anglais professionnel