Postée il y a 24 heures
Au delà d'un job, Human Search vous accompagne lors de toutes les étapes jusqu'à l'obtention de votre emploi (des conseils, pour un CV accrocheur et des entretiens percutants).
Notre partenaire, société de conseil IT spécialisé dans l'Hyper automatisation, recherche pour un de ses clients, acteur majeur du secteur bancaire, Un(e) Ingénieur Data - Déploiement et Supervision de NiFi sur Kubernetes (H/F).
Intégrez un acteur majeur du secteur bancaire et rejoignez l'équipe Data Collecte, composée de 8 experts, pour déployer et superviser NiFi dans un environnement Kubernetes sécurisé. Vous évoluerez dans un cadre Agile (Scrum, sprints de 3 semaines), avec 2 jours de télétravail et une mission longue de 3 ans.
Vos missions :
BUILD (90%) - Déploiement et automatisation
- Déployer NiFi de manière sécurisée sur Kubernetes.
- Créer et optimiser des pipelines CI/CD pour automatiser les déploiements.
- Mettre en place des outils de monitoring et d'alerting pour assurer la supervision du système.
- Travailler en mode Agile (Scrum) pour améliorer continuellement les services.
RUN (10%) - Maintenance et suivi
- Surveiller l'état des services (météo du matin).
- Relancer les services en cas d'incident pour assurer la continuité opérationnelle.
Stack technique :
ETL Tools : NiFi 2.x, Databricks, Talend, IBM StreamSets, IBM DataStage, dbt
DEVOPS : Helm, Jenkins, GitLab CI, GitHub Actions, ArgoCD
Kubernetes : Sécurité, administration et première expérience requise
Supervision & Alerting : Dynatrace, ELK (première expérience appréciée)
Langages : Java et Groovy
Technologies associées : Kafka, Kafka Connect, Openshift
Cloud Storage : IBM Cloud Object Storage, AWS S3, MinIO, Azure Blob Storage, Google Cloud Storage
Méthodologie : Agile (Scrum, sprints de 3 semaines)
Pourquoi nous rejoindre ?
Un projet stratégique avec un challenge technique fort (déploiement sécurisé de NiFi).
Un cadre de travail équilibré, avec 2 jours de télétravail et pas d'astreinte.
Une mission de longue durée (3 ans) dans un environnement bancaire stable et innovant.
Le poste est à pourvoir sur Montreuil et la tranche de salaire se situe entre 55 et 65 K€.
Expérience en DEVOPS et Data Engineering, avec une bonne maîtrise du déploiement d'outils ETL comme NiFi sur Kubernetes.
Compétences en CI/CD, avec une expérience sur Jenkins, GitLab CI, GitHub Actions, ArgoCD.
Bonne compréhension des architectures cloud et du stockage distribué (IBM Cloud Object Storage, AWS S3, MinIO, Azure Blob, Google Cloud Storage).
Une connaissance des langages Java et Groovy pour adapter et optimiser les workflows.
Expérience en monitoring et alerting via Dynatrace, ELK pour assurer la supervision des services.
Première expérience avec Kafka et Kafka Connect, ainsi que Kubernetes et Openshift.
Aisance avec les méthodologies Agile (Scrum) et le travail en équipe dans des cycles de développement courts (sprints de 3 semaines).
Autonomie, esprit analytique et rigueur pour gérer des infrastructures critiques.
Bonus : Une expérience en sécurisation de Kubernetes et en optimisation des performances serait un plus.
Expérience en DEVOPS et Data Engineering, avec une bonne maîtrise du déploiement d'outils ETL comme NiFi sur Kubernetes.
Compétences en CI/CD, avec une expérience sur Jenkins, GitLab CI, GitHub Actions, ArgoCD.
Bonne compréhension des architectures cloud et du stockage distribué (IBM Cloud Object Storage, AWS S3, MinIO, Azure Blob, Google Cloud Storage).
Une connaissance des langages Java et Groovy pour adapter et optimiser les workflows.
Expérience en monitoring et alerting via Dynatrace, ELK pour assurer la supervision des services.
Première expérience avec Kafka et Kafka Connect, ainsi que Kubernetes et Openshift.
Aisance avec les méthodologies Agile (Scrum) et le travail en équipe dans des cycles de développement courts (sprints de 3 semaines).
Autonomie, esprit analytique et rigueur pour gérer des infrastructures critiques.
Bonus : Une expérience en sécurisation de Kubernetes et en optimisation des performances serait un plus.