Mission
- Développer et maintenir des solutions data en Python (batch) pour des workflows cloud, avec un focus sur Azure (Datalake, Kubernetes).
- Traiter des données via des technologies comme Parquet, Pandas, PyArrow, et Spark pour des pipelines robustes.
- Assurer l’intégration technique de besoins fonctionnels et analyser leur impact sur l’existant.
- Contribuer à des scripts Bash/Shell pour l’automatisation de tâches.
- Collaborer avec les équipes via Git/GitHub et des outils de gestion de projet comme Jira.
- Participer à la documentation technique et aux bonnes pratiques de qualité logicielle.
Environnement technique clé :
- Cloud Azure (Datalake, Kubernetes), Python (batch), Spark, Parquet, Pandas/PyArrow, Bash.
- Outils : Git/GitHub, Jira.
Profil Recherché
Compétences Techniques Requises
- Langages/Outils :
- Python (niveau expert, 100% orienté data : traitement batch, ETL).
- Cloud Azure (Datalake, Kubernetes) : niveau autonome.
- Parquet, Pandas, PyArrow, Spark : maîtrise avancée.
- Bash/Shell Scripting (base : exécution de commandes).
- Git/GitHub : niveau autonome.
- Cloud et Big Data :
- Expérience avérée dans la construction/maintenance de workflows cloud (Azure idéalement).
- Manipulation de données structurées (Parquet) et optimisation de pipelines.
- Bonnes Pratiques :
- Connaissance des tests unitaires (base).
- Capacité à documenter et maintenir des solutions techniques.
Savoir-Être
- Communication : Travailler en équipe, partager des idées claires.
- Esprit d’analyse : Comprendre des besoins complexes et les traduire en solutions techniques.
- Autonomie et Force de Proposition : Être proactif pour résoudre des problèmes techniques.
- Organisation : Respecter les délais et prioriser les tâches.
Langues
- Anglais : Niveau autonome (lu, écrit, parlé).
Atouts (Facultatifs)
- Connaissance de Postman, Github Actions, ou méthodologies Agile/Scrum.
- Expérience avec Confluence ou Service Now.