Cherry Pick

Contractor job Data Platform Engineer

Paris

Cherry Pick

Job position

Contractor
25/01/2026
12 months
600-650 €
5 to 10 years experience
Hybrid
Paris, France
Published on 19/01/2026

Share this job

Objectifs

Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists.
Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances.

Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs.

Missions principales1. Support technique :
  • Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes.

  • S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …).

  • Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale.

2. Évangélisation :
  • Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants.

  • Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data.

3. Montée en compétences des équipes :
  • Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles.

  • Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform.

  • Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme.

4. Boucle de feedback :
  • Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme.

  • Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams.

  • Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte.

Qualifications / Compétences requises
  • Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité.

  • Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout.

  • Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente.

  • Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python).

  • Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement.

  • Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés.

  • Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif.

  • Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français.

Atouts supplémentaires :
  • Expérience en développement produit agile et en méthodologie Scrum.

  • Expérience de migration de pipelines data vers le cloud.

  • Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud.

Environnement technologique :
  • AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …

  • Data engineering : Airflow, Parquet, Apache Iceberg

  • DevOps : Jenkins, SonarQube, Conda

  • Logiciels : Python, Ruff

Candidate profile

Qualifications / Compétences requises
  • Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité.

  • Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout.

  • Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente.

  • Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python).

  • Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement.

  • Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés.

  • Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif.

  • Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français.

Atouts supplémentaires :
  • Expérience en développement produit agile et en méthodologie Scrum.

  • Expérience de migration de pipelines data vers le cloud.

  • Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud.

Environnement technologique :
  • AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …

  • Data engineering : Airflow, Parquet, Apache Iceberg

  • DevOps : Jenkins, SonarQube, Conda

  • Logiciels : Python, Ruff

Working environment

Qualifications / Compétences requises
  • Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité.

  • Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout.

  • Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente.

  • Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python).

  • Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement.

  • Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés.

  • Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif.

  • Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français.

Atouts supplémentaires :
  • Expérience en développement produit agile et en méthodologie Scrum.

  • Expérience de migration de pipelines data vers le cloud.

  • Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud.

Environnement technologique :
  • AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …

  • Data engineering : Airflow, Parquet, Apache Iceberg

  • DevOps : Jenkins, SonarQube, Conda

  • Logiciels : Python, Ruff

Paris, France
20 - 99 employees
Recruitment agency
Cherry Pick, c’est bien plus qu’une plateforme de recrutement de freelances, nous créons de véritables connexions.Notre plateforme de matching nous permet de mettre en relation des talents avec des entreprises prestigieuses tout en prenant en compte les attentes de chacun. Nous nous assurons que l’adéquation soit parfaite entre les attentes de nos freelances et celles de nos clients grâce à une expertise technique pointue de nos équipes, mais aussi l’IA de notre plateforme. Nous sommes ainsi organisés autour de quatre centres d’expertises : - Management de Projet & de Transition - Transformation Digitale - IT & DevOps - DATA Voici quelques-uns de nos partenaires : TF1, Bouygues, , Monoprix, Enedis, Leboncoin, Worldline, … Cherry Pick est membre du groupe Néo-Soft. Groupe indépendant labellisé Happy At Work et certifié RSE par AFNOR, Néo-Soft regroupe 1700 consultants qui accompagnent les entreprises du CAC-40 et SBF-120 dans leurs projets de transformation digitale. Envie d’en savoir un peu plus ? Discutons-en ensemble !

Apply to this job!

Find your next career move from +1,000 jobs!

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Data Platform Engineer

Cherry Pick

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2026 © Free-Work / AGSI SAS
Follow us