Cherry Pick

Mission freelance Data Platform Engineer

Paris

Cherry Pick

Le poste

Freelance
25/01/2026
12 mois
600-650 €⁄j
5 à 10 ans d’expérience
Télétravail partiel
Paris, France
Publiée le 19/01/2026

Partager cette offre

Objectifs

Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists.
Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances.

Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs.

Missions principales1. Support technique :
  • Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes.

  • S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …).

  • Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale.

2. Évangélisation :
  • Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants.

  • Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data.

3. Montée en compétences des équipes :
  • Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles.

  • Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform.

  • Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme.

4. Boucle de feedback :
  • Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme.

  • Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams.

  • Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte.

Qualifications / Compétences requises
  • Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité.

  • Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout.

  • Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente.

  • Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python).

  • Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement.

  • Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés.

  • Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif.

  • Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français.

Atouts supplémentaires :
  • Expérience en développement produit agile et en méthodologie Scrum.

  • Expérience de migration de pipelines data vers le cloud.

  • Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud.

Environnement technologique :
  • AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …

  • Data engineering : Airflow, Parquet, Apache Iceberg

  • DevOps : Jenkins, SonarQube, Conda

  • Logiciels : Python, Ruff

Profil recherché

Qualifications / Compétences requises
  • Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité.

  • Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout.

  • Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente.

  • Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python).

  • Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement.

  • Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés.

  • Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif.

  • Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français.

Atouts supplémentaires :
  • Expérience en développement produit agile et en méthodologie Scrum.

  • Expérience de migration de pipelines data vers le cloud.

  • Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud.

Environnement technologique :
  • AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …

  • Data engineering : Airflow, Parquet, Apache Iceberg

  • DevOps : Jenkins, SonarQube, Conda

  • Logiciels : Python, Ruff

Environnement de travail

Qualifications / Compétences requises
  • Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité.

  • Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout.

  • Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente.

  • Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python).

  • Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement.

  • Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés.

  • Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif.

  • Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français.

Atouts supplémentaires :
  • Expérience en développement produit agile et en méthodologie Scrum.

  • Expérience de migration de pipelines data vers le cloud.

  • Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud.

Environnement technologique :
  • AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …

  • Data engineering : Airflow, Parquet, Apache Iceberg

  • DevOps : Jenkins, SonarQube, Conda

  • Logiciels : Python, Ruff

Paris, France
20 - 99 salariés
Cabinet de recrutement / placement
Cherry Pick, c’est bien plus qu’une plateforme de recrutement de freelances, nous créons de véritables connexions.Notre plateforme de matching nous permet de mettre en relation des talents avec des entreprises prestigieuses tout en prenant en compte les attentes de chacun. Nous nous assurons que l’adéquation soit parfaite entre les attentes de nos freelances et celles de nos clients grâce à une expertise technique pointue de nos équipes, mais aussi l’IA de notre plateforme. Nous sommes ainsi organisés autour de quatre centres d’expertises : - Management de Projet & de Transition - Transformation Digitale - IT & DevOps - DATA Voici quelques-uns de nos partenaires : TF1, Bouygues, , Monoprix, Enedis, Leboncoin, Worldline, … Cherry Pick est membre du groupe Néo-Soft. Groupe indépendant labellisé Happy At Work et certifié RSE par AFNOR, Néo-Soft regroupe 1700 consultants qui accompagnent les entreprises du CAC-40 et SBF-120 dans leurs projets de transformation digitale. Envie d’en savoir un peu plus ? Discutons-en ensemble !

Postulez à cette offre !

Trouvez votre prochaine mission parmi +8 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Data Platform Engineer

Cherry Pick

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous