Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Airflow à Paris

Votre recherche renvoie 21 résultats.
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Freelance

Mission freelance
Responsable DevOps

Publiée le
Apache Airflow
Apache Spark
AWS Cloud

12 mois
400-620 €
Paris, France
Le Responsable DevOps devra encadrer et animer une équipe DevOps. Vous jouerez un rôle clé dans la gestion des produits et plateformes d’infrastructure en assurant leur disponibilité, leur performance, leur évolutivité, leur gestion de l’obsolescence, leur capacité et la maitrise des coûts OnPremise, Cloud ou hybride. Rattaché(e) au responsable de l’entité, vous serez responsable hiérarchique d’une équipe d’une vingtaine de personnes (collaborateurs et prestataires) de profils techniques devops Cloud Public et On Premise. Dans cette évolution organisationnelle, l’organisation hiérarchique est décorrélée de l’organisation opérationnelle. Le responsable DevOps devra donc travailler et s’organiser de façon transverse et étroite avec les Product Owner, le Product Manager et le responsable de l’entité sysops pour assurer le delivery et atteindre les objectifs en fonction des besoins. L’équipe DevOps de l’entité « Plateforme IT » a la responsabilité du build et du run des produits et plateformes d’infrastructures OnPremise et Cloud public.
Freelance

Mission freelance
Data Architecte H/F

Publiée le
Apache Airflow
Apache Spark
BigQuery

210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Freelance

Mission freelance
ALSL - Tech Manager Data

Publiée le
Apache Airflow
AWS Cloud
Big Data

6 mois
550-620 €
Paris, France
Télétravail partiel
Nous cherchons un Tech Manager Data qui saura allier leadership technique et pilotage stratégique autour d’un sujet clé : l’exploitation des données issues des Property Management Systems. Ces données sont le cœur du fonctionnement : réservations, facturation, occupation, services. Ton rôle ? Les transformer en un actif stratégique fiable, pour booster la performance et la distribution des services. En tant que Tech Manager Data , tu seras : Le leader technique et managérial de deux équipes (internes & partenaires externes). Le chef d’orchestre des projets data PMS : collecte, intégration, fiabilisation et monitoring. Le binôme stratégique du Product Manager Data pour construire la roadmap et prioriser la valeur. Le garant de la fiabilité et de la performance des produits data : monitoring, alerting, optimisation FinOps/DevOps. L’ interface clé entre les équipes métiers, IT et les éditeurs PMS.
Freelance
CDI

Offre d'emploi
DevSecOps H/F

Publiée le
DevSecOps

3 ans
57k-63k €
520-560 €
Paris, France
Télétravail partiel
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Digital. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client stratégique, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Blue Digital. Contexte de la mission : Vous intégrez l'équipe en charge de la Plateforme DevOps/DevSecOps d'un acteur majeur du secteur bancaire et financier . Cette plateforme est un pilier stratégique, supportant actuellement un grand nombre d'applications, d'utilisateurs et de référentiels Git. Le contexte est orienté sur l'intégration des nouveaux services dans l'orchestration de la Chaîne d'Intégration Continue (CI) sur GitlabCI , et sur la facilitation de la migration de Jenkins vers GitlabCI . Vous jouerez un rôle clé dans l'évolution de cette plateforme stratégique pour ses milliers d'utilisateurs développeurs. Descriptif de la mission : En tant qu' Ingénieur DevOps CI/CD , vous serez le garant de la robustesse et de la modernisation de la chaîne d'intégration continue. Vos missions seront : 1. Conception et Développement CI/CD : Étudier les pipelines existants sur GitlabCI et Jenkins . Refactorer le code pour optimiser les performances et la maintenabilité. Développer, créer et maintenir des services CI/CD en Bash, Python, YAML, Groovy pour intégrer divers outils de sécurité, data et CI (exemples : Artifactory, Gitlab, Sonarqube, Fortify, Seeker, JFrog Xray, Starburst, Airflow). Créer et maintenir les images Docker utilisées pour les phases de build . 2. Migration et Évolution de la Plateforme : Faciliter la migration des pipelines de Jenkins vers GitlabCI . Contribuer aux évolutions de la plateforme DevOps (CI) dans une organisation Agile (Scrum). Assurer l'articulation de la CI/CD avec le déploiement ( dev ) et les tests automatisés. 3. Support et Documentation : Réaliser des tests de non-régression et d'intégration. Analyser et résoudre les incidents, et fournir un support au déploiement de la solution auprès des clients (développeurs Java, JS, Python, Angular, PHP, .NET). Rédiger la documentation interne et la documentation utilisateur .
Freelance

Mission freelance
Senior Data Engineer

Publiée le
Google Cloud Platform (GCP)
Python
Terraform

210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance
CDI

Offre d'emploi
Data Engineer AWS / Spark / Scala /Python

Publiée le
Apache Spark
PySpark
Scala

1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
CDI

Offre d'emploi
Cloud Data Engineer

Publiée le
Big Data
Cloud

60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Freelance

Mission freelance
Architecte DATA- Data Architecture

Publiée le
DBT
Python
Terraform

18 mois
110-600 €
Paris, France
Télétravail partiel
CONTEXTE : la Direction Technique a besoin d’être accompagnée sur une prestation d’Architecture Data pour l’ensemble de la Data Platform et des dispositifs associés. MISSIONS Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l’accompagnement des équipes dans les domaines suivants : · Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation Expertises demandées pour la réalisation de la prestation : · Au moins 3 ans d’expérience en tant qu’Architecte Data dans un environnement data · Compétences solides en data : structures de données, code, architecture · Expériences approfondies des meilleures pratiques des architectures en général et data en particulier · Expérience dans la sécurisation d’application dans le Cloud · Expériences dans un environnement du cloud Google (GCP) · Expériences intégrant BigQuery, Cloud Composer (Airflow) et Dataplex Universal Catalog · Expériences intégrant les langages Python et SQL · Expériences intégrant Spark · Expériences intégrant dbt · Expériences intégrant Terraform et Terragrunt
Freelance
CDD
CDI

Offre d'emploi
Consultant Data Databricks (F/H)

Publiée le
Apache Spark
Databricks
DevOps

3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Freelance

Mission freelance
Program PMO / Pilotage Multi-Workpackages (>10)

Publiée le
Gestion de projet

12 mois
530-550 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de transformation IS/IT de grande envergure, notre client lance plusieurs initiatives majeures visant à moderniser l’environnement technologique , industrialiser les modèles de delivery , et accélérer la transition vers le Cloud , tout en renforçant les pratiques Data & DevOps. Ce programme, piloté au niveau exécutif (exposition au Comité IT , reporting consolidé pour le CFO Groupe ), implique un pilotage complexe multi-interlocuteurs , une gouvernance renforcée, et un besoin de structuration précise des activités et de la stratégie associée. Les projets associés portent notamment sur : l’ optimisation des modes de delivery (approche factory / service center), la structuration de nouveaux parcours Data & IT , la modernisation de l’écosystème applicatif , l’ amélioration de la gouvernance et de la performance globale du portefeuille IS/IT, la mise en place de nouveaux partenaires technologiques (via RFP), et la consolidation d’un pilotage global du programme (KPIs, OKR, business case). Afin d’accompagner ce changement, nous recherchons trois profils PMO expérimentés capables d’intervenir sur des périmètres complémentaires : gouvernance globale, pilotage multi-workpackages, et structuration d’un nouveau projet incluant une procédure de sourcing. Missions principales Coordonner et animer 15 workpackages du projet. Suivre le planning, le budget et la qualité des livrables. Identifier, piloter et atténuer les risques projet. Gérer la livraison des partenaires externes, suivre leurs livrables, faire le suivi qualité. Mettre en place et maintenir un reporting projet clair et structuré. Préparer les supports de pilotage pour les instances de gouvernance & comités (incluant Steering Committees). Compétences techniques essentielles 1. Suivi projet avancé Planification (MS Project, Smartsheet ou équivalent) Suivi budgétaire, contrôle des coûts Gestion des risques / plan d’actions (matrices, scoring, mitigation) 2. Connaissances techniques Data & intégration Architecture Data (compréhension des data pipelines, ingestion, transformation) Architecture applicative & intégration Connaissance des environnements ETL / orchestrateurs Bonus : Dataiku, Talend, Apache Airflow 3. Reporting opérationnel Conception de dashboards KPIs Structuration de reportings projet pour comité de pilotage Production de synthèses claires (PowerPoint, Confluence)
Freelance
CDI

Offre d'emploi
Machine Learning Engineering

Publiée le
Agile Scrum
Big Data
CI/CD

12 mois
40k-48k €
500-570 €
Paris, France
Télétravail partiel
Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. La prestation de l'équipe : Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues : En interaction avec les membres de l’équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Freelance

Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)

Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Freelance

Mission freelance
[SCH] Architecte GCP - 1064

Publiée le

10 mois
350-450 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de modernisation et centralisation des données RH, le client recherche un Architecte Google Cloud Platform (GCP) expérimenté pour concevoir, déployer et accompagner la mise en place d’une plateforme Data RH unifiée. L’objectif est de fiabiliser, gouverner et valoriser les données RH au sein d’un environnement GCP à forte volumétrie. Missions principales : -Concevoir et documenter l’architecture GCP (BigQuery, Cloud Composer, Storage, IAM, Dataflow…). -Accompagner les équipes Data et RH sur la migration, intégration et fiabilisation des flux de données existants. -Piloter la mise en œuvre des pipelines ETL/ELT et orchestrations avec Cloud Composer / Airflow. -Assurer la sécurité, la gouvernance et la qualité des données dans le respect des standards du groupe. -Contribuer à l’industrialisation des environnements (Terraform, CI/CD). -Coacher les équipes internes sur les bonnes pratiques GCP et l’usage de BigQuery pour les reporting RH. -Participer aux rituels agiles (daily, sprint review, backlog grooming). Objectifs & livrables attendus : -Architecture GCP validée et documentée (DAT, DEX, schémas d’intégration). -Mise en place de la plateforme Data RH (BigQuery, Composer, GCS). -Pipelines automatisés et sécurisés pour la collecte, transformation et exposition des données RH. -Accompagnement des équipes jusqu’à la stabilisation et passage en RUN. Profil recherché : - +8 ans d’expérience en architecture data / cloud, dont 3+ sur GCP. -Maîtrise approfondie des composants BigQuery, Cloud Composer (Airflow), Cloud Storage, IAM. -Expérience en data engineering / ETL / orchestration. -Connaissance des outils de visualisation type Power BI. -Sensibilité aux enjeux RH et gouvernance des données. -Pratique confirmée de l’agilité (Scrum / SAFe). -Excellent relationnel et capacité à vulgariser les aspects techniques auprès des équipes métiers.
21 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous