Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Airflow à Paris

Votre recherche renvoie 26 résultats.
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Airflow / Composer

Pickmeup
Publiée le
Apache Airflow
BigQuery
Composer

3 mois
550-700 €
Paris, France
Un client migre sa dataplateforme legacy vers un socle full GCP. L'architecture et le plan sont validés. On recherche un experts polyvalents, moteurs de la migration, pas des exécutants. Vous portez plus spécifiquement l'orchestration du projet. Contexte : Vous rejoignez le pôle plateforme data (5 pôles au total) en binôme avec un autre Data Engineer GCP expert. Vous êtes tous les deux capables de tout couvrir, vous tirez l'équipe, vous posez les standards. Missions - Piloter la migration de l'orchestration vers Cloud Composer 2. - Nettoyer, rationaliser, porter les DAG existants, industrialiser les standards (CI/CD, tests, observabilité). - Orchestrer le cut-over legacy → cible sans double run. - Contribuer à la migration des pipelines BigQuery et à l'IaC Terraform du socle. - Transmettre à l'équipe interne au fil de l'eau. Stack (maîtrise attendue sur l'ensemble) Airflow 2.x, Cloud Composer 2, Python, BigQuery, Terraform, GCS, IAM GCP, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM

3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Freelance

Mission freelance
Ingénieur DevOps de production

Greatskills
Publiée le
Apache Airflow
CI/CD
Grafana

12 mois
360-460 €
75013, Paris, Île-de-France
Dans le cadre du renforcement des équipes de production, notre client recherche un Consultant Systèmes de Production afin d’assurer la supervision, l’exploitation et l’automatisation des environnements IT critiques. La mission s’inscrit dans un contexte de forts enjeux de disponibilité, de performance et de sécurité. Objectifs de la mission Garantir la disponibilité et la performance des systèmes de production Assurer une supervision efficace des infrastructures et applications Automatiser les tâches récurrentes et améliorer les processus d’exploitation Contribuer à la fiabilité des flux applicatifs et des échanges de données R esponsabilités principales Mise en œuvre, administration et optimisation de la supervision via Zabbix et Grafana CI/CD Deploy (XLD) + Release (XLR) Création et maintenance de tableaux de bord, alertes et indicateurs de performance Analyse et résolution des incidents de production (N2 / N3) Rédaction et mise à jour de la documentation d’exploitation Contribution à l’amélioration continue des processus (industrialisation, automatisation) Compétences techniques requises Supervision : Zabbix / Grafana Orchestration de Workflow : Airflow / Windmill Ordonnanceur : Control-M, Jenkins, … Scripting / Automatisation : Python PowerShell Bash Systèmes : Linux (RedHat, Debian, Ubuntu…) Windows Server (administration) Environnement de travail : Soumis à des astreintes 1 fois le week-end tous les 2 mois
Freelance

Mission freelance
Consultant Python (Software Engineer Applied) PostgreSQL - AWS - Airflow

Celexio
Publiée le
AWS Cloud
Bash
CI/CD

6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Freelance
CDD
CDI

Offre d'emploi
Expert Data Gouvernance H/F

Avanda
Publiée le
Apache Airflow
Collibra
Databricks

12 mois
Paris, France
Nous recherchons, dans le cadre du renforcement des equipes Data Governance d'un de nos clients au rayonnement international, un.e Expert.e Data Governance. Ce poste est base a Paris. Poste ouvert au statut freelance. Au sein de l'équipe Data Governance, l'Expert.e Data Gouvernance interviendra sur l'évolution fonctionnelle et technique du Data Catalog de l'entreprise et son intégration au sein d'un écosystème data & agentic platform en pleine structuration, ainsi que sur des chantiers stratégiques tels que l'AI Governance Framework et la mise en oeuvre d'une démarche Data Quality by Design. Les missions principales Administration, configuration et développement de workflows sur le Data Catalog Collecte et priorisation des besoins utilisateurs Conception et mise en oeuvre des échanges de métadonnées avec la plateforme data (crawling, APIs, connecteurs) Synchronisation avec les équipes architecture Intégration avec le Data Quality Metrics Store Participation au programme Data Contract
Freelance
CDI

Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration

Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance

6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Freelance

Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)

EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
Freelance

Mission freelance
Architecte Data DevOps / FinOps (Expertise GCP)

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

6 mois
650 €
Paris, France
Contexte de la mission Au sein d'une grande entité du secteur de l'énergie, vous interviendrez en tant qu' Architecte Data transverse avec une double expertise DevOps et FinOps . Votre rôle sera stratégique : concevoir des architectures cloud robustes, définir les standards d'urbanisation (Data, IA, MLOps) et piloter l'optimisation des coûts dans un environnement hybride et multi-cloud, avec un focus majeur sur GCP . Missions principales 1. Architecture & Urbanisation Définir les standards d'architecture et les règles d'urbanisation pour les domaines Data, IA, DevOps et MLOps. Concevoir et mettre en œuvre des architectures de données cloud performantes. Rédiger, maintenir et diffuser les bonnes pratiques (Data, On-Premise, Cloud et DevOps). Assurer la gouvernance des modèles et encadrer l'usage des LLM tout en gérant les risques éthiques et réglementaires. 2. Expertise DevOps & MLOps Industrialiser les pipelines de données et de Machine Learning (ML Pipelines). Superviser l'orchestration et la conteneurisation des services. Garantir la mise en œuvre des principes CI/CD et GitOps dans des environnements complexes. 3. Stratégie FinOps & Performance Intégrer les principes FinOps dès la conception (Architecture by design). Optimiser spécifiquement les coûts liés au Cloud et aux ressources GPU (Plan FinOps dédié à l'IA). Définir des modèles de refacturation interne et préconiser les outils de suivi de performance pour superviser les pipelines. Expertise Technique Requise Cloud : Maîtrise avancée de Google Cloud Platform (BigQuery, Composer, Airflow, DataProc, DataFlow). Infrastructure as Code & CI/CD : Terraform, Ansible, Git, Jenkins, GitLab-CI, GitOps, Helm. Conteneurisation : Docker, Kubernetes. Observabilité : ELK, Grafana, Prometheus, Google Monitoring. Environnement : Expérience significative en environnements hybrides (On-premise / Cloud). Modalités pratiques Lieu : Paris – Présence sur site obligatoire 2 à 3 jours/semaine . Date de démarrage : 01/06/2026. Date de fin : 31/12/2026 (Visibilité long terme). Prix d’achat max : 650 € HT / jour.
Freelance

Mission freelance
Un(e) ML Engineer / MLOps Engineer

Keypeople Consulting
Publiée le
Apache Airflow
BigQuery
FastAPI

6 mois
400-500 €
Paris, France
Opportunité -| un(e) ML Engineer / MLOps Engineer – Projet Data & IA en production Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur , nous recherchons un(e) ML Engineer confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Vos missions Concevoir, développer et maintenir des pipelines ML robustes et scalables Industrialiser les modèles développés avec les équipes Data Science Déployer les modèles en production et accompagner les A/B tests Mettre en place le monitoring des performances et le contrôle qualité des modèles Exposer les modèles via des API REST Structurer et optimiser le stockage et la circulation des données Développer et maintenir les workflows CI/CD Garantir la stabilité, la sécurité et l’évolutivité des environnements Collaborer avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Python / SQL Google Cloud Platform Vertex AI BigQuery Cloud Run Airflow FastAPI / Flask Terraform GitLab CI/CD TensorFlow / Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur GCP Connaissances MLOps / industrialisation / infrastructure as code Aisance en communication avec des interlocuteurs techniques et métiers Français courant indispensable
CDI
Freelance

Offre d'emploi
Développeur Python / FastAPI

VISIAN
Publiée le
Apache Airflow
FastAPI
pytest

1 an
Paris, France
Objectif : Concevoir et maintenir des services back-end scalables et performants. Responsabilités Développer et optimiser des API (REST) en Python (FastAPI). Concevoir et maintenir des bases de données (PostgreSQL principalement) pour des requêtes performantes. Collaborer avec les équipes DevOps pour automatiser les déploiements (Docker, CI/CD). Intégrer des tests automatisés (pytest) et participer aux revues de code. Contribuer à l'amélioration continue de l'architecture back-end. Stack technique Langages : Python. Bases de données : PostgreSQL, NoSQL. Pipeline de données : Airflow ou autres Outils : Docker, Git, CI/CD, Ansible, Terraform.
CDI
Freelance

Offre d'emploi
Data Engineer Snowflake Sénior (H/F)

Panda Services
Publiée le
Apache Airflow
Azure
CI/CD

6 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique, présente sur le marché depuis plus de 20 ans, réalisant pour ses clients des prestations de haut niveau en assistance technique. Nous sommes à la recherche d’ un(e) Data Engineer Snowflake Sénior, pour l'un de ses clients basé à Paris. Localisation : Paris Contexte de la mission Dans le cadre du renforcement de notre équipe data, nous recherchons un Data Engineer expérimenté pour intervenir sur la conception et l’optimisation de pipelines de données au sein d’une architecture moderne orientée cloud. 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables Modéliser et structurer les données dans Snowflake Assurer l’intégration et la transformation des données via Dataiku Optimiser les performances et les coûts des traitements de données Mettre en place des bonnes pratiques de qualité, gouvernance et sécurité des données Collaborer avec les équipes Data Science, BI et métiers Participer à l’industrialisation des workflows data 🛠️ Compétences techniques requises Excellente maîtrise de Snowflake (data warehouse cloud) Expérience confirmée sur Dataiku (DSS) Bonne maîtrise de SQL et des concepts de modélisation de données Expérience avec des outils ETL / ELT Connaissance des environnements cloud (AWS, Azure ou GCP) Maîtrise de Python appréciée Expérience en CI/CD et data pipelines (Airflow, dbt est un plus) 👤 Profil recherché Minimum 7 ans d’expérience en Data Engineering Forte capacité d’analyse et de résolution de problèmes Autonomie et proactivité Bon relationnel et capacité à travailler en équipe Expérience en environnement agile
Freelance

Mission freelance
Data Engineer -CLOUD GOOGLE-

DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS

VISIAN
Publiée le
Apache Airflow
API
AWS Cloud

3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Freelance
CDI

Offre d'emploi
Développeur Python Backend

VISIAN
Publiée le
Apache Airflow
API REST
FastAPI

1 an
40k-70k €
500-650 €
Paris, France
Responsabilités Développer et optimiser des API (REST) en Python (FastAPI) Concevoir et maintenir des bases de données (PostgreSQL principalement) pour des requêtes performantes Collaborer avec les équipes DevOps pour automatiser les déploiements (Docker, CI/CD) Intégrer des tests automatisés (pytest) et participer aux revues de code Contribuer à l'amélioration continue de l'architecture back-end Compétences clés attendues Forte capacité de collaboration Autonomie pour définir et structurer les fondations d'un système d'envergure Expérience en modélisation et optimisation de bases de données fortement appréciée Capacité à concevoir une architecture robuste et évolutive
Freelance

Mission freelance
Applied Scientist (IA)

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

6 mois
400-670 €
Paris, France
En tant qu'Applied Scientist, vous êtes la force motrice de la phase de recherche et de développement des modèles d'IA, en assurant l'alignement entre les avancées technologiques et les objectifs stratégiques de l'entreprise. Responsabilités clés 1. Recherche et développement de modèles IA/ML (Phase de recherche) : Mener la recherche, l'évaluation et l'expérimentation de modèles d'IA et d'apprentissage automatique (par exemple, Deep Learning pour la recommandation, Gen-AI, NLP/Vision pour la recherche) afin de résoudre des problèmes commerciaux complexes. Sélectionner les sources de données appropriées et déterminer les indicateurs clés à suivre et à optimiser Développer des prototypes et prouver la faisabilité ainsi que l'impact attendu des concepts avant leur industrialisation. 2. Collaboration et industrialisation (Phase de déploiement) : Travailler en étroite collaboration avec les ingénieurs en apprentissage automatique (MLE) pour garantir que les modèles développés sont robustes, évolutifs et prêts pour le déploiement en production. Contribuer activement à la phase de déploiement et d'intégration des modèles dans l'architecture technique (Snowflake, AWS). 3. Suivi et amélioration continue : Participer au suivi des modèles en production, en se concentrant sur la détection des dérives (drift) et la dégradation des performances. Concevoir et proposer des itérations (tests A/B) pour optimiser en continu les performances des produits d'IA. 4. Expertise et transmission des connaissances : Assurer une veille technologique constante sur les avancées en IA/ML. Documenter et partager les connaissances et les meilleures pratiques au sein de l'équipe et avec les autres parties prenantes (Chefs de produit, Métier).
CDI
Freelance

Offre d'emploi
Data intégration Senior (H/F)

1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes

12 mois
Paris, France
Contexte : Dans le cadre de la construction du datalake des équipes Group Digital & IT International Cybersécurité de notre client, nous recherchons un(e) Consultant Data Integration Senior . Missions : Organiser et piloter votre activité ainsi que celle d’un consultant junior Garantir le respect des délais, de la qualité de livraison et des bonnes pratiques Assurer une communication claire et régulière sur l’avancement Concevoir et implémenter les flux d’ingestion de données (API, SFTP, DB) Développer et orchestrer les pipelines avec Azure Data Factory Alimenter et structurer le datalake dans Snowflake Concevoir des modèles de données (tables de faits, dimensions) Préparer les données pour les usages analytiques et le reporting Collaborer à la restitution via Power BI Participer à la mise en place de futures briques techniques telles que Apache Airflow (via Astronomer) et DBT Contribuer à l’amélioration continue de l’architecture data Comprendre les enjeux cybersécurité (gestion des assets, conformité, outils de sécurité) Exploiter les données issues des outils cyber pour produire des indicateurs pertinents Compétences techniques: Expertise sur Snowflake (modélisation, performance, structuration) Maîtrise de Azure Data Factory Bonne expérience en modélisation décisionnelle (schémas en étoile : faits/dimensions) Expérience en intégration de données multi-sources (API, SFTP, bases de données) Bon niveau en SQL Appréciées Expérience avec Power BI Connaissance de Apache Airflow (ou Astronomer) Notions ou expérience avec DBT Connaissance des environnements cloud Azure
26 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous