Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Airflow à Paris

Votre recherche renvoie 26 résultats.
Freelance

Mission freelance
Data Engineer Spark / Hadoop – Data & Analytics

Datapy
Publiée le
Apache Spark
Cloudera
Hadoop

12 mois
550-750 €
Paris, France
Nous recherchons un Data Engineer pour intervenir chez un acteur majeur du secteur public , dans le cadre du développement de sa plateforme Data & Analytics . Vous évoluerez sur des problématiques de traitement de données à grande échelle , avec des enjeux forts autour de la qualité, de la gouvernance et de la valorisation de la donnée . Missions Développer et maintenir des pipelines de données Big Data Mettre en place des traitements distribués avec Spark Structurer les données dans un DataLake / DataWarehouse Assurer la qualité, la fiabilité et la traçabilité des données Réaliser des analyses de données avancées Construire et suivre des KPI métiers Participer à la valorisation des données pour les équipes métier Contribuer à des cas d’usage type : analyse de parcours détection d’anomalies segmentation de données Optimiser les performances des traitements Environnement technique Spark / PySpark Hadoop (HDFS, Hive…) Airflow Python SQL Git / CI-CD Environnement DataLake
CDI
Freelance

Offre d'emploi
ML Engineer/ MLOPS Engineer

Panda Services
Publiée le
API
BigQuery
CI/CD

12 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique. Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur, nous recherchons un(e) ML Engineer/ MLOPS Engineer Confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Localisation = Paris Projet Data & IA en production 🎯 Vos missions Au cœur de la chaîne de valeur Data & IA, vous interviendrez sur : La conception, le développement et la maintenance de pipelines ML robustes et scalables L’ industrialisation des modèles en collaboration avec les équipes Data Science Le déploiement en production des modèles et l’accompagnement des phases d’A/B testing La mise en place de solutions de monitoring (performance, dérive, qualité des modèles) L’ exposition des modèles via des API REST L’optimisation du stockage, de la circulation et de la gouvernance des données Le développement et la maintenance des workflows CI/CD La garantie de la stabilité, sécurité et scalabilité des environnements La collaboration étroite avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Vous évoluerez dans un stack moderne orienté cloud : Langages : Python, SQL Cloud & Data : Google Cloud Platform (GCP), Vertex AI, BigQuery, Cloud Run Orchestration & APIs : Airflow, FastAPI, Flask CI/CD & Infra : GitLab CI/CD, Terraform Machine Learning : TensorFlow, Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur Google Cloud Platform (GCP) Bonnes connaissances en MLOps, industrialisation et Infrastructure as Code Capacité à interagir avec des interlocuteurs techniques et métiers
Freelance
CDI

Offre d'emploi
Développeur FullStack Senior sur Paris

EterniTech
Publiée le
API REST
Gitlab
JIRA

3 mois
Paris, France
Nous recherchons un Développeur Full Stack talentueux sur Paris pour rejoindre l'équipe Hub du programme NRG. Ce programme innovant se concentre sur l'alimentation d'un datalake avec des données provenant de nos parcs de production d'énergies renouvelables, le traitement de ces données pour générer des insights et la présentation des résultats sous forme de dashboards accessibles à tous. Le Développeur Full Stack travaillera spécifiquement sur les applications front du programme, qui comprennent des outils de saisie pour le back office, des paramétrages des data models, ainsi qu'un portail de datavisualisation. Expertise souhaitée : Compétences Frontend : Maîtrise de React et de Material UI pour le développement d'interfaces utilisateur réactives. Compétences Backend : -Expérience solide avec TypeScript et Node.js pour la création de microservices. -Familiarité avec Docker pour le déploiement d'applications. Environnement Cloud : Compréhension des services AWS (EC2, S3, Lambda) pour l'hébergement et la gestion des applications. Méthodologies Agiles : Expérience avec les méthodes Scrum et SAFe pour la gestion de projets. Compétences en Communication : Excellentes aptitudes à la communication et à la collaboration au sein d'une équipe. Qualités Personnelles : Autonomie, proactivité et volonté d'apprendre en continu. Mobilité : prestation sur Paris sans déplacements en province. Possible d'avoir un prestataire en province, mais il devra être disponible pour participer aux PIP sur Paris tous les trimestres Compétences : Technologies et Outils : Swagger JIRA API REST Redux React.js SQL Alchemy Node JS TypeScript PostgreSQL SonarQube Redis Airflow Gitlab Méthodes / Normes : SAFe Agile UML Kanban Scrum Soft skills : Autonomie / Curiosité / Créativité / Travail en équipe Langues : Français / Anglais Secteurs d'activités : Edition de logiciels / Conseil en organisation, stratégie Energie Expérience : 8 ans mini
Freelance

Mission freelance
Développeur Technos Classiques

Codezys
Publiée le
API
Automatisation
Conception

12 mois
390-400 €
Paris, France
Automatisation et exploitation de la donnée Interventions sur la conception, le développement et la mise en œuvre de scripts et composants avancés pour la gestion efficace des données : Agrégation de données provenant de sources hétérogènes telles que les outils de planification, référentiels, systèmes de production, pour obtenir une vision consolidée. Développement de traitements automatisés pour la collecte, le nettoyage, la consolidation, l’historisation en temps réel ou périodiquement. Analyse du planifié vs réalisé pour identifier retards, dérives ou anomalies en temps réel ou lors de revues mensuelles. Mécanismes de snapshots pour suivre l’évolution des écarts et indicateurs clés dans le temps, facilitant l’analyse historique. Production d’indicateurs et statistiques pour le pilotage stratégique et opérationnel, avec dashboards dynamiques et personnalisés. Logs, APIs et industrialisation Participation à la conception de solutions techniques robustes, évolutives et réutilisables : Base de données centralisée pour les logs, favorisant traçabilité et résolution rapide des incidents. Développement d’APIs RESTful ou SOAP pour échanges sécurisés de données entre équipes et applications. Automatisation des flux de données avec outils d’orchestration comme Apache Airflow ou Jenkins pour fiabilité et prévisibilité. Industrialisation des traitements : fiabilisation, monitoring et scalabilité dans environnements cloud ou on-premise. Conformité, normes et qualité du parc applicatif Garantir la conformité et la qualité des applications par : Automatisation de l’extraction et de l’analyse des données pour suivre régulièrement la performance via outils d’industrialisation et CI/CD. Analyse des normes réglementaires et internes avec détection automatique d’anomalies ou écarts aux bonnes pratiques. Stockage sécurisé et historisation des résultats pour assurer un suivi long terme, facilitant audits et traçabilité. Indicateurs “thermomètres” pour mesurer la maturité, l’homogénéité et la qualité du parc applicatif, en vue d’une amélioration continue.
Freelance
CDI

Offre d'emploi
📩 Data Engineer / DevOps – Data Platform

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Freelance

Mission freelance
Data Engineer

Hanson Regan Limited
Publiée le
Apache NiFi
Cloudera
Hadoop

12 mois
500-650 €
Paris, France
Hanson Regan recherche un Data Engineer pour une mission 12 mois renouvelable, basée à Paris Données en anglais : Compétences: -Hadoop Cloudera - Flux de travail / injection - Outils de visualisation - Pipeline Longue liste : Les outils d’ingestion de données : NiFi Les outils de stockage de données : HDFS, CEPH Les outils d’ordonnancement des jobs : Airflow Les outils de gestion des ressources (CPU, RAM) : YARN Les moteurs et frameworks d’exécution : MapReduce, Spark, TEZ Les langages de développement : Python, Scala Les outils de prototypage/exploration : Jupyter, Dataiku Les outils orientés datamart : Hive, PostgreSQL Les outils de proxyfication (Access) : Knox, HAProxy Les outils d’affichage d’indicateurs et tableau de bord : Grafana, Tableau, Superset, S7 Les outils de sécurité : Kerberos, LDAP, IPA gratuite Les outils d’administration et de gouvernance : ClouderaManager, Ranger Les outils de supervision et d’exploitation (DevOps) : Prometheus, Puppet, Heat, Ansible Les dépôts de binaires : Mirroring des dépôts issus du web HTTP pour les applications tiers. Merci de nous contacter au plus vite si vous êtes intéressé ou si vous connaissez une personne correspondant à ce profil
CDD
CDI
Freelance

Offre d'emploi
 Ingénieur Marchine Learning (ML)

KEONI CONSULTING
Publiée le
Gitlab
Python
SQL

18 mois
20k-60k €
100-500 €
Paris, France
Contexte La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateur et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la mission consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience dans un environnement data / machine learning Expériences dans le déploiement en production de modèles de machine learning Expériences sur la Google Cloud Platform Expériences avec des technologies de type Flask ou FastAPI Maîtrise des langages Python et SQL Solides connaissances en data : structures de données, code, architecture Connaissances de l’infrastructure-as-code (Terraform) Connaissances du Machine Learning, des concepts liés à l’IA Connaissances des technologies liées à l’IA : tensorflow, sklearn etc Connaissances de Gitlab et Gitlab CI/CD Capacité à vulgariser et à communiquer sur des aspects purement techniques Pratique des méthodes Agile : de préférence Scrum ou Kanban
CDI

Offre d'emploi
Ingénieur Infrastructure H/F

Le Groupe SYD
Publiée le
Ansible
Bash
ClickHouse

45k-55k €
Paris, France
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Infrastructure H/F 📍 Lieu : Paris (75) 🏠 Télétravail : 3 jours sur site par semaine 📝 Contrat : CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur financier , engagé dans la modernisation, la sécurisation et l’industrialisation de ses plateformes Data à grande échelle. En tant qu’ Ingénieur Infrastructure tu interviens sur le maintien en conditions opérationnelles, l’évolution technologique et la performance d’environnements Data complexes (CDP 7.1.x, Hadoop, stockage distribué, ingestion API…). 🎯 Tu auras pour missions de : Tu auras pour missions de : Recueillir les besoins métiers. Développer l’ingestion (API) et concevoir les stockages (Ozone, Hadoop…). Automatiser les traitements (batchs/pipelines). Nettoyer, transformer et structurer les données. Documenter les bases et garantir la conformité RGPD. Assurer la maintenance corrective/évolutive. Déployer et industrialiser les modèles ML. Assurer validation, monitoring et robustesse. Participer au design, à l’installation et à la qualification des plateformes. Contribuer à l’industrialisation continue. Support aux équipes métiers/applicatives/infra. Communication régulière au chef de projet. Astreintes + interventions HNO. Amplitude équipe : 8h–19h. 🧰 Stack technique : Cloudera CDP 7.1.x : HBase, Hive, Kafka, Solr, Knox, Spark, Ranger, Zookeeper, Kerberos, LDAP Systèmes : RedHat 8, RedHat 9 Langages & DevOps : Python, Bash, Java, Maven, Gradle, Ansible, DevOps Stockage & Data : Ozone, Hadoop, Druid, Clickhouse Traitement & orchestration : Airflow, Flink, Trino, Starburst Containers : Openshift, Kubernetes (K8s), Cloudera Data Services Autres : écosystème Apache, automatisation, migration clusters Hadoop
CDI

Offre d'emploi
Lead AI Engineer

ANDEMA
Publiée le
AI
GenAI
Large Language Model (LLM)

60k-75k €
Paris, France
Dans le cadre d’un projet stratégique Data & IA, nous accompagnons l’un de nos clients, acteur tech à fort enjeu produit, dans le recrutement d’un Lead AI Engineer. Le rôle Le Lead AI Engineer est responsable de la conception, du développement et du déploiement de solutions IA à forte valeur métier. À la fois référent technique IA et acteur clé du delivery, il combine une posture très hands-on avec une vision produit / ROI, en lien étroit avec les équipes métier, produit et la direction. Vos responsabilités 1. Conception & développement de solutions IA (cœur du poste) Concevoir et développer des solutions IA avancées : LLM & GenAI (RAG, MCP, agents, workflows IA, fine-tuning si nécessaire) Modèles de scoring, recommandation, prédiction, classification Développer des solutions robustes, scalables et industrialisées, prêtes pour la production Être très fortement hands-on en développement, principalement en Python Garantir la qualité du code, la performance, la sécurité et la maintenabilité Utiliser des outils d’assistance au développement (ex. Claude Code) 2. Leadership technique & delivery IA Porter les projets IA de bout en bout : cadrage fonctionnel et technique, choix d’architecture, priorisation delivery, mise en production et suivi de la valeur Jouer un rôle de leader technique, sans management hiérarchique direct Être capable d’arbitrer et de prendre des décisions techniques structurantes Structurer le delivery dans une logique produit et ROI, en lien avec le CPTO 3. Interface produit, métier et direction Travailler en proximité avec : les équipes métiers, le produit, les équipes techniques, la direction Traduire des besoins métier complexes en solutions IA concrètes Animer des ateliers de cadrage, restituer les avancées, vulgariser les sujets IA Porter une vision transverse des projets (roadmap, dépendances, risques) 4. Structuration et montée en maturité IA Contribuer à la vision IA globale (choix technologiques, standards, bonnes pratiques) Mettre en place des patterns réutilisables (RAG, pipelines IA, templates projets) Participer à la diffusion de la culture IA Assurer une veille active sur les évolutions IA (LLM, frameworks, usages) Environnement technique Langage : Python (expert) IA / Data : LLM / GenAI, RAG, embeddings, agents Pandas, PySpark (selon cas) Plateforme Data : MinIO, MongoDB, PostgreSQL, ElasticSearch, Airflow, RabbitMQ Infra : Docker, Kubernetes Dataviz / exposition : PowerBI, Metabase Outils : Git, CI/CD, outils d’IA d’assistance au développement
Freelance

Mission freelance
Business Analyst R, Python, SQL client banque basé à Paris/s

WorldWide People
Publiée le
Business Analyst
Python

12 mois
Paris, France
Business Analyst R, Python, SQL client banque basé à Paris, un profil Analyse Business de niveau expert et niveau confirmé. Compétences requises : Prestation : Analyse Business Connaissance des outils analytiques R, Python est indispensable Bonne connaissance des aspects modélisation des bases de données décisionnelles, et du langage SQL Expertise probante dans la mise en place de système décisionnels relevant du domaine de la stabilité financière, données prudentielles Compétences complémentaires (techniques, etc.) SQL, Hive SAS VIYA, Visual Analytics R/Python AirFlow Démarrage ASAP Localisation Paris / Télétravail 2 à 3 jours par semaine Durée de la mission : 2 ans Projet : Assister le product owner et le proxy product owner dans les travaux de préparation de la réalisation ainsi que la conception dans le cadre de la maintenance et des évolutions en mode projet Préparer, co-animer les ateliers d’affinage et de priorisation des besoins métier avec les Utilisateurs métiers, et leur retranscription sous forme de spécifications en épopées/récits utilisateurs, dans la méthodologie Scrum Collecter et participer à la validation des différents documents projets attendus Contribuer aux différents ateliers avec l’ensemble des parties prenantes du projet tant fonctionnel que technique dans la phase de réalisation Contribuer à la conception fonctionnelle des cas d’usage métiers avec les référents Métiers pour la réalisation et leur formalisation sous forme de récits utilisateurs ; réalisation de la recette fonctionnelle à l’appui de cas de tests qui auront été préalablement formalisés ; formalisation de la communication aux utilisateurs métiers et appui à la formation des Utilisateurs Participer aux travaux de l’escouade en mode agile Participer à la remise et à la validation des différents livrables du projet Contribuer aux activités de support à la production Contribuer aux activités de conduite de changement des utilisateurs métiers Compétences requises : Prestation : Analyse Business Connaissance des outils analytiques R, Python est indispensable Bonne connaissance des aspects modélisation des bases de données décisionnelles, et du langage SQL Expertise probante dans la mise en place de système décisionnels relevant du domaine de la stabilité financière, données prudentielles Compétences complémentaires (techniques, etc.) SQL, Hive SAS VIYA, Visual Analytics R/Python AirFlow

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

26 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous