Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Airflow

Votre recherche renvoie 82 résultats.
Freelance

Mission freelance
Architecte DATA- Data Architecture

Publiée le
DBT
Python
Terraform

18 mois
110-600 €
Paris, France
Télétravail partiel
CONTEXTE : la Direction Technique a besoin d’être accompagnée sur une prestation d’Architecture Data pour l’ensemble de la Data Platform et des dispositifs associés. MISSIONS Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l’accompagnement des équipes dans les domaines suivants : · Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation Expertises demandées pour la réalisation de la prestation : · Au moins 3 ans d’expérience en tant qu’Architecte Data dans un environnement data · Compétences solides en data : structures de données, code, architecture · Expériences approfondies des meilleures pratiques des architectures en général et data en particulier · Expérience dans la sécurisation d’application dans le Cloud · Expériences dans un environnement du cloud Google (GCP) · Expériences intégrant BigQuery, Cloud Composer (Airflow) et Dataplex Universal Catalog · Expériences intégrant les langages Python et SQL · Expériences intégrant Spark · Expériences intégrant dbt · Expériences intégrant Terraform et Terragrunt
Freelance

Mission freelance
[FBO] Data Engineer avec expertise MLOps

Publiée le
Planification
Python

3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Freelance
CDI
CDD

Offre d'emploi
DBA DevOps Oracle

Publiée le
Ansible
Oracle
Python

1 an
40k-68k €
400-580 €
Île-de-France, France
Télétravail partiel
Consultant DBA Oracle confirmé , orienté DevOps et automatisation Objectif : Industrialiser la gestion de milliers de bases Oracle et renforcer l’équipe DevOps/DBA dans la création de services “ Database as a Service ”. Périmètre d’intervention 1. Automatisation & Industrialisation Oracle (Core Mission) Automatisation du cycle de vie des bases Oracle : Création / Suppression de bases Patching & upgrades Configuration Dataguard Paramétrage Oracle 19c Développement & amélioration continue des playbooks Ansible Mise en place de scripts idempotents gérant les cas complexes Participation au Database-as-a-Service (DBaaS) interne (10k bases) Contribution au passage à l’échelle d’environnements ExaCC 2. Outillage & Dev autour de l’écosystème Oracle Développement d’outils internes en Python APIs d’automatisation Chaînes d’orchestration (Airflow, pipelines CI/CD) Documentation & standardisation des patterns d’automatisation 3. Support à la conception technique (sans être architecte) Conseil DBA pour rendre les automatisations fiables Adaptation des patterns existants aux contraintes Oracle Collaboration avec les experts ExaCC / Cloud Oracle
CDI
Freelance

Offre d'emploi
Lead devops

Publiée le
DevOps

3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client grand compte un.e lead devops. Profil recherché : Expertise approfondie et pratique de Python. Excellente maîtrise de Pytest et de son écosystème. Solide expérience en automatisation de tests d'API REST. Maîtrise de Git et des pipelines CI/CD, notamment GitLab CI. Maîtrise des commandes de base Linux et du scripting shell. Maîtrise des pratiques BDD (Gherkin). Compréhension des principes d'ingénierie logicielle (DRY, Abstraction, Idempotence). Compétences Appréciées (Les plus) : Une connaissance pratique ou théorique de ces sujets est un avantage certain. Une connaissance d'Apache Airflow. Une connaissance des pratiques de Test-Driven Development (TDD). Une bonne connaissance des environnements de conteneurisation (Docker/Kubernetes). Une connaissance des outils modernes de gestion de dépendances Python (Poetry, pip). Une expérience sur Terraform ou Ansible.
Freelance

Mission freelance
Data engineer senior H/F

Publiée le
Google Cloud Platform (GCP)
HFSQL
Python

2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
Freelance
CDD
CDI

Offre d'emploi
Consultant Data Databricks (F/H)

Publiée le
Apache Spark
Databricks
DevOps

3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Freelance

Mission freelance
Program PMO / Pilotage Multi-Workpackages (>10)

Publiée le
Gestion de projet

12 mois
530-550 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de transformation IS/IT de grande envergure, notre client lance plusieurs initiatives majeures visant à moderniser l’environnement technologique , industrialiser les modèles de delivery , et accélérer la transition vers le Cloud , tout en renforçant les pratiques Data & DevOps. Ce programme, piloté au niveau exécutif (exposition au Comité IT , reporting consolidé pour le CFO Groupe ), implique un pilotage complexe multi-interlocuteurs , une gouvernance renforcée, et un besoin de structuration précise des activités et de la stratégie associée. Les projets associés portent notamment sur : l’ optimisation des modes de delivery (approche factory / service center), la structuration de nouveaux parcours Data & IT , la modernisation de l’écosystème applicatif , l’ amélioration de la gouvernance et de la performance globale du portefeuille IS/IT, la mise en place de nouveaux partenaires technologiques (via RFP), et la consolidation d’un pilotage global du programme (KPIs, OKR, business case). Afin d’accompagner ce changement, nous recherchons trois profils PMO expérimentés capables d’intervenir sur des périmètres complémentaires : gouvernance globale, pilotage multi-workpackages, et structuration d’un nouveau projet incluant une procédure de sourcing. Missions principales Coordonner et animer 15 workpackages du projet. Suivre le planning, le budget et la qualité des livrables. Identifier, piloter et atténuer les risques projet. Gérer la livraison des partenaires externes, suivre leurs livrables, faire le suivi qualité. Mettre en place et maintenir un reporting projet clair et structuré. Préparer les supports de pilotage pour les instances de gouvernance & comités (incluant Steering Committees). Compétences techniques essentielles 1. Suivi projet avancé Planification (MS Project, Smartsheet ou équivalent) Suivi budgétaire, contrôle des coûts Gestion des risques / plan d’actions (matrices, scoring, mitigation) 2. Connaissances techniques Data & intégration Architecture Data (compréhension des data pipelines, ingestion, transformation) Architecture applicative & intégration Connaissance des environnements ETL / orchestrateurs Bonus : Dataiku, Talend, Apache Airflow 3. Reporting opérationnel Conception de dashboards KPIs Structuration de reportings projet pour comité de pilotage Production de synthèses claires (PowerPoint, Confluence)
Freelance
CDI

Offre d'emploi
Machine Learning Engineering

Publiée le
Agile Scrum
Big Data
CI/CD

12 mois
40k-48k €
500-570 €
Paris, France
Télétravail partiel
Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. La prestation de l'équipe : Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues : En interaction avec les membres de l’équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Freelance
CDI

Offre d'emploi
Expert Data / Référentiels

Publiée le
Microsoft Power BI
Power Apps
Tableau software

3 ans
Île-de-France, France
Missions principales 🔵 1. Cartographie et modélisation des référentiels Identifier les objets de référence et leurs sources internes/externes. Définir les modèles de données, métadonnées et relations entre entités. Contribuer à la modélisation conceptuelle, logique et physique des référentiels. Participer à la définition des standards d’interopérabilité. 🔵 2. Mise en œuvre des outils de collecte et d’analyse Déployer les workflows d’administration et de mise à jour des référentiels. Intégrer les outils de visualisation (ex. Tableau Software, Power BI). Automatiser la collecte, transformation et consolidation des données. Assurer l’intégration des données dans les plateformes cibles du SI. 🔵 3. Contrôles de qualité et d’intégrité des données Implémenter les contrôles génériques d’intégrité (cohérence, unicité, complétude). Mettre en place des indicateurs et tableaux de bord de qualité. Garantir la conformité avec les normes de sécurité, confidentialité et RGPD. Contribuer à la remédiation en cas d’anomalies. 🔵 4. Documentation et gestion des connaissances Rédiger et maintenir les dictionnaires de données et inventaires. Documenter les flux, processus d’alimentation et règles métier. Décrire les procédures d’archivage et de gestion des données sensibles. Produire les schémas de modélisation et les supports fonctionnels/techniques. 🔵 5. Support à la gouvernance IT et à la conformité Contribuer à la formalisation des procédures et bonnes pratiques. Assurer la traçabilité et l’auditabilité des traitements. Participer aux audits internes/externes et aux revues de conformité. Veiller au respect des standards de gouvernance data du groupe. 🧠 Compétences techniques recherchées Modélisation de données (MCD/MLD/MPD), Data Catalog, métadonnées Outils de qualité / data profiling Outils de data visualisation : Tableau Software, Power BI, Qlik… Outils ETL/ELT ou workflows (Talend, Airflow, Alteryx, Informatica…). Maîtrise SQL, bases de données relationnelles et référentiels Connaissance des principes de gouvernance data (DG, DQM, RGPD) Connaissance des standards de sécurité et conformité 🤝 Compétences fonctionnelles et transverses Capacité à travailler avec des métiers variés (IT, Data, Risk, Compliance) Très bonne communication et pédagogie Rigueur documentaire, sens du détail Esprit d’analyse et synthèse Capacité à challenger besoins et règles de gestion
Freelance
CDI

Offre d'emploi
Data Engineer (15)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-470 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 DE) qui alimente le pilotage des offres numériques via le produit Data4All. Stack technologique : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, autres services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; accompagner les utilisateurs ; mettre en place le contrôle qualité des données. Concevoir et maintenir des modèles et pipelines robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables, sécurité et stabilité des environnements, workflows CI/CD. Gouvernance et documentation (qualité, fiabilité, intégrité), partage de bonnes pratiques et veille ; participation aux instances Data Ingénieurs.
Freelance
CDI

Offre d'emploi
Lead ML Engineering (26)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Lead ML EngineeringContexte de la mission Création d'une équipe dédiée à la personnalisation (PO, DS, Lead MLE, MLE) pour lancer des cas de recommandation et de ML en production. Stack GCP incluant Python, Vertex AI, BigQuery, Cloud Run, Airflow/Cloud Composer (et autres services GCP). Objectifs : créer les premiers use cases, déployer & A/B tester en prod, monitorer la performance. Activités attendues Définir l'architecture & la feuille de route technique (performance, scalabilité, sécurité). Coacher l'équipe pour garantir la qualité du code/modèles. Concevoir, construire & maintenir des pipelines ML de la collecte à l'exposition via API REST. Organiser le stockage ; assurer scalabilité, sécurité, stabilité des environnements. Mettre en place des infrastructures scalables et les workflows CI/CD ; industrialiser les modèles avec les DS. Collaborer avec Data Engineers & équipes techniques ; documentation & veille ; participation au cadrage/planification/réalisation.
Freelance
CDI

Offre d'emploi
Data Engineer (14)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Informations Générales Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 Data Engineers) en charge de la mise à disposition des données pour le pilotage des offres numériques via le produit Data4All. Stack : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; qualité des données et support aux utilisateurs. Concevoir & maintenir des modèles de données et pipelines robustes et scalables ; organiser/structurer le stockage. Mettre en place et maintenir des infrastructures scalables, assurer sécurité/stabilité des environnements, workflows CI/CD. Contribuer à la gouvernance (qualité, fiabilité, intégrité), documentation et veille ; participation aux instances Data Ingénieurs.
Freelance

Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)

Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Freelance
CDD

Offre d'emploi
Expert Big Data / Data Engineer Senior (H/F)

Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)

6 mois
80k-85k €
500-550 €
Guyancourt, Île-de-France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : Build – Modernisation & migrations Data Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP). Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs…). Travailler avec les architectes et les CloudOps sur les architectures distribuées. Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA . Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD). Animer ateliers, documentation et transfert de compétences. Run – Support N2/N3 & performance Résolution d’incidents techniques Big Data (HDFS, Spark, Kafka, Flink…). Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation. Montée de version, patching, maintenance préventive. Participation aux astreintes (rotation). Amélioration continue & fiabilisation des environnements critiques. Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).
CDI
Freelance

Offre d'emploi
Lead Devops

Publiée le
Docker
Kubernetes
Linux

3 ans
40k-45k €
400-550 €
Île-de-France, France
Nous recherchons pour l'un de nos clients dans le secteur bancaire un profil Lead Devops. Vos missions : Le Profil que nous Recherchons : Ce rôle n’est pas fait pour tout le monde. Il demande une combinaison de plusieurs qualités : excellence technique, posture d’accompagnement, et plaisir à coder pour les autres. Compétences Indispensables : C'est le socle non négociable. Nous attendons une maîtrise solide ou un niveau expert sur ces sujets. Expertise approfondie et pratique de Python. : Excellente maîtrise de Pytest et de son écosystème. Solide expérience en automatisation de tests d'API REST. Maîtrise de Git et des pipelines CI/CD, notamment GitLab CI. Maîtrise des commandes de base Linux et du scripting shell. Maîtrise des pratiques BDD (Gherkin). Compréhension des principes d'ingénierie logicielle (DRY, Abstraction, Idempotence). Compétences Appréciées (Les plus) : Une connaissance pratique ou théorique de ces sujets est un avantage certain. Une connaissance d'Apache Airflow. Une connaissance des pratiques de Test-Driven Development (TDD). Une bonne connaissance des environnements de conteneurisation (Docker/Kubernetes). Une connaissance des outils modernes de gestion de dépendances Python (Poetry, pip). Une expérience sur Terraform ou Ansible.
82 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous