Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 244 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer – GCP confirmé·e

Publiée le
Google Cloud Platform (GCP)
Python
SQL

3 ans
Rouen, Normandie
Télétravail partiel
Vous aimez relever des défis techniques ambitieux et contribuer à la mise en place d’architectures data performantes et innovantes ? Vous souhaitez évoluer au cœur d’un environnement cloud moderne et collaboratif ? Cette opportunité est faite pour vous ! Nous recherchons un·e Data Engineer – GCP confirmé·e pour accompagner la construction et le déploiement de solutions data pour notre client du secteur de l’assurance. Intégré·e à la DataFabric, vous rejoindrez une équipe agile composée de 5 à 7 Data Engineers, en lien direct avec le Tech Lead. Vous participerez activement au build et au run des traitements livrés en production sur la plateforme Google Cloud Platform (GCP). Vos principales responsabilités : Analyser, concevoir et modéliser les solutions data adaptées aux besoins métiers Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Rédiger les documents techniques associés (spécifications, cahier de recette, documentation d’exploitation) Réaliser les recettes techniques et assurer la qualité des livrables grâce à des tests de non-régression Participer activement à la maintenance et à l’amélioration continue des traitements data en production Environnement technique : GCP : BigQuery, Cloud Storage, Cloud Composer, Airflow, GKE Langages & outils : SQL, Python CI/CD : maîtrise des outils d’intégration et de déploiement continu Infrastructure as Code : Terraform
Freelance
CDI

Offre d'emploi
Data Engineer Python/AWS

Publiée le
AWS Cloud
Flask
Python

3 ans
40k-50k €
400-550 €
Courbevoie, Île-de-France
Télétravail partiel
La Mission à réaliser se déclinera notamment à travers ces activités : • Collecte, ingestion, traitement, transformation et restitution des données • Optimisation des coûts et des performances. • Conception et développement d'outils d'aide à la décision • Maintenance évolutive et support technique / accompagnement des utilisateurs Langages & Frameworks Python v3 — Avancé (5 à 8 ans) Design Patterns / Architecture logicielle — Confirmé (3 à 5 ans) Cloud & Infrastructures AWS — Confirmé (3 à 5 ans) Data & Big Data Lakehouse Fundamentals & Database Systems — Confirmé (3 à 5 ans) Big Data Architecture & Technologies — Confirmé (3 à 5 ans) Data Management Systems — Confirmé (3 à 5 ans) Domaines fonctionnels Marchés des matières premières (Gaz, Électricité, etc.) — Junior (< 3 ans) Soft Skills / Compétences transverses Anglais — Avancé (5 à 8 ans) Esprit d’analyse et de synthèse — Avancé (5 à 8 ans) Proactivité / Prise d’initiative / Orientation solution — Junior (< 3 ans)
Freelance

Mission freelance
Data Engineer Semarchy  xDM / xDI Montpellier

Publiée le
Semarchy

6 mois
330-350 €
Montpellier, Occitanie
Télétravail partiel
Data Engineer Semarchy xDM / xDI Montpellier Stambia Python/Java, ETL/MDM, Git, Docker, Kubernetes. Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition. Data Engineer Semarchy xDM / xDI Montpellier Stambia
Freelance

Mission freelance
Mission Freelance – Data Engineer Confirmé / Sénior

Publiée le
Python

1 an
400-550 €
Île-de-France, France
Télétravail partiel
Missions Concevoir et maintenir des pipelines de données robustes et performants. Structurer et documenter les datasets (Utilisateurs, Comportements, Référentiels). Mettre en place et administrer des infrastructures data scalables . Déployer et maintenir des workflows CI/CD . Participer aux initiatives de gouvernance et qualité des données . Assurer la stabilité, la sécurité et la performance des environnements. Collaborer avec les équipes Data, Produit et Technique dans un contexte Agile. Environnement technique Langages : Python, SQL, Spark Stack : dbt, Airflow, Terraform, Terragrunt, GitLab CI/CD Cloud : Google Cloud Platform (BigQuery, Dataplex) Méthodologie : Agile (Scrum / Kanban)
CDI
Freelance

Offre d'emploi
Data Engineer - Java/ Spark

Publiée le
Apache Spark
AWS Cloud
AWS Glue

6 mois
40k-45k €
260-500 €
Tours, Centre-Val de Loire
Télétravail partiel
Démarrage : Dès que possible Contexte Dans le cadre du renforcement de nos équipes Data, nous recherchons un Data Engineer confirmé maîtrisant les environnements Java, Spark et AWS . Vous interviendrez sur des projets à forte volumétrie, autour de la collecte, du traitement et de la valorisation de la donnée. Missions Concevoir, développer et maintenir les pipelines de données sur des architectures distribuées (Spark, AWS). Industrialiser et fiabiliser les traitements batch et temps réel. Participer à la modélisation et à la gouvernance de la donnée. Optimiser la performance et la scalabilité des flux. Collaborer étroitement avec les équipes Data Science, BI et Cloud. Contribuer à la veille technologique et à l’amélioration continue des bonnes pratiques Data Engineering. Environnement technique Langages : Java, Python (souhaité) Frameworks : Apache Spark, Kafka, Airflow Cloud : AWS (S3, EMR, Glue, Lambda, Redshift, Athena) CI/CD : GitLab, Docker, Terraform Base de données : PostgreSQL, DynamoDB, Snowflake (selon projet) Profil recherché Formation Bac+3 à Bac+5 en informatique, data ou équivalent. Expérience confirmée en développement Java appliqué à la donnée (Spark). Bonne connaissance des services AWS orientés data. Esprit analytique, rigueur et goût du travail en équipe. Une sensibilité DevOps ou un attrait pour l’industrialisation est un plus. Pourquoi nous rejoindre ? Des projets Data à fort impact dans des environnements techniques exigeants. Un cadre de travail stimulant, collaboratif et bienveillant. De réelles perspectives d’évolution (technique ou architecture).
Freelance

Mission freelance
DATA Engineer - AWS(H/F)

Publiée le
AWS Cloud
Azure DevOps
Data Lake

1 an
510-540 €
Île-de-France, France
Télétravail partiel
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Freelance

Mission freelance
Data Engineer - access management on Snowflake

Publiée le
Snowflake

3 ans
400-550 €
Île-de-France, France
Télétravail partiel
Adminisitration Snowflake - Confirmé - Impératif RBAC - Confirmé - Impératif GITLAB - Confirmé - Important TERRAFORM - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Au sein d'une Tribe Data Platform, l'équipe DATA « Data Platform Protect » (DPP) fournit des produits et des services pour gérer les accès et la protection des données sensibles (snowflake, app streamlit, etc.). Sous la responsabilité du Tech Lead Data Platform, le/la Data Engineer Snowflake « DPP » aura donc la charge de… Déployer un nouveau framework RBAC auprès des différentes Feature Teams DATA (+ 10 FT) sur leurs projets Gitlab gérant les ressources Snowflake Communiquer avec les TechLeads des Feature Teams Participer aux activités et évènements transverses de la Feature Team/Tribe, du pôle ENGINEERING ou DATA.
Freelance

Mission freelance
Data Engineer | DevOps AWS (H/F)

Publiée le
AWS Cloud
CI/CD
Data analysis

9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Freelance

Mission freelance
Data Engineer / Expert Big Data – Cloud & On-Prem - Certifié ITIL V4 Obligatoire

Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Migration

6 mois
750-800 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe DATA/IA d’une vingtaine de personnes pour accompagner la migration des projets vers des infrastructures modernes on-prem et cloud public (AWS / GCP) ✅ Accompagner les projets dans leur migration vers des architectures modernes (AWS / GCP / on-prem). ✅ Participer à la conception et à la mise en œuvre des infrastructures Data (en lien avec les CloudOps & Architectes). ✅ Paramétrer, configurer et tester les plateformes (performances, résilience, reprise d’activité). ✅ Implémenter le monitoring et l’alerting. ✅ Rédiger les documents d’exploitation et contribuer à la montée en compétence des équipes. ✅ Participer au RUN : gestion des incidents, patching, upgrades et astreintes.
Freelance
CDI

Offre d'emploi
Data Engineer: SAP BW, HANA Studio, Databricks, Dataiku, SQL, Python, Contract, 2 years, Bruxelles

Publiée le
Data governance
Databricks
Dataiku

2 ans
40k-45k €
550-770 €
Hauts-de-France, France
Télétravail partiel
Pour un grand client final Bruxelles (minimum 2 jours/semaine sur site). De décembre 2025 à fin 2027. Dans le cadre de l’architecture cible, les plateformes BW/HANA, Databricks et Dataiku sont au cœur des activités de migration et de transformation des données. Vous rejoignez l’équipe opérationnelle Data Governance en tant qu’expert data, responsable de maintenir, concevoir et optimiser les processus de transformation et de modélisation des données en utilisant SAP BW, SAP HANA Studio, Databricks et Dataiku. Objectif: garantir la qualité, la performance et la pertinence des données pour les besoins métier. Responsabilités Développer et maintenir des flux complexes de transformation et de modélisation des données via BW et HANA Studio (modélisation avancée, développement, optimisation). Exploiter Databricks pour le stockage, le calcul et l’industrialisation des données. Utiliser Dataiku pour la transformation de données, avec un focus sur les recettes visuelles et le développement de plug-ins personnalisés. Assurer la qualité et l’intégrité des données sur l’ensemble du cycle de vie. Collaborer avec les parties prenantes techniques et fonctionnelles.
Freelance

Mission freelance
Data Platform Engineer - Terraform

Publiée le
CI/CD
DevOps
JIRA

6 mois
400-500 €
Paris, France
Télétravail 100%
Bonjour, Nou recherchons pour l'un de nos clients intégrateurs un ingénieur plateforme de données. Description du poste : En tant qu'ingénieur plateforme de données, vous êtes spécialisé dans la conception, le développement et la maintenance de l'infrastructure sous-jacente qui prend en charge les pipelines de données et les applications basées sur les données d'une organisation. Vos responsabilités sont hautement techniques et consistent à créer un écosystème de données robuste, évolutif et fiable.
Freelance

Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)

Publiée le
Snowflake

6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Freelance

Mission freelance
Data Engineer confirmé(e) – Projet Référentiel Valeurs / MDM (H/F)

Publiée le
Data Lake
DevOps
Master Data Management (MDM)

12 mois
450-500 €
Paris, France
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Vos principales missions : Dans le cadre du projet Référentiel Valeurs, visant à centraliser, fiabiliser et gouverner l’ensemble des données relatives aux instruments financiers, vous intégrerez une squad Data composée d’un Architecte technique, d’un Product Owner, d’un Business Analyst et de développeurs. Vos principales missions seront : - Concevoir et implémenter le socle data du Référentiel Valeurs - Développer et industrialiser les pipelines de données (ETL / Datalake) - Intégrer et exposer les données de référence (MDM) - Mettre en œuvre et suivre la qualité et la cohérence des données - Contribuer aux pratiques DevOps / CI-CD et au déploiement des flux - Collaborer avec les équipes métier et data governance TJM : 450€ - 500€
Freelance

Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance

Publiée le
Architecture
BigQuery
Cloud

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Freelance

Mission freelance
Data Architecte H/F

Publiée le
Apache Airflow
Apache Spark
BigQuery

210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Freelance
CDI

Offre d'emploi
Chef de Projet & Business Analyst – Données Bilan Carbone / CSRD

Publiée le
PowerBI
SQL

1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Contexte : Nous recherchons un(e) Chef de Projet / Business Analyst pour renforcer l’équipe RSE d’une DSI Workplace. L’équipe travaille sur plusieurs projets annuels autour de la gestion des données RSE, et la mission implique autonomie, responsabilité et un large éventail de compétences techniques et fonctionnelles. Missions principales : Assurer la gestion de projets liés aux données RSE et au bilan carbone. Collecter, formaliser et analyser les besoins métiers. Collaborer avec les data engineers pour définir les traitements nécessaires. Produire des rapports et analyses à partir des données (maîtrise d’Excel et SQL requise). Créer des dashboards et indicateurs (Power BI est un plus). Participer à la documentation et au suivi des projets.
244 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous