Find your next tech and IT Job or contract role.

Your search returns 256 results.
Contractor

Contractor job
Tech lead data engineer H/F

Pickmeup
Published on
Azure
Azure DevOps
Databricks

1 year
500-580 €
Châtillon, Ile-de-France

🎯 Contexte et Environnement Au sein de la Direction Digital & Data , l’équipe Data Lab intervient sur les périmètres Data & Analytics dans le cadre de la transformation du système d’information du groupement. Le/la Tech Lead rejoindra la Data Factory (rassemblant les équipes IT et métiers), dont la mission est de concevoir et déployer des produits analytiques innovants à destination des magasins, de la logistique, des fonctions support et des consommateurs. Face à la montée en puissance des besoins, l’organisation évolue selon un modèle Agile structuré en Domaines et Squads , avec une forte ambition d’industrialisation et de valorisation du patrimoine de données.

Contractor

Contractor job
Data Engineer MongoDB, PostgreSQL, BigQuery

Nicholson SAS
Published on
Apache Kafka
BigQuery
Google Cloud Platform (GCP)

8 months
330 €
Lille, Hauts-de-France

Secteur Ritail Attendu : Elaboration des modèles de données en collaboration avec les architectes data. Il s’appuie sur sa compréhension des problématiques fonctionnelles et son expertise technique. Il assure la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Il participe à l’évolution du socle data de l’équipe en fonction des besoins. Il est garant de la couverture des tests data. Il est co-responsable de la qualité des données et participe aux redressements de données. Il participe à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Il prend part à la guilde des Data Engineers pour échanger avec ses homologues et s’imprégner des bonnes pratiques. Il assure une documentation complète des pipelines de données qu’il met en place. Il participe activement au RUN data / analyse de problèmes en Production.

Permanent

Job Vacancy
Tech Lead Data Engineer H/F

JEMS
Published on

50k-60k €
Nantes, Pays de la Loire

Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : g3okq4hi55

Contractor

Contractor job
Data Engineer / Analytics Engineer Microsoft Fabric

Hubflow
Published on
Microsoft Fabric

6 months
450-560 €
Paris, France

Contexte : Notre client, un grand établissement financier, recherche un Data / Analytics Engineer spécialisé sur l’écosystème Microsoft Fabric pour intervenir dans un projet stratégique de migration de Synapse vers Fabric. Le contexte fonctionnel est très novateur, il permet le suivi de l'ensemble du processus d'achat de l'entreprise. La mission, d’une durée initiale de plus de 6 mois et reconductible, s’inscrit dans un programme long terme de modernisation des plateformes data & analytics. Missions principales : Le consultant interviendra en tant que Data Engineer / Analytics Engineer et aura pour responsabilités : Concevoir, développer et maintenir des pipelines de données dans Azure Data Factory et Microsoft Fabric Data Factory. Accompagner la migration des pipelines Synapse vers Fabric Data Factory. Migrer les workloads SQL Serverless de Synapse vers un Lakehouse Fabric. Participer à la modélisation des données et à l’optimisation des flux pour des usages analytiques et reporting. Contribuer à l’industrialisation et à la mise en place de bonnes pratiques (performance, qualité, sécurité). Collaborer avec les équipes métiers et BI pour assurer la bonne alimentation des modèles Power BI. Rédiger la documentation technique et transférer les compétences aux équipes internes. Compétences recherchées : Compétences principales (indispensables) : Microsoft Fabric (Data Factory, Lakehouse, OneLake). Azure Data Factory (ADF). Synapse Analytics (pipelines & SQL Serverless). Power BI (modélisation, intégration des datasets). Compétences secondaires (atouts) : Python pour l’automatisation et la transformation des données. PowerShell pour le scripting et l’automatisation des environnements Azure. Profil recherché : Minimum 3 à 5 ans d’expérience en tant que Data Engineer / Analytics Engineer. Solide expérience dans la migration ou la mise en place de solutions cloud data Microsoft. Expérience dans des environnements grands comptes ou secteur financier appréciée. Capacité à travailler en mode projet (agilité, collaboration avec plusieurs équipes). Bonnes compétences de communication et capacité à vulgariser les enjeux techniques auprès des métiers. Informations pratiques : Lieu : Paris / Île-de-France. Télétravail : jusqu’à 3 jours par semaine. Durée : mission longue (> 6 mois), reconductible. Démarrage : dès que possible. TJ : 550€ Merci de faire parvenir vos CV à :

Contractor

Contractor job
Data Engineer Apache Flink H/F

LeHibou
Published on
Apache
Azure Kubernetes Service (AKS)
Elasticsearch

4 months
500-620 €
Paris, France

Dans le cadre de la mise en production d’une solution de traitement de flux temps réel , une grande entreprise internationale du secteur du luxe et de la beauté recherche un Data Engineer confirmé pour finaliser et industrialiser un POC développé avec Apache Flink (Python) . L’objectif principal est de stabiliser la pipeline de streaming existante , d’assurer la compatibilité avec l’infrastructure actuelle (notamment Elasticsearch), et de garantir un passage en production performant et fiable . Le consultant interviendra au sein d’une équipe Data pluridisciplinaire (Data Engineers, DevOps, experts cloud) et jouera un rôle clé dans la réussite du projet, de la revue technique du POC jusqu’à la mise en production sur Kubernetes .

Contractor

Contractor job
Data engineer Python & SQL H/F

LeHibou
Published on
Microsoft SQL Server
MySQL
Python

6 months
500-570 €
Paris, France

Pour l'un de nos clients dans le secteur de la prévention qui déploie un Saas, nous recherchons un profil hybride Data Engineer/Chef de projet technique: Comprendre les besoins en termes de données de différents corps de métiers (professionnels de santé, ingénieurs de prévention, gestionnaires de facturation ...) Analyser et comprendre l’état et la structuration de la donnée de différents métiers (ex: professionnels de santé, gestionnaires de facturation... ) dans les anciennes bases de données des clients Remonter les besoins d’amélioration technique complexe à la squad plateforme intégrée à l'équipe d'intégration en fonction des cas d’usages clients rencontrés Participer à la prise de décision pour nettoyer et traduire ces données dans la solution Mettre à jour le pipeline de données pour récupérer ces données et les injecter dans notre logiciel (grande diversité de données : + de 250 informations différentes, avec jusqu’à plusieurs millions de points de données pour certaines informations) Assurer que le pipeline soit robuste, testé et permettre un maximum de traçabilité sur les traitements subis par la donnée et les incohérences détectées (python + SQL), tout en étant réutilisable Assurer la maintenance et l’évolution de la base de données du produit, en discutant avec les équipes produits pour s’assurer de continuer à reprendre toutes les données disponibles Travailler en collaboration avec les référents métiers ainsi qu’avec les clients des différents métiers (professionnels de santé, gestionnaires de facturation, etc.) Communiquer de manière exemplaire au cours du projet pour assurer un reporting régulier

Contractor

Contractor job
Data Engineer – Solution Data

Signe +
Published on
Snowflake

6 months
400-610 €
Lavaur, Occitania

🎯 Objectif de la mission : Définir, développer, mettre en place et maintenir les outils et projets Analytics. 🛠️ Outils & Technologies : Python, Java, Shell Snowflake Matillion, Azure Data Factory Jenkins, Git, GitLab, CI/CD, Docker, Ansible, Kubernetes Power BI Tableau Software, Alteryx, Airflow, Denodo 📌 Responsabilités : Implémentation et industrialisation des pipelines de données Monitoring et amélioration continue Opération des projets Data & Analytics sur Data Platform Support en second niveau Veille technologique et contribution à la roadmap ✅ Compétences requises : Maîtrise des langages et outils cités Très bon niveau d’anglais Capacité à formaliser des solutions techniques Esprit collaboratif, rigueur, autonomie Pilotage de prestataires Aisance en environnement international

Contractor

Contractor job
Data engineer GCP SPARK PYTHON

KEONI CONSULTING
Published on
Python

18 months
100-600 €
Paris, France

CONTEXTE Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Silver, la mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. Le stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant dbt • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques

Contractor

Contractor job
Data Engineer - Azure

VISIAN
Published on
Architecture
Azure
Azure Data Factory

1 year
400-570 €
Ile-de-France, France

Missions principales : Contribuer à l’évolution de l’offre de service de la plateforme Big Data & ML. Définir et maintenir le cadre de référence des principes d’architecture. Accompagner les développeurs dans l’appropriation de ce cadre. Définir les solutions d’exposition, de consommation et d’export des données métiers. Accompagner les équipes dans la mise en œuvre des solutions proposées. Participer à la mise en place d’API LLM dans le cadre du socle LLMOPS. Expertise technique attendue : Architecture & Cloud Azure Définition d’architectures cloud et Big Data distribuées. Automatisation des ressources Azure via Terraform et PowerShell. Connaissance avancée d’Azure Databricks, Azure Data Lake Storage, Azure Data Factory. Administration réseau : vNet Spoke, Subnets Databricks. Sécurité : RBAC, ACLs. Data & IA Platform Maîtrise de la chaîne d’ingestion de données : pipelines ADF (Collecte, Routage, Préparation, Refine…). Études d’architecture en lien avec l’évolution de la plateforme. Administration ADF : Link Services, Integration Runtime. Administration Databricks : Tokens, Debug, Clusters, Points de montage. Administration Azure Machine Learning : Datastores, accès, debug. CI/CD & DevOps Configuration Azure DevOps : droits, connexions de service. Développement de pipelines CI/CD avec Azure Pipelines. Gestion des artefacts avec Azure Artifact et Nexus. Automatisation des déploiements. Pratiques FinOps et optimisation des coûts cloud. Agilité & Delivery Utilisation de Jira : création d’US/MMF, configuration de filtres, Kanban. Participation active aux cérémonies Agile : Sprint, Revue, Démo. Développement & Collaboration Développement Python : modules socle, code optimisé, tests unitaires. Développement PowerShell : déploiement de ressources Azure. Maîtrise de Git : push, pull, rebase, stash, gestion des branches. Pratiques de développement : qualité, tests unitaires, documentation.

Contractor
Permanent

Job Vacancy
Data Engineer Pyspark/Dagster

VISIAN
Published on
Apache Spark
PySpark
Python

2 years
40k-79k €
400-650 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/Dagster Mission: Architecture : Définition de l’organisation du Lakehouse dans le S3 Chargement : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs. Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia

Permanent

Job Vacancy
Data Engineer Talend - DAX

KOMEET TECHNOLOGIES
Published on
AWS Cloud
Azure
Snowflake

40k-50k €
Dax, Nouvelle-Aquitaine

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation

Permanent

Job Vacancy
Data engineer snowflake / BI (H/F)

Amiltone
Published on
BI
Snowflake

35k-40k €
Villeurbanne, Auvergne-Rhône-Alpes

Vos missions ? En tant que Data engineer snowflake / BI, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud. Vos traitements répondront à des besoins spécifiques liés à des problématiques complexes dans divers domaines d'activité de l'entreprise. Vous serez également chargé(e) du traitement des requêtes via des entrepôts virtuels. La stack Technique : - Snow Flake ( indispensable ) - Power BI (indispensable) - Base de données - Datawarehouse - SQL

Permanent

Job Vacancy
Data Engineer Cloud GCP BigQuery F/H

Fnac Darty
Published on

50k-70k €
Ivry-sur-Seine, Ile-de-France

Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.

Contractor

Contractor job
Mission Freelance – Data Engineer (GCP / Python / BigQuery)

Comet
Published on
Google Cloud Platform (GCP)

1 year
400-560 €
Ile-de-France, France

Vos missions Concevoir, construire et maintenir des pipelines de données robustes et scalables (batch & stream). Participer à la mise en production et à la qualité des datasets liés à la personnalisation des contenus. Industrialiser les traitements avec Airflow, Terraform et Terragrunt. Garantir la qualité et l’intégrité des données (tests, monitoring, alerting). Optimiser les performances et la structure des données dans BigQuery . Participer à la gouvernance Data : documentation, bonnes pratiques, CI/CD, sécurité. Collaborer avec les équipes Data pour les aider à exploiter et requêter efficacement la donnée. Assurer la veille technologique sur les outils Data & Cloud. 🛠️ Stack technique Langages : Python, SQL, PySpark Cloud : Google Cloud Platform (BigQuery, Cloud Storage, IAM) Orchestration : Airflow Infra as Code : Terraform, Terragrunt CI/CD : GitLab CI Méthodologie : Agile / Scrum / Kanban

Contractor

Contractor job
Data Engineer azure (SQL / ADF /Power BI)

adbi
Published on
Azure Data Factory
Azure DevOps
CI/CD

10 months
Ile-de-France, France

Au sein d’un Centre de Compétences Data, le Data Engineer participe à des projets de transformation digitale. Il conçoit, développe et déploie des solutions Data et BI pour permettre aux utilisateurs métiers de suivre et analyser leurs activités. Il met en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts), développe des pipelines ETL/ELT automatisés avec Azure Data Factory et SSIS, assure la qualité, la sécurité et la performance des données, et collabore avec les équipes DevOps, Product et Data pour garantir la cohérence technique et fonctionnelle des solutions. Compétences attendues : Langages : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Outils : GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning

Permanent

Job Vacancy
Data Engineer Databricks - Paris

KOMEET TECHNOLOGIES
Published on
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

256 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us