Find your next tech and IT Job or contract role.

Your search returns 252 results.
Premium Job
Contractor
Permanent

Job Vacancy
Data Engineer Snowflake DBT

Konvergence Consulting
Published on
BigQuery
CI/CD
Databricks

1 day
40k-45k €
100-480 €
Paris, France

Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.

Permanent
Contractor

Job Vacancy
Data Engineer

ANAFI CONSULTING
Published on
BigQuery
Docker
Domain Driven Design (DDD)

1 year
10k-60k €
100-550 €
Clipperton Island, France

Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data

Contractor

Contractor job
Data Engineer

CAT-AMANIA
Published on
Git
Google Cloud Platform (GCP)
Looker Studio

2 months
100-400 €
Lille, Hauts-de-France

En tant qu'Analytic Engineer, votre rôle principal sera d'apporter une expertise technique approfondie sur les données métiers et de garantir leur parfaite adéquation avec les besoins opérationnels. Vous travaillerez en étroite collaboration avec les différents acteurs de l'équipe Data – notamment les Data Analysts, les Techleads GCP et les équipes d'Exposition – sur les domaines suivants : la supply chain, le référencement produit, le B2C, le transport et la logistique. Parallèlement, vous assurerez une veille technologique proactive sur l'intelligence artificielle et les outils Data (par exemple, Tableau, Looker ML) afin de continuellement enrichir notre expertise technique et proposer des solutions innovantes.

Contractor

Contractor job
Data Engineer

Codezys
Published on
API REST
Azure
Azure Data Factory

12 months
Orly, Ile-de-France

Lieu de mission : Orly (94) Type de mission : Prestation longue durée Contexte de la mission : Le client, basé à Orly, cherche à renforcer ses équipes Data en recrutant un Data Engineer confirmé. La mission consiste à mettre en place et industrialiser des pipelines de données dans un environnement Cloud Azure, en garantissant performance, fiabilité et sécurité. Responsabilités principales Concevoir, développer et maintenir des pipelines de données performants et automatisés. Intégrer et transformer des données issues de différentes sources (APIs, bases SQL, etc.). Participer à la mise en place et à l’optimisation des environnements Cloud Data sur Azure. Automatiser le déploiement et l’infrastructure Data à l’aide de Bicep. Garantir la qualité, la sécurité et la traçabilité des données. Collaborer avec les équipes Data, Développement et DevOps pour l’intégration des solutions. Documenter processus et bonnes pratiques. Compétences techniques requises Langage : Python (indispensable) Cloud & Data : Azure Data Factory, SQL Azure Infrastructure as Code : Bicep Intégration & APIs : API REST CI/CD & DevOps : Git, Azure DevOps Architecture : Microservices et bonnes pratiques DevOps

Contractor
Permanent

Job Vacancy
Data Engineer

CELAD
Published on
Azure Data Factory
Big Data

1 year
49k-55k €
400-550 €
Ile-de-France, France

Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.

Permanent
Contractor

Job Vacancy
Data Engineer

OBJECTWARE MANAGEMENT GROUP
Published on
DAX
Microsoft Power BI
MySQL

6 months
37k-45k €
320-420 €
Tours, Centre-Val de Loire

Dans le cadre d’un projet industriel d’envergure nationale, nous recherchons un Data Engineer / Data Manager pour accompagner la mise en place et le suivi des processus de production de données au sein d’équipes techniques et métiers. La mission allie coordination, support utilisateur, data management et reporting opérationnel dans un environnement à forte exigence qualité. Vos missions principales : Animation & coordination : • Appuyer le Data Manager projet dans la coordination des contributeurs métiers • Suivre la qualité et la complétude des données d’entrée nécessaires aux traitements • Produire des KPI d’avancement et des reportings réguliers • Participer à l’animation du processus de production et aux réunions de suivi Administration & exploitation de l’application métier : • Paramétrer, administrer et superviser l’application • Exécuter les traitements, injections et extractions de données • Gérer les habilitations, l’archivage et les accès utilisateurs Support & accompagnement : • Assurer le support fonctionnel niveau 1 & 2 et le suivi des incidents • Contribuer au plan de contrôle interne des habilitations • Participer à la recette fonctionnelle : planification, organisation, PV de validation Documentation & capitalisation : • Rédiger et maintenir la documentation technique et fonctionnelle • Créer des fiches d’assistance, manuels utilisateurs et procédures • Participer à l’accompagnement au changement et à la diffusion des bonnes pratiques Profil recherché : • Expérience confirmée en Data Management, Data Engineering ou MCO applicatif • Bonne maîtrise des outils : Power BI, Jira, ServiceNow, Excel, Office 365, Netvibes • Langages : SQL, Python, PowerQuery, DAX, JSON, XML • Connaissance des environnements industriels ou projets techniques complexes • Compétences en recette, support, reporting et coordination multi-acteurs Soft skills : • Leadership naturel, rigueur, pédagogie • Esprit d’analyse et de synthèse • Excellent relationnel, diplomatie et sens du service Les + de la mission : • Projet structurant dans un contexte industriel stratégique • Équilibre entre technique, coordination et accompagnement métier • Équipe collaborative et dynamique

Permanent

Job Vacancy
Data Engineer

Inventiv IT
Published on
AWS Cloud
Azure
Databricks

45k-65k €
Paris, France

Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).

Contractor

Contractor job
Data Engineer

Tenth Revolution Group
Published on
DBT
Snowflake

12 months
500-600 €
Paris, France

En tant que Senior Data Engineer sur le périmètre Finance, vos principales responsabilités seront : Développer sur Snowflake / DBT Cloud les pipelines d’ingestion et de transformation de données. Proposer et contribuer à la conception des modèles de données pour les différentes couches de la plateforme Data. Participer à l’amélioration continue des outils et méthodes de développement sur la plateforme Snowflake. Organiser la collecte des données issues des différents systèmes (digital, POS, OMS, 3PL, WMS, …) sur l’ensemble des territoires où mon client fabrique ou distribue ses produits. En collaboration avec l’équipe Master Data, mettre en oeuvre les briques de Data Quality. En lien avec les Product Owners et les équipes de DataViz Engineers, produire les jeux de données attendus dans le respect des priorités, coûts et délais. Participer activement à la démarche d’amélioration continue. Garantir le bon fonctionnement quotidien des pipelines développés.

Contractor
Permanent

Job Vacancy
Data Engineer

Sapiens Group
Published on
Apache Airflow
BigQuery
Data Lake

3 months
40k-45k €
400-500 €
Lille, Hauts-de-France

Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures.

Contractor

Contractor job
Data engineering

Keypeople Consulting
Published on
Agile Method
Amazon S3
Ansible

12 months
400-470 €
Ile-de-France, France

Data engineering (2 profils identiques), pour concevoir, construire et gérer l’infrastructure AWS · Minimum de 4 ans d’expériences significative dans le type d’expertise demandé · Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT · Connaisse de l’ingénierie de traitement de la donnée non structurée : CONFIRME · Connaissance en architecture micro-service et l’utilisation d’API externe : CONFIRME · Connaissance des langages de programmation et de Génie Logiciel (Python) : · Programmation Orientée Objet : MAITRISE · Connaissance et utilisation des Design Patterns standard : MAITRISE · Frameworks/Librairies de tests : MAITRISE · Observabilité applicative : CONFIRME · Mesures de performances : CONFIRME Expérience avec les bases de données SQL et Graph : CONFIRME · Connaissance des technologies de conteneurisation : o Utilisation de la CLI Docker : MAITRISE o Création et optimisation des images : MAITRISE o Utilisation de docker-compose : CONFIRME o Utilisation de la CLI Kubernetes : MAITRISE o Création et utilisation des déploiements Kubernetes : CONFIRME o Résolution de problèmes sur environnement Kubernetes : CONFIRME o Utilisation de Helm pour le déploiement de workload sur Kubernetes : CONFIRME Compétence des technologies de CI/CD et Infra as Code : Expérience du process GitFlow : MAITRISE Utilisation des commits sémantiques/feature branches : MAITRISE Mise en place de pipelines/jobs : CONFIRME Mise en place de process GitOps : CONFIRME Utilisation des concepts, modules et templates Teraform : MAITRISE Utilisation de Ansible : CONNAISSANCE Capacité à travailler en équipe et à communiquer efficacement (Agile, JIRA) : MAITRISE Expérience des services AWS suivants : IAM : mise en place de rôles/policies (CLI et Terraform) : CONFIRME S3 : gestion des buckets/cycle de vie des objets : MAITRISE Lambda : Déploiement de lambda utilisant des conteneurs sur ECR via Terraform. Déclenchement via Triggers S3/EventBridge. Optimisation de l’utilisation des ressources et du scaling : MAITRISE Secret Manager : Création et accès via Terraform. Gestion du cycle de vie : CONFIRME VPC & Security Groups : Compréhension des concepts réseaux et de sécurité : CONFIRME Une connaissance du service publique et des Médias est souhaitée .

Contractor

Contractor job
DATA ENGINEER GCP

CHOURAK CONSULTING
Published on
Apache Spark
BigQuery
DBT

1 year
400-600 €
Ile-de-France, France

Dans le cadre d’un projet stratégique autour de la donnée , nous recherchons un Data Engineer expérimenté pour renforcer l’équipe de notre client, au cœur de la plateforme Data. La Direction Data joue un rôle clé dans la transformation numérique du groupe, avec trois missions principales : Maximiser la collecte et la valorisation des données tout en respectant la réglementation. Développer la connaissance et l’expérience utilisateur . Mettre à disposition des outils d’aide à la décision pour les équipes internes. 🎯 Vos missions principales : Concevoir, développer et maintenir des pipelines data robustes et scalables sur GCP. Déployer des datasets normés sur plusieurs domaines (Utilisateurs, Comportements, Référentiels). Mettre en place des contrôles qualité sur les datasets. Structurer et organiser le stockage des données dans une logique d’architecture évolutive. Participer à la mise en place des workflows CI/CD et à l’industrialisation via Terraform / Terragrunt. Collaborer avec les équipes Data pour assurer la qualité, la fiabilité et la gouvernance des données. Partager les bonnes pratiques et contribuer à la documentation technique .

Contractor

Contractor job
Data Engineer (PySpark)

KEONI CONSULTING
Published on
PySpark

18 months
100-400 €
Paris, France

CONTEXTE Métiers Fonctions : Data Management, Data Engineer Spécialités technologiques : Big Data Compétences Technologies et Outils : HadoopPyspark (2 ans) Dans le cadre d’un projet stratégique autour du recouvrement et de la lutte contre la fraude, nous recherchons un Data Engineer confirmé spécialisé en PySpark, pour rejoindre une équipe technique pilotée par un Tech Lead expérimenté. Le projet s’appuie sur des volumes massifs de données critiques (plusieurs milliards d’événements par jour) et vise à développer des cas d’usages à fort impact dans la détection d’anomalies et l’optimisation des processus de recouvrement. MISSIONS Missions principales - Participer à la construction et l’optimisation des pipelines de données sous PySpark. - Contribuer à la mise en place d’architectures Big Data sur un environnement Hadoop (bonus). - Assurer la qualité, la fiabilité et la performance des flux de données. - Collaborer étroitement avec les équipes data science et métier pour industrialiser les cas d’usage (fraude, scoring, recouvrement automatisé…). - Intervenir sur des problématiques de scalabilité et de traitement en temps réel / batch. - Garantir la sécurité et la conformité des traitements sur des données sensibles.

Contractor

Contractor job
Data Engineer Palantir

Orcan Intelligence
Published on
PySpark
Python

3 months
400-600 €
Paris, France

Orcan Intelligence recherche pour l'un de ses clients un Data Engineer senior. Le Data Engineer senior devra construire, livrer, maintenir et documenter des pipelines de données dans le périmètre des fondations Risque. Livrables attendus : Pipelines de données pour les fondations Risque, livrés dans les délais. Code documenté et testé unitairement. Mises en œuvre des contrôles de qualité et de santé ( health checks ). Expérience et compétences requises :

Permanent

Job Vacancy
Data Engineer (PySpark)

Codezys
Published on
Hadoop
PySpark

40k-45k €
Seine-Saint-Denis, France

Métier et fonction : Data Management Data Engineer Spécialité technologique : Big Data Type de facturation : Assistance Technique (facturation au taux journalier) Techniques et outils maîtrisés : Hadoop, PySpark (2 ans) Secteur d'activité : Administration Publique Description de la prestation : Dans le cadre d’un projet stratégique en recouvrement et lutte contre la fraude, un Data Engineer confirmé spécialisé en PySpark est recherché pour une équipe pilotée par un Tech Lead expérimenté. Le projet manipule plusieurs milliards d’événements par jour, visant à développer des cas d’usage à fort impact comme la détection d’anomalies et l’optimisation des processus de recouvrement. Missions principales : Construire et optimiser des pipelines de données sous PySpark. Participer à la mise en place d’architectures Big Data sur environnement Hadoop (optionnel). Garantir la qualité, la fiabilité et la performance des flux de données. Collaborer avec les équipes data science et métier pour industrialiser des cas d’usage (fraude, scoring, recouvrement automatisé). Gérer des problématiques de scalabilité et de traitement en temps réel ou batch. Assurer la sécurité et la conformité des traitements de données sensibles.

Contractor

Contractor job
Data Engineer

Phaidon London- Glocomms
Published on
AWS Cloud
Dataiku
Python

12 months
Paris, France

Mon client, une banque basée à Paris, recrute deux Ingénieurs Data pour renforcer ses capacités de lutte contre la criminalité financière, notamment dans le cadre de la surveillance des transactions. Ce rôle consiste à construire et optimiser des pipelines de données permettant la détection en temps réel d’activités suspectes, afin d’aider l’établissement à répondre aux exigences réglementaires et à se protéger contre le blanchiment d’argent et la fraude..

Contractor

Contractor job
Data Engineer AWS

SAB CONSEIL
Published on
AWS Cloud
Big Data
CI/CD

12 months
450-550 €
Ile-de-France, France

Missions principales : Développer et industrialiser des pipelines de données et microservices sur AWS. Assurer la qualité, la fiabilité et l’accessibilité des données. Collaborer avec les équipes Data Science pour répondre aux besoins métiers. Maintenir et optimiser les systèmes existants. Participer à la collecte des besoins et à la documentation technique. Minimum 4 ans d’expérience en Data Engineering et big data. Maîtrise de Python, programmation orientée objet et design patterns. Expérience sur bases de données SQL et Graph. Connaissance des architectures microservices et APIs externes. Expertise conteneurisation (Docker, Kubernetes, Helm) et CI/CD (GitFlow, GitOps, Terraform). Bonne communication, autonomie, rigueur et capacité à gérer plusieurs tâches. Expérience des services AWS : S3, Lambda, IAM....

252 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us