Find your next tech and IT Job or contract role.

Your search returns 262 results.
Permanent
Contractor

Job Vacancy
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS

UCASE CONSULTING
Published on
Apache Spark
Microsoft Analysis Services (SSAS)
Scala

3 years
25k-58k €
310-530 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Permanent

Job Vacancy
Lead Data Engineer

TXP
Published on

£60k-70k
Birmingham, United Kingdom

Job Title: Lead Data Engineer Role Type: Permanent Location: Birmingham (Hybrid) Role Overview As a Lead Data Engineer, you will be responsible for maintaining data infrastructure on Microsoft Azure and leveraging your expertise in Microsoft BI tools and cloud-based technologies to drive their data initiatives. You will play a critical role in the team optimising data infrastructure. Key Responsibilities Collaborate with cross-functional teams to achieve common business goals. Develop and maintain curated business models to support accurate and insightful decision-making. Utilise SSRS, SSAS, and SSIS to design, develop, and implement robust reporting and analytics solutions. Conduct complex data analysis to identify trends, patterns, and insights that drive business improvement. Demonstrate expertise in Azure Synapse and Azure Data Factory/Lakes for data integration, orchestration, and management. Implement and optimise data pipelines for seamless and efficient data flow within the Azure ecosystem. Extract data from Dynamics to build and enhance curated business models in Synapse/PowerBI. Ensure data security, compliance, and best practices are followed in Azure cloud environments. Build migration paths to transition from on-premises technologies to the cloud where appropriate. Essential Skills Proven experience as a Lead/Senior Data Engineer. Expertise in the Microsoft BI stack, including SSRS, SSAS, and SSIS. Hands-on experience with Azure Synapse, Azure Data Factory, and other Azure cloud services. Strong analytical and problem-solving skills, with the ability to turn complex data into actionable insights. Excellent communication and interpersonal skills, with the ability to collaborate effectively with diverse teams. Demonstrated ability to design and implement curated business models for reporting and analysis. If you are a skilled Lead/Senior Data Engineer, we would like to hear from you. Apply now!

Permanent
Contractor

Job Vacancy
Data engineer GCP / Hadoop - DataOps

VISIAN
Published on
Apache Spark
BigQuery
Google Cloud Platform (GCP)

1 year
40k-50k €
300-480 €
Paris, France

Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme

Contractor

Contractor job
Data Engineer / T -SQL / Marchés Financiers / Data Warehouse

CAT-AMANIA
Published on
Agile Method
Transact-SQL

2 years
270-450 €
Ile-de-France, France

Description de la mission : Dans le cadre d’un projet stratégique de consolidation et d’analyse des données commerciales d’une grande institution financière, nous recherchons un Data Engineer SQL confirmé pour rejoindre une équipe Agile dédiée à la gestion et à la valorisation des données de marché. Vos principales missions : Concevoir, alimenter et faire évoluer les flux de données d’un entrepôt décisionnel (Data Warehouse / Datamart). Développer et optimiser des procédures stockées en T-SQL sur SQL Server 2019. Mettre en place et surveiller l’ ordonnancement des traitements via Control-M. Intégrer des données issues de diverses sources (fichiers plats, XML, API REST…). Effectuer les tests unitaires et recettes techniques . Rédiger la documentation technique et assurer le support applicatif . Travailler en méthodologie Agile (Kanban) avec les Business Analysts. Participer aux astreintes selon le planning de l’équipe.

Contractor
Permanent

Job Vacancy
Big Data Engineer

KLETA
Published on
Apache Kafka
DevOps
ELK

3 years
Paris, France

Environnement Technique :  Tous composants de la distribution HDP 2.6.5 (Hortonworks)  Tous composants de la distribution HDP 3.1.x (Hortonworks)  Technologie KAFKA  Compétences de développements en Shell, Java, Python  Moteur Elasticsearch incluant les fonctionnalités soumises à licence  Docker, Kubernetes, système distribué sur Kubernetes  Infrastructure as Code  DevOps : Ansible, Git, Nexus, Jenkins, JIRA, etc...  Os Linux, Kerberos, SSL, Ldap, RDBMS, SQL Mandatory :  Tous les composants des distributions Hadoop  Tous les composants de la suite Elasticsearch : Kibana, Logstash, suite beats  Administration de composants big data

Contractor

Contractor job
Data Engineer GCP / Hadoop – Pipelines de données & DatOps

CAT-AMANIA
Published on
Agile Scrum
Apache Hive
Apache Spark

6 months
380-440 €
Ile-de-France, France

Nous recherchons un Data Engineer expérimenté pour rejoindre une équipe projet au sein d’un département IT Groupe. Le poste consiste principalement à intervenir sur un projet DatOps basé sur GCP , et secondairement sur la mise en place d’une plateforme data sur Hadoop. Vos missions : Mettre en place et maintenir des pipelines de données (ingestion, préparation, transformation). Faire évoluer les outils de gestion et d’automatisation des flux de données. Collaborer avec les équipes DevOps pour les évolutions de la plateforme. Participer activement aux rituels agiles et contribuer à l’amélioration continue.

Permanent

Job Vacancy
Data engineer Snowflake (H/F)

HOXTON PARTNERS
Published on
Snowflake
Talend

50k-55k €
Cergy, Ile-de-France

Nous recherchons pour le compte de l’un de nos clients un Data Engineer Snowflake (H/F) dans le cadre d’un remplacement : Missions : Concevoir et maintenir des pipelines de données dans Matillion vers Snowflake. Intégrer diverses sources de données (API, bases, fichiers plats) dans Snowflake. Optimiser les traitements SQL et les configurations pour améliorer la performance et réduire les coûts. Mettre en place le monitoring et résoudre les anomalies sur les workflows ETL. Garantir la qualité, la fiabilité et la sécurité des données en production.

Contractor

Contractor job
Data Engineer Suite MSBI

Nicholson SAS
Published on
ETL (Extract-transform-load)
Microsoft SSIS
OLAP (Online Analytical Processing)

14 months
270-280 €
Montpellier, Occitania

Site : Montpellier, 2 jours/ semaine sur site Date de démarrage : 01/10/2025 Mission : Data Engineer sur des activités de run et build Nb années d’expérience : 3 ans Profil : Data Engineer Data Engineer Suite MSBI Attendu : Concevoir et développer des solutions pour la collecte, l'organisation, le stockage et la modélisation des données, Développer un ensemble d'outils d'aide à la décision pour les métiers du client, Enrichissement de données, Production d'indicateurs (KPI), Optimisation et performance, Garantir l'accès aux différentes sources de données et de maintenir la qualité des données, Contribuer à la mise en place d'une politique de données et des règles de bonnes pratiques conformes aux réglementations client en vigueur, Assurer une veille technologique, notamment sur les langages de programmation utilisés afin d’aider à l'avancement des projets. Compétences techniques : ETL SSIS, Cube OLAP SSAS, Requêtage SQL, Connaissance ETL, préparation structuration de données, stockage de fichier (Talend, HDFS, SSIS), Expérience dans la modélisation et dans l’exploitation des bases de données (SQL et NoSQL, Oracle, …), Une connaissance en migration des traitements sous GCP serait un plus (BigQuery)

Contractor
Permanent

Job Vacancy
DATA ENGINEER AZURE / DATABRICKS F/H | MARIGNANE (13)

HIGHTEAM GRAND SUD
Published on
Apache NiFi
Azure Data Factory
Data Lake

1 year
10k-45k €
100-420 €
Marignane, Provence-Alpes-Côte d'Azur

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Configurer, structurer, déployer Azure Data Lake et DataBricks Développer et industrialiser des pipelines d’ingestion robustes sur Apache NiFi à partir des différentes sources, en tenant compte des contraintes techniques (mémoire, réseau…) Mettre en place et maintenir une instance Unity Catalog pour renforcer la gouvernance et permettre le Data self-service Environnement Technique : Azure Data Lake, Databricks, Apache NiFi, Unity Catalog, Python, Pyspark, SQL Le poste est basé en périphérie de Marignane (13) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre intégration. Vous devez impérativement être véhiculé.e pour pouvoir accéder sur site.

Permanent

Job Vacancy
Data engineer H/F

OPEN GROUPE
Published on
BigQuery
Data Lake
Data Warehouse

Lille, Hauts-de-France

🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance

Contractor

Contractor job
Data Engineer Semarchy  xDM / xDI Montpellier

WorldWide People
Published on
Semarchy

6 months
330-350 €
Montpellier, Occitania

Data Engineer Semarchy xDM / xDI Montpellier Stambia Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition. Data Engineer Semarchy xDM / xDI Montpellier Stambia

Permanent

Job Vacancy
TECH LEAD DATA ENGINEER AZURE DATABRICKS (H/F)

GROUPE ALLIANCE
Published on
Databricks
PySpark
Python

50k-55k €
Paris

ACCROCHE SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras : Les pipelines de données, tu développeras La qualité, la fiabilité et la sécurité des données, tu garantiras L’intégration et la transformation des données, tu automatiseras Les architectures data (batch & temps réel), tu concevras La scalabilité et la performance des traitements, tu optimiseras Les outils de monitoring et de gestion des flux, tu mettras en place Ton équipe projet, tu accompagneras Aux rituels agiles et instances data, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de ans minimum en ingénierie de la donnée ou en développement data Expert(e) en Habile avec les outils AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !

Contractor

Contractor job
Data Engineer Snowflake (H/F)

BLOOMAYS
Published on
Snowflake

36 months
Paris, France

Contexte & Équipe Une équipe data structurée et exigeante recherche un Data Engineer Senior pour renforcer ses activités autour de la plateforme Snowflake et de systèmes critiques de gestion de données. Le poste s’inscrit dans un environnement technique de haut niveau, avec une forte culture de qualité et d’amélioration continue. Missions principales Administration de la plateforme Snowflake et optimisation des coûts Réplication de données entre bases opérationnelles et Snowflake ( CDC – Change Data Capture ) Gestion et administration des bases SQL Server et Oracle Provisionnement d’objets dans Snowflake pour les équipes data Automatisation et maintenance des bases (Python, Ansible, Terraform) Contribution à l’ amélioration continue des pratiques et des outils

Contractor

Contractor job
Data Engineer (AWS, Snowflake & Terraform)

Trait d'Union Consulting
Published on
Snowflake
Terraform

1 year
500-650 €
Paris, France

Notre client souhaite renforcer son équipe DataPlatform. Vous rejoindrez une équipe composée de 3 Data Engineer, 1 DB Admin, 1 Responsbale BI, 1 Product Owner appuyé par des DevOps mettant à disposition les infrastructures de gestion de la donnée. Vous aurez la charge de 3 principales missions : 1° Implémentation de nouveaux flux de données sur AWS & Terraform avec Python/Airflow (COLD et STREAMING) · Implémentation des flux de données de l’extraction à l’exposition des données via Python/Airflow Managé ou avec Nifi pour les données « cold » et « streaming » 2° On vous demandera pour chacun des projets : · Code Review entre les data engineers · Réalisation des tests unitaire, de non-régression et d’intégration · Mise à jour de la documentation sous Confluence · Mettre à jour la documentation dans confluence. · Réaliser les tests unitaires et d’intégration. · Respecter les bonnes pratiques de développements 3° Maintenance corrective des flux de données 1 à 2 jrs de remote Localisé Paris 12e

Contractor
Permanent

Job Vacancy
Data Engineer GEN IA

VISIAN
Published on
AWS Cloud
Databricks
PySpark

3 years
30k-50k €
300-520 €
La Défense, Ile-de-France

Expertise technique GenAI • Développer les briques techniques nécessaires à l’exécution des agents GenIA (API, orchestrateurs, connecteurs, sécurité, monitoring, vectorisation…). • Garantir la robustesse, la scalabilité et la maintenabilité des composants sur Databricks. • Déployer les composants techniques en collaboration avec l’équipe Plateforme. Conception et développement d’agents GenIA • Participer à la définition fonctionnelle des agents avec le tech lead et l’architecte en lien avec le Product Owners et les métiers. • Développer les agents en intégrant les modèles IA via des frameworks comme LangChain. • Tester, valider et optimiser les performances des agents. Travail en équipe projet dans une Squad • Travailler sous l’animation d’un Scrum Master, en collaboration avec un Tech Lead et un Architecte. • Participer aux rituels agiles (daily, sprint planning, review, rétrospective). • Être force de proposition sur les choix techniques et les bonnes pratiques de développement.

Contractor

Contractor job
Data Engineer | DevOps AWS (H/F)

Atlas Connect
Published on
AWS Cloud
CI/CD
Data analysis

9 months
400-450 €
Saint-Denis, Ile-de-France

Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.

262 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us