Find your next tech and IT Job or contract role.

Your search returns 258 results.
Permanent

Job Vacancy
Data Engineer Databricks - Paris

KOMEET TECHNOLOGIES
Published on
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Contractor
Permanent

Job Vacancy
DATA ENGINEER AWS / TALEND

UCASE CONSULTING
Published on
AWS Cloud
PySpark
Talend

6 months
40k-59k €
400-890 €
Paris, France

🎯 Contexte du poste Nous recherchons un Data Engineer confirmé afin d’accompagner un projet de migration stratégique de notre plateforme Data. Le consultant interviendra au sein d’équipes techniques et métiers pour assurer la transition et l’optimisation des flux de données. 🛠️ Missions principales Concevoir, développer et maintenir des pipelines de données performants et scalables. Assurer la migration des traitements Talend vers Spark sur EMR (Amazon Elastic MapReduce). Mettre en place des modèles de données et des tables optimisées avec Apache Iceberg. Garantir la qualité, la fiabilité et la performance des flux de données. Collaborer avec les équipes Data, DevOps et métiers pour accompagner la transformation de la plateforme. 📌 Compétences techniques requises Talend : expertise dans les flux existants et leur migration. Spark (PySpark/Scala) sur EMR : maîtrise des traitements distribués et optimisation. Apache Iceberg : connaissance des formats de tables modernes (partitionnement, évolutivité, performance). DevOps (nice to have) : CI/CD, Docker, Kubernetes, Terraform, GitLab. Cloud AWS : maîtrise des services liés au Big Data (S3, EMR, Glue, etc.). 🌍 Soft skills et linguistique Anglais courant (fluent) : échanges réguliers avec des équipes internationales. Autonomie, capacité d’adaptation, esprit d’analyse. Bon relationnel et aptitude au travail en équipe agile. 🚀 Profil recherché Minimum 4/5 ans d’expérience en tant que Data Engineer. Expérience significative dans des projets de migration de flux Data. Capacité à intervenir dans des environnements complexes et à forte volumétrie de données.

Contractor
Permanent

Job Vacancy
Data Analyst orienté Data Engineering (F/H)

HOXTON PARTNERS
Published on
Azure
Python
Snowflake

6 months
50k-60k €
400-480 €
Ile-de-France, France

Nous recherchons un(e) Data Analyst orienté Data Engineering pour accompagner la transformation data-driven du groupe. Intégré(e) à une équipe transverse dynamique, vous interviendrez sur l’ensemble de la chaîne de valeur data : gouvernance, analyse, data engineering, data science et dataviz. En rejoignant cet environnement stimulant et bienveillant, vous aurez l’opportunité de valoriser des données clients, produits et opérationnelles à travers des projets stratégiques, des modèles prédictifs et des outils innovants. Missions Construire et automatiser des pipelines ELT fiables (Azure, Snowflake, Python, SQL). Mettre en place des datasets certifiés pour la BI & Data Science. Développer et maintenir des dashboards (Tableau, MicroStrategy). Analyser des jeux de données variés pour générer des insights stratégiques. Participer à la mise en place de modèles prédictifs (scoring, segmentation, ML). Contribuer à la diffusion des bonnes pratiques data au sein du groupe.

Contractor
Permanent

Job Vacancy
DATA ENGINEER SNOWFLAKE / DBT / Service Now ITSM

UCASE CONSULTING
Published on
DBT
ServiceNow
Snowflake

3 years
27k-55k €
400-550 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un consultant Data Analytics Engineer – Intégration ServiceNow ITSM → Snowflake Contexte de la mission Dans le cadre du renforcement de ses capacités analytiques autour des processus ITSM, Accor recherche un consultant Data Analytics Engineer autonome pour mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). Objectifs de la mission Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité Documenter le pipeline, les schémas de données et les points de reprise Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake (data warehouse cloud) Orchestration : Airflow ou solution équivalente Transformation : DBT Core / SQL (si besoin pour structuration analytique) Modélisation : DrawIO ou autre support outil libre. Visualisation : Tableau CI/CD / versioning : GitLab Documentation : Confluence, Jira,

Contractor
Permanent

Job Vacancy
DATA ENGINEER SEMARCHY F/H | LILLE (59)

HIGHTEAM GRAND SUD
Published on
Data analysis
ETL (Extract-transform-load)
Sap BO

3 years
10k-43k €
100-400 €
Lille, Hauts-de-France

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client en qualité et serez en charge de : Participer au recueil des besoins en lien avec la MOA et les utilisateurs Analyser et spécifier les besoins Assurer la modélisation et la création de flux sur l'EtL Effectuer la recette Assurer le suivi de production Environnement Technique : Semarchy / Stambia, Vertica, SQL, SAP BO Le poste est basé à Lille (59) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.

Permanent

Job Vacancy
Senior Data Engineer

ANDEMA
Published on
Java
Snowflake

55k-70k €
Ile-de-France, France

Missions principales Concevoir, développer et maintenir des pipelines d’ingestion et de traitement de données à forte volumétrie . Participer à la migration Scala vers Java/Spring et à l’intégration dans Snowflake/Snowpark . Travailler sur l’ architecture et l’optimisation des solutions data (batch & stream). Garantir la qualité du code : tests unitaires et d’intégration, CI/CD, documentation, monitoring. Collaborer avec le Tech Lead et l’équipe , en agile (daily scrums, code reviews, pair programming). Être un référent technique pour l’équipe et contribuer aux choix technologiques. Participer à des projets transverses et assurer la veille technologique sur les nouvelles solutions data. Architecture & concepts Expérience avec architecture medaillon data : Bronze → Silver → Gold. Compréhension des transformations et de la gestion des données selon cette architecture. Capacité à proposer et mettre en œuvre des améliorations pour la performance et la scalabilité. Stack & compétences recherchées Technologies principales : Java (expert, orienté Spark) Spring Snowflake / Snowpark Connaissances attendues : Databricks (full service managé, migration complète) Airflow, GitLab CI SQL Expérience Cloud (préférence GCP, AWS également possible) Compétences complémentaires : Conception de pipelines de données scalables Tests automatisés, monitoring, CI/CD Autonomie et capacité à driver techniquement l’équipe

Contractor

Contractor job
(Nord - 59) - Data engineer

ODHCOM - FREELANCEREPUBLIK
Published on
Terraform

6 months
360-380 €
Villeneuve-d'Ascq, Hauts-de-France

Objectif global : Accompagner le domaine Supply sur l'expertise de sa data Contrainte forte du projet Activités de RUN (maintien en condition opérationnelle) de BUILD (développement) et d'EXPERTISE Les livrables : Météo quotidienne, Remontées d'alertes Scripts, requêtes, planifications Documentations, Etats d'avancement Description détaillée Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité

Contractor

Contractor job
Data Engineer GCP – Freelance (H/F)

Comet
Published on
Google Cloud Platform (GCP)

1 year
400-630 €
Ile-de-France, France

Missions Concevoir, développer et industrialiser des pipelines (batch/near-real-time) robustes et scalables. Modéliser les données et déployer des datasets normés (ex. utilisateurs, comportements, référentiels). Mettre en place le contrôle qualité (tests, règles, SLA, observabilité) et la gouvernance/catalogue . Orchestration, CI/CD et Infra as Code pour des déploiements reproductibles. Garantir sécurité, stabilité et performance des traitements. Documenter (technique & runbooks) et accompagner les équipes utilisatrices (vulgarisation, bonnes pratiques). Assurer la veille et la standardisation des patterns/outils data. Livrables Pipelines production-ready avec documentation et monitoring. Framework qualité (règles, tests, dashboards). Datasets normés publiés et référencés dans le catalogue. Guides d’exploitation / transfert de compétences. Stack & outils Langages : Python, SQL. Traitements : dbt , Spark (selon besoins). Data Warehouse : BigQuery . Gouvernance/Catalogue : Dataplex (Universal Catalog) . Orchestration : Airflow . CI/CD : GitLab & GitLab CI/CD . Infra as Code : Terraform & Terragrunt . Cloud : GCP .

Contractor

Contractor job
Data Engineer Expérimenté SSIS / SQL SERVEUR -Nantes

Argain Consulting Innovation
Published on
Agile Scrum
Microsoft SQL Server
Microsoft SSIS

1 year
400-550 €
Nantes, Pays de la Loire

Dans le cadre de la mise en place d’une nouvelle solution de préparation et de gestion de données sous SQL Server, nous recherchons un Data Engineer SSIS capable d’intervenir en autonomie et d’accompagner les équipes dans l’usage et l’évolution de la plateforme de données. 🧩 Tâches principales Concevoir, développer et maintenir les packages SSIS pour l’intégration et le traitement des données. Développer et optimiser les procédures stockées SQL Server et autres traitements de préparation de données. Accompagner les utilisateurs dans l’utilisation de la plateforme SQL et SSIS. Assurer le support fonctionnel et technique sur les traitements de données. Participer à la formation et au transfert de compétences . Relire et conseiller sur les développements existants. Participer aux phases de conception technique et revue de code . Collaborer avec les équipes métiers et IT pour garantir la qualité et la pertinence des livrables . Travailler dans un cadre Agile / Scrum (participation aux cérémonies, estimation des charges, amélioration continue).

Contractor

Contractor job
Mission Freelance – Data Engineer AWS (H/F)

Comet
Published on
AWS Cloud

2 years
400-550 €
Ile-de-France, France

🧠 Vos missions Concevoir, construire et maintenir l’infrastructure AWS dédiée aux traitements Data & IA. Développer des pipelines de données robustes et scalables, orientés médias. Industrialiser les cas d’usage métiers en lien étroit avec les équipes Data Science. Garantir la qualité, la fiabilité et la performance des données et des traitements. Contribuer à la documentation technique et au suivi de l’activité. Collaborer avec les équipes métiers pour recueillir les besoins et proposer des améliorations. 🛠️ Environnement technique Cloud & Infra as Code : AWS (IAM, S3, Lambda, Secret Manager, VPC), Terraform, Ansible, GitOps. Conteneurisation : Docker, Kubernetes, Helm. Langage principal : Python (POO, design patterns, tests). CI/CD : GitFlow, pipelines de déploiement. Bases de données : SQL et Graph. Outils projet : JIRA, méthodes Agile.

Contractor
Fixed term

Job Vacancy
Tech Lead Data Engineer H/F

SMARTPOINT
Published on
Apache Spark
Azure
Databricks

3 months
40k-60k €
460-500 €
Ile-de-France, France

Principales missions : -Assurer un leadership technique auprès des équipes de développement. -Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. -Participer activement aux phases de conception, développement et tests. -Porter la vision technique au sein des équipes Agile. -Garantir la qualité des livrables et veiller à la réduction de la dette technique. -Réaliser la modélisation des données. -Assurer une veille technologique et participer aux POCs. -Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des CONCEPTION S'assure de l'exhaustivité et de la pertinence des spécifications confiées aux développeurs Coordonne les plans de développements et activités des développeurs sur l'ensemble des composants logiciels impactés Réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants existants DÉVELOPPEMENT Elabore, maintient et renforce les directives d'intégration logicielle et réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants Aligne son travail avec les principes d'urbanisation et les directives générales d'intégration logicielle préconisée par l'Architecture Transverse Supervise les aspects techniques d'un projet (à la demande du responsable de pôle) Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Valide le design du logiciel et propose les frameworks utilisés dans le cadre du projet NORMALISATION ET QUALITÉ Assure la qualité du code des programmes informatiques Elabore et maintient les normes et patterns spécifiques d'intégration ainsi que leur diffusion auprès des développeurs et assure que ces normes / patterns sont bien suivies par l'équipe Est responsable également de l'élaboration et du maintien des abaques de coûts / délais nécessaires en regard des services fournis Assure la qualité des environnements de développement, des développements, du packaging et le bon usage des technologies à travers des audits de code Fait une veille permanente sur les évolutions technologiques ASSEMBLE LES COMPOSANTS ET PRÉPARE LA LIVRAISON DE SOLUTIONS Dans le cadre de projets, assemble les composants unitaires dans un package cohérent destiné au déploiement de la solution et le met sous gestion de configuration Assure la mise à disposition des environnements de développement Définit et administre une bibliothèque de composants logiciels, normes et patterns et assure la documentation de ces composants réutilisables dans la documentation ASSURE LE SUPPORT DE NIVEAU 3 Assure le support N3 pour la résolution de problèmes avec des composants développés par l'équipe et déployés dans les environnements Contribue à la rédaction des contrats de TMA en y intégrant les normes techniques COMMUNICATION ET VEILLE TECHNOLOGIQUE Assure une veille permanente sur les évolutions technologiques Assiste le responsable de pôle à identifier les axes d'amélioration technique et des compétences à développer

Contractor

Contractor job
Data Engineer Databricks

Phaidon London- Glocomms
Published on
Apache Airflow
Azure DevOps
CI/CD

6 months
400-480 €
Lyon, Auvergne-Rhône-Alpes

En tant que Data Engineer Databricks, nous vous proposons d’intégrer une équipe d’ingénieurs expérimentés et multi-compétentes. Au sein de nos clients issus de différents secteurs d'activité (Industrie, Services, Transport, Logistique, Banque, Assurances, Énergie), vous jouez un rôle clé dans la migration des données et des tâches de l'environnement Cloudera vers Databricks. Vous êtes également chargé d'automatiser le déploiement des jobs via le CI/CD. Pour réussir ces différents challenges, nous vous proposerons des actions de formation, des parrainages, des certifications sur les outils concernés et un dispositif d’évaluation personnel régulier.

Permanent

Job Vacancy
Data Engineer - SQL Server/ SSIS – Environnement Agile

Argain Consulting Innovation
Published on
Agile Scrum
Authorization management
Microsoft SQL Server

40k-45k €
Nantes, Pays de la Loire

Dans le cadre de l’évolution d’une plateforme de gestion et de préparation de données sous SQL Server, nous recherchons un profil data Engineer capable de prendre en charge les demandes et incidents, d’accompagner les équipes au quotidien et de contribuer à la fiabilisation des traitements de données. 🧩 Tâches principales Assurer la réception, qualification et suivi des tickets (incidents fonctionnels et techniques) dans un environnement Agile. Prendre en charge la résolution d’incidents de premier niveau (SQL, habilitations, accès, erreurs simples de traitements). Escalader et documenter les incidents complexes vers les équipes de développement ou d’infrastructure. Accompagner les utilisateurs dans l’usage de la plateforme (explications, assistance, formation ponctuelle). Participer aux tests de non-régression et validations lors des évolutions ou migrations. Contribuer à l’ amélioration continue des processus de support et de documentation. Collaborer avec les équipes projet et développement dans un cadre Agile / Scrum (daily, rétrospectives, etc.).

Permanent
Contractor

Job Vacancy
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS

UCASE CONSULTING
Published on
Apache Spark
Microsoft Analysis Services (SSAS)
Scala

3 years
25k-58k €
310-530 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Permanent

Job Vacancy
Lead Data Engineer

TXP
Published on

£60k-70k
Birmingham, United Kingdom

Job Title: Lead Data Engineer Role Type: Permanent Location: Birmingham (Hybrid) Role Overview As a Lead Data Engineer, you will be responsible for maintaining data infrastructure on Microsoft Azure and leveraging your expertise in Microsoft BI tools and cloud-based technologies to drive their data initiatives. You will play a critical role in the team optimising data infrastructure. Key Responsibilities Collaborate with cross-functional teams to achieve common business goals. Develop and maintain curated business models to support accurate and insightful decision-making. Utilise SSRS, SSAS, and SSIS to design, develop, and implement robust reporting and analytics solutions. Conduct complex data analysis to identify trends, patterns, and insights that drive business improvement. Demonstrate expertise in Azure Synapse and Azure Data Factory/Lakes for data integration, orchestration, and management. Implement and optimise data pipelines for seamless and efficient data flow within the Azure ecosystem. Extract data from Dynamics to build and enhance curated business models in Synapse/PowerBI. Ensure data security, compliance, and best practices are followed in Azure cloud environments. Build migration paths to transition from on-premises technologies to the cloud where appropriate. Essential Skills Proven experience as a Lead/Senior Data Engineer. Expertise in the Microsoft BI stack, including SSRS, SSAS, and SSIS. Hands-on experience with Azure Synapse, Azure Data Factory, and other Azure cloud services. Strong analytical and problem-solving skills, with the ability to turn complex data into actionable insights. Excellent communication and interpersonal skills, with the ability to collaborate effectively with diverse teams. Demonstrated ability to design and implement curated business models for reporting and analysis. If you are a skilled Lead/Senior Data Engineer, we would like to hear from you. Apply now!

Permanent
Contractor

Job Vacancy
Data engineer GCP / Hadoop - DataOps

VISIAN
Published on
Apache Spark
BigQuery
Google Cloud Platform (GCP)

1 year
40k-50k €
300-480 €
Paris, France

Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme

258 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us