Find your next tech and IT Job or contract role.

Your search returns 266 results.
Premium Job
Permanent

Job Vacancy
Data engineer / Data analyst / Javascript

Clostera
Published on
BigQuery
Javascript
Looker Studio

40k-55k €
Ile-de-France, France

Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui, nous recherchons un(e) Développeur DBA / Javascript / Data engineer / data analyst pour intervenir sur une mission stratégique au sein de la Direction Infrastructure d’un grand acteur de la distribution. Ce que vous ferez : Rattaché(e) à l’équipe Performance Opérationnelle , vous contribuerez à la mise à disposition et à l’exploitation des indicateurs de performance et rapports de production pour l’ensemble des départements de la Direction Infrastructure . Vos missions principales seront : Collecter, consolider et fiabiliser les données de production et d’exploitation IT ; Concevoir et automatiser des tableaux de bord et rapports de performance destinés aux managers et directions opérationnelles ; Analyser les indicateurs pour mesurer les résultats versus les objectifs stratégiques de la direction ; Identifier les leviers d’ amélioration de la performance et de la qualité de service ; Accompagner les équipes techniques dans la mise en place de plans d’action pour optimiser les opérations ; Participer à l’évolution des outils de reporting, d’analyse et de suivi de la performance. Ce rôle clé vous permettra de contribuer activement à la transformation et à l’excellence opérationnelle des infrastructures IT, au service de la performance globale des métiers de notre client.

Contractor

Contractor job
Data Engineer

ODHCOM - FREELANCEREPUBLIK
Published on
Data analysis
Microsoft Excel

2 months
600-630 €
Lille, Hauts-de-France

Mission Temps plein Localisation Lille ou Paris Télétravail : partiel ou full avec quelques déplacements sur Lille Durée 2 mois renouvelable Explications de la Mission Afin de poursuivre l'activité de qualification des BDD en copro et pour mieux prévoir les priorités d'action commerciales, nous avons besoin d'une ressource Data pour effectuer : Le croisement des différentes bases de données en notre possession et en open data disponible Créer une base de données contenant les priorités d'action commerciale "Googeliser" les résidences des BDD nationales Identifier les étiquettes énergétiques (avec GORENOV2) Construire une fiche d'identité par résidence Livrables Attendus Une base de données fusionnée "Googelisation" des BDD Cartographie Objectifs de la Mission Le but de la mission est de pouvoir, à partir du fichier source existant, collecter des données en masses google, afin de pouvoir croiser les données et définir des cibles pour les commerciaux. L'objectif est d'automatiser et industrialiser les outils, afin de sortir d'un traitement manuel.

Contractor

Contractor job
Data Engineer

Gentis Recruitment SAS
Published on
Azure
Databricks
PySpark

6 months
Paris, France

Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery

Contractor
Permanent

Job Vacancy
Data engineer

Ipanema Technology
Published on
Big Data
BigQuery
DBT

1 year
40k-50k €
400-550 €
Ile-de-France, France

Intégré(e) au sein des équipes de la Digital Factory Supply Chain, le/la Data Engineer contribuera ou pilotera la conception, le développement, la maintenance et l'optimisation de solutions de traitement de données massives. La Digital Factory Supply Chain développe l'ensemble des assets digitaux pour une expérience omnicanale, au service de l'approvisionnement des magasins, de la commande automatique à la livraison. Missions et Responsabilités Principales : Conception et Développement : Concevoir, développer et maintenir des solutions Big Data en utilisant les technologies Cloud (GCP). Pour les profils Sénior, cela inclut la mise en place et l'optimisation des pipelines de données. Contribution aux Projets : Participer activement à la réalisation de projets métier, notamment autour de solutions ELT in-house (BigLoader) et DBT. Opérations et Maintenance : Assurer la prise en charge des demandes de corrections issues d'incidents ou d'anomalies. Pour les profils Sénior, cela inclut l'analyse des performances et l'amélioration continue des solutions existantes. DevOps et Automatisation : Contribuer aux pratiques Devops , à l'automatisation du delivery , et à l'application des bonnes pratiques et normes de développement. Participer aux chiffrages des usages et à la constitution des releases . Expertise et Mentoring : Participer à l'auto-formation et à la montée en compétences de l'équipe de développement.

Contractor

Contractor job
Data Engineer

Gentis Recruitment SAS
Published on
Apache Airflow
AWS Cloud
Dataiku

12 months
Paris, France

Contexte : Notre client, un grand groupe du secteur retail, déploie une plateforme Dataiku pour industrialiser la préparation et le scoring de ses modèles analytiques. Missions : Concevoir et maintenir des pipelines Dataiku Automatiser les processus de traitement et de scoring des données Garantir la qualité et la traçabilité des datasets Travailler en lien étroit avec les Data Scientists et les équipes métier Stack technique : Dataiku, Python, SQL, Airflow, Git, Docker, AWS S3 Profil recherché : Expérience confirmée sur Dataiku (projets réels en prod) Bon niveau en Python / SQL Capacité à travailler en mode agile, avec un fort sens de la communication

Contractor

Contractor job
Data Engineer

Nicholson SAS
Published on
Agile Method
Apache Spark
Data visualisation

12 months
460-500 €
Toulouse, Occitania

Entité : Industrie Location : Toulouse ou full-remote Date de démarrage : 17/11/2025 English possible Durée mission : 12 mois (date de fin : 09/10/2026) Mission: we are looking for a data engineer with Spark, Java, real-time processes and MongoDB skills He/She will have to help on the current project backlog ( corrections & new features ) Within a 3 people team for this domain but included in a larger team. Maintenance and evolutions of CCO projects (Big Data processing and real time processing). Project team of 2 developers and a project manager for coordination. Included in a larger team of approx. 8 to 10 peoples.

Contractor
Permanent

Job Vacancy
Data Engineer

Ositel France
Published on
Agile Scrum
BigQuery
CI/CD

6 months
Ile-de-France, France

Nous recherchons un Data Engineer pour une mission longue. Vous interviendrez dans un environnement cloud GCP moderne, en lien avec les équipes internes et les différents produits data. Ses principales missions incluront : -Conception et déploiement des pipelines data : construire, maintenir et optimiser des pipelines robustes, scalables et documentés. -Orchestration et automatisation : configurer et maintenir des workflows via Airflow et Kedro pour garantir l’intégration et la transformation continue des données. -Industrialisation et infrastructure : assurer le déploiement et la maintenance des environnements via Terraform et Terragrunt, dans le respect des bonnes pratiques CI/CD (GitLab). -Support aux équipes : accompagner les utilisateurs dans leurs usages et le requêtage des données (BigQuery, SQL, Python). -Collaboration et partage : participer aux instances de la communauté data engineering, échanger sur les bonnes pratiques, contribuer à la documentation technique. Environnement technique : Langages: Python, SQL, PySpark // Orchestration & Framework : Airflow, Kedro Cloud : Google Cloud Platform (GCP), BigQuery Infrastructure as Code : Terraform, Terragrunt Versioning & CI/CD : GitLab, GitLab CI/CD // Méthodologie : Agile (Scrum, Kanban)

Contractor
Permanent

Job Vacancy
Data Engineer

1G-LINK CONSULTING
Published on
Azure
DevOps
Microsoft Fabric

6 months
Paris, France

Mission Data Engineer Client: Secteur Minéraux Localisation : Paris, Aix-en-Provence, Strasbourg ou Lyon Télétravail : 1 à 2 jours par semaine Durée : 6 mois minimum (renouvelable) Démarrage : Dès que possible Équipe à taille humaine Contexte de la mission Dans le cadre d’un vaste programme de transformation data, notre client – un acteur international du secteur des minéraux – déploie une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination du programme, Tech Enablers : mise en place des briques techniques de la plateforme, Data Use Cases : livraison de cas d’usage métiers concrets à forte valeur ajoutée. L’objectif est double : Livrer 2 à 3 cas d’usage prioritaires , Implémenter une plateforme data moderne , basée sur Microsoft Fabric et intégrée à l’écosystème Azure , tout en instaurant une gouvernance agile (Scrum, PI Planning). Rôle : Data Engineer Vous interviendrez au sein de l’équipe Data pour : Concevoir et développer les pipelines d’ingestion, de transformation et de mise en qualité des données , Gérer les flux de données batch et streaming , Optimiser les performances et la robustesse des traitements, Collaborer avec les équipes architecture , delivery et use cases pour assurer la cohérence de bout en bout, Contribuer à la mise en place des bonnes pratiques DevOps / DataOps dans un environnement agile. Compétences recherchées Techniques : Développement de pipelines de données (batch & streaming), Formats : Parquet, JSON, Delta, Maîtrise de l’écosystème Azure / Microsoft Fabric , Bon niveau en SQL et Python , Outils : Spark , Databricks , Azure Data Factory , Git , Docker , Airflow , Méthodologiques : Environnement Agile / Scrum , avec participation aux cérémonies PI Planning , Connaissance des pratiques DevOps / DataOps , Langues : Anglais courant obligatoire (environnement international). Profil recherché Data Engineer confirmé , avec 3 à 5 ans d’expérience dans des environnements cloud et data modernes, Esprit d’équipe, sens de l’organisation, autonomie et rigueur.

Permanent
Contractor

Job Vacancy
Data Engineer

ANAFI CONSULTING
Published on
BigQuery
Docker
Domain Driven Design (DDD)

1 year
10k-60k €
100-550 €
Clipperton Island, France

Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data

Contractor
Permanent
Fixed term

Job Vacancy
Data Engineer

LEVUP
Published on
Collibra
Python
Snowflake

6 months
Liège, Belgium

Nous recherchons un Senior Data Engineer expérimenté pour rejoindre notre équipe Data. La personne sera responsable de la conception, du développement et de la maintenance de solutions de données robustes et scalables, tout en assurant la qualité et la gouvernance des données. Le candidat idéal maîtrise les environnements cloud, les pipelines de données et les outils de gestion des données modernes. Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables pour ingestion, transformation et intégration de données. Assurer la qualité, la sécurité et la gouvernance des données en collaboration avec les équipes Data & BI. Participer à la conception d’architectures data modernes sur Snowflake et autres plateformes cloud. Développer des solutions ETL/ELT avec Talend et automatiser les processus de traitement des données. Intégrer et orchestrer des flux de données en temps réel avec Kafka. Collaborer avec les équipes métiers pour comprendre les besoins en données et proposer des solutions adaptées. Mettre en place et suivre les métriques de performance des pipelines de données. Assurer la documentation technique et le respect des bonnes pratiques de développement. Compétences techniques requises Bases de données & Cloud : Snowflake, SQL avancé, modélisation de données, optimisation des requêtes. Gouvernance & Qualité des données : Collibra, gestion des métadonnées, data lineage. Langages de programmation : Python pour le développement de scripts ETL, automatisation et analyses. ETL / Intégration : Talend, conception et maintenance de flux ETL/ELT. Streaming & Event-driven : Kafka, gestion de flux en temps réel. Autres : Git, CI/CD, tests automatisés, bonnes pratiques de développement logiciel. Compétences comportementales Forte capacité analytique et rigueur. Autonomie et prise d’initiative sur les projets techniques. Excellente communication pour travailler avec des équipes transverses. Capacité à mentor et encadrer des profils juniors. Profil recherché Bac +5 en Informatique, Data ou équivalent. Minimum 5 ans d’expérience en Data Engineering dans des environnements complexes. Expérience avérée sur Snowflake, Talend, Kafka et Python. Bonne connaissance des processus de gouvernance et de qualité des données avec Collibra. Maîtrise des concepts d’architecture data moderne et des bonnes pratiques DevOps pour pipelines data. Télétravail : 2 jour / semaine Langues : Français, Anglais

Contractor

Contractor job
Data engineering GCP

KEONI CONSULTING
Published on
Gitlab

18 months
100-450 €
Paris, France

CONTEXTE Au sein de l’équipe Silver, la prestation se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine

Premium Job
Contractor
Permanent

Job Vacancy
Data Engineer Snowflake DBT

Konvergence Consulting
Published on
BigQuery
CI/CD
Databricks

1 day
40k-45k €
100-480 €
Paris, France

Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.

Contractor

Contractor job
Data Engineer

Hanson Regan Limited
Published on
Data Warehouse
Gitlab
Python

5 months
€600-700
Luxembourg, Belgium

Hanson Regan is looking for a Data Engineer for a 5-month renewable position, based in Mechelen 2 days Monday & Wednesday onsite (3 days remote) Senior Data Engineer in SCALA Primary Skills MUST HAVE: Terraform DWH (SNowflake or databricks) Kubernetes GITlab Python Softskills & Language requirements: - Excellent Communication - English to work with Offshore (India Teams) To meet the needs of our clients, we only accept applications from freelancers working within their own company (no payroll/ portage companies) Please do not hesitate to contact me if you are interested in this position to discuss it in more detail.

Contractor

Contractor job
Data Engineer

Nicholson SAS
Published on
ETL (Extract-transform-load)
Linux
Microsoft Power BI

12 months
360 €
Toulouse, Occitania

Contexte / mission : Nous recherchons un data engineer expérimenté avec des compétences en SQL, ETL et outils de reporting. Le domaine Cargo Datawarehouse charge et affine les données pour les entreprises. Intervention au sein d’une équipe de 8 personnes. Profil : Data Engineer Nombre d’années d’expérience : plus de 5 ans Attendus : Il/elle devra intervenir sur le backlog actuel du projet (corrections et nouvelles fonctionnalités). Les données Cargo pour les domaines suivants sont chargées dans l’entrepôt de données : Données de billetterie et de réservation Données financières Données opérationnelles Serait également apprécié : compétence à piloter des sous-projets au sein du domaine CARGO, sous la responsabilité du responsable de domaine. Quel défi à relever ? PowerBI et GCP à l’avenir.

Contractor
Permanent

Job Vacancy
Data Engineer (Bordeaux)

CAT-AMANIA
Published on
BI
Python
Snowflake

3 months
40k-48k €
100-370 €
Bordeaux, Nouvelle-Aquitaine

En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data

Contractor
Permanent

Job Vacancy
Data Engineer

CELAD
Published on
Azure Data Factory
Big Data

1 year
49k-55k €
400-550 €
Ile-de-France, France

Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.

266 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us