Find your next tech and IT Job or contract role.

Your search returns 257 results.
Contractor
Permanent

Job Vacancy
Data Engineer GCP + Talend

HIGHTEAM
Published on
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Microsoft SQL Server

3 years
40k-55k €
400-550 €
Ile-de-France, France

Pour l’un de nos clients Grand Compte, nous recherchons un Data Engineer spécialisé sur GCP et Talend . Missions principales : Analyser les besoins métiers et comprendre les impacts business des données afin de proposer une conception pertinente et alignée avec les objectifs stratégiques. Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub Cloud Composer). Améliorer la performance et la scalabilité des solutions existantes. Collaborer étroitement avec les architectes, PO et data analystes pour garantir la qualité et la bonne exploitation des données. Maintenir une documentation technique claire et à jour des processus et solutions mises en place. Réaliser la recette technique et participer à l’animation de la recette fonctionnelle avec les utilisateurs et le PO. Mettre en place et gérer des systèmes de monitoring pour assurer la supervision proactive des pipelines. Participer aux phases de déploiement et assurer la maintenance corrective et évolutive. Veiller à la cohérence des livrables avec les standards et bonnes pratiques de l’équipe. Compétences techniques requises :

Permanent
Contractor

Job Vacancy
Data Engineer Stambia (F/H)

CELAD
Published on
Stambia

12 months
42k-50k €
450-470 €
Lille, Hauts-de-France

CDI/ Freelance/ Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous êtes passionné(e) par la gestion, l’intégration et la qualité des données dans un environnement exigeant comme la banque ? Vous aimez structurer, cartographier et rendre les données fiables et exploitables pour les équipes métiers et Data ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la mise à disposition qualitative et sécurisée des données aux équipes Data Analysts, Data Scientists et métiers - Participer à la définition de la politique de la donnée et à la structuration de son cycle de vie dans un contexte bancaire (sécurité, conformité, traçabilité) - Superviser et intégrer les données issues de multiples systèmes bancaires et réglementaires , et contrôler leur qualité avant leur intégration dans le Data Lake - Développer, structurer, cartographier et nettoyer les données tout en respectant les exigences réglementaires (ex : BCBS239, GDPR, RGPD bancaire) - Produire les livrables : flux d’intégration sous Stambia, Data Lake partagé, cartographie des données, documentation technique et reporting

Permanent
Contractor

Job Vacancy
Data Engineer (Spark-Scala-Azure Devops) H/F

STORM GROUP
Published on
Agile Scrum
Apache Spark
Azure DevOps

3 years
55k-60k €
550 €
Ile-de-France, France

Contexte et objectifs de la prestation : Dans ce cadre, la prestation consiste à contribuer à/au(x) : 1. Projets de migration vers notre nouveau Datalake sur infra “Azure” 2. Projets de maintenance évolutive des Use Cases Data déjà existants 3. Cadrage et chiffrage du projet (et validation) et assistance et expertise dans la définition de la stratégie et solution technique. 4. L'assistance et l'expertise sur l’architecture technique (design et conception) des couches datalake et des moyens de restitutions, 5. La conduite du changement dans la mise en œuvre et l’uniformisation des pratiques Craft 6. La définition des normes et standards de qualité édictés sur le périmètre (qualité de code, sécurité, performance, build automatique, analytics) 7. La définition du bon niveau de la documentation technique et mise à jour associée Diverses étapes de développements notamment sur les développements complexes : chiffrage, conception, spécifications techniques,mise en place, tests, déploiement, revue de code 8. Challenge des choix techniques pour qu’ils soient en adéquation avec : le besoin du client, les normes et standards des entités d’architectures, l’innovation et les principes de la transformation digitale de la banque Expertises : 1. Spark Scala 2. Cloudera, Azure 3. Mode Agile (Scrum) 4. Environnement anglophone.

Permanent

Job Vacancy
Software & Data Science Engineer

BAE Systems
Published on

£47,683-52,426
City of Bristol, United Kingdom

Job Title: Software & Data Science Engineer Location: Warton - Onsite Salary: £47,683+ depending on skills and experience What you'll be doing: Derivation of early concept and/or research requirements Iterative design, development, integration, assessment and demonstration of software and Data Science applications matched to requirements Driving and coordinating collaboration with team members, multi-disciplinary internal specialists, and external partners Driving the adoption and use of good Software Engineering practices and associated Industry Standards where possible Documenting and presenting activity progress and results to internal and external stakeholders Writing business cases and proposals to steer software-related research and internal investment activities Conducting performance reviews and providing day-to-day Line Management for team members Your skills and experiences: Essential Software development using one or more high-level programming languages (e.g. C, C++, Java, Python) Practical applications of Data Science, ideally in the domain of Machine Learning for Artificial Intelligence, and associated development toolsets Utilising collaborative Continuous Integration / Continuous Deployment environments within the Windows and Linux operating systems based on Open Source toolsets e.g. GitLab Desirable The Software Development Lifecycle and Fundamental Software Engineering practices e.g. the use of SOLID principles Managing people and working collaboratively within a multi-disciplinary team Practical application of Agile methods across the requirements capture, planning and execution phases of projects The Systems Technology & Capability Delivery Team: The role involves working as part of a dynamic, highly-collaborative, multi-disciplinary engineering team to develop software applications to support a diverse portfolio of novel technology programmes across the FalconWorks® organisation. These applications will focus on the early instantiation, evaluation and demonstration of the very latest ideas and technologies, frequently working with internal specialists across domains including Mission Systems, Autonomy, Human Factors, Software Engineering, Modelling & Simulation, Information Systems and Test & Evaluation.

Contractor

Contractor job
Data Engineer (localisation à PAU / 2j de tt max)

Cherry Pick
Published on
Python

12 months
600-650 €
Paris, France

Contexte : L’objectif est de renforcer les capacités d’ingénierie de données pour améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles. Objectifs et livrables Objectifs de la mission : Définir les processus de gestion de données et d’information des outils digitaux du métier forage puits. Contribuer à la gouvernance des données (modélisation, documentation, standardisation). Développer et maintenir des pipelines de données robustes et automatisés. Développer et maintenir des outils de contrôle qualité des données (dashboards, alerting, audits). Participer à l’intégration de solutions IA / IA Générative pour des cas d’usage métier. Activités principales : Extraction, transformation et chargement de données issues de sources variées (structurées / non structurées, temps réel / historiques…). Développement de scripts et outils en Python (ou équivalent) pour l’automatisation des traitements. Mise en place / supervision de solutions IA / IA Générative (développées en interne ou customisées à partir d’outils du marché). Participation à la conception de modèles de données logiques et physiques. Mise en place / maintenance d’outils de suivi de qualité des données forage-puits (données real time WITSML, données WellView…), qui pourraient être développés en interne ou customisés sur la base d’outils du marché, pour des besoins spots ou pleinement automatisés et industrialisés. Définition du processus ‘data management’ pour l’outil de gestion de données real time : analyse du processus actuel, proposition d’améliorations et mise en place de ce nouveau processus, en collaboration avec l’éditeur de la solution. Définition, mise en place, puis supervision des tâches admin liées aux outils digitaux du métier forage-puits. Support aux utilisateurs métiers et accompagnement au changement.

Contractor

Contractor job
Lead DATA DATABASE - DATA Engineer Bases de Données

Cherry Pick
Published on
Data analysis
Database
ETL (Extract-transform-load)

1 year
550-600 €
Pau, Nouvelle-Aquitaine

Dans le cadre d’un projet de développement visant à construire une base de données interne intégrant des workflows opérationnels, le Tech Lead Data Base interviendra au sein d’une équipe projets de données . Il aura pour rôle d’assurer la coordination technique , la conception data et l’ intégration de la base dans l’environnement SI de l’entreprise. Responsabilités principales Cadrer les besoins et proposer des évolutions techniques et fonctionnelles du produit existant. Assurer la liaison avec des sociétés de développement externalisées : suivi des exigences, respect des délais, qualité des livraisons. Piloter les scripts de développement et définir la stratégie de déploiement (intégration continue, automatisation, mise en production). Concevoir et intégrer la base de données dans l’architecture SI et la stratégie globale de données. Produire la documentation et les rapports, assurer une communication régulière auprès des parties prenantes. Profil recherché Compétences techniques Ingénierie de données (Data Engineering) : pipelines de données, modélisation, intégration ETL/ELT. Architecture de données (Data Architecture) : modèles de données, urbanisation SI, intégration dans un écosystème complexe. Solide maîtrise des bases de données relationnelles (PostgreSQL, Oracle, SQL Server). Connaissances en gouvernance des données : qualité, sécurité, conformité. Familiarité avec le Cloud (Azure, AWS, GCP) appréciée. Compétences fonctionnelles & méthodologiques Expérience en gestion de projets Data/IT et coordination de prestataires externes. Bonne compréhension des rôles Data Owner / Data Steward et des enjeux de data management . Capacité à documenter et produire des rapports clairs et synthétiques. Pratique des méthodes Agile / Scrum . Expérience & formation 5 à 10 ans d’expérience en ingénierie et architecture de données dans des environnements SI complexes. Expérience confirmée en pilotage technique et coordination multi-acteurs. Formation supérieure en informatique, data engineering ou équivalent . Anglais professionnel. Qualités personnelles Leadership technique, autonomie et rigueur. Excellentes capacités de communication et de coordination. Esprit d’analyse, de synthèse et orientation résultats. Conditions Poste basé à Pau , avec 2 jours maximum de télétravail par semaine .

Contractor
Permanent

Job Vacancy
Data Engineer Python / Spark

HIGHTEAM
Published on
Git
Machine Learning
PySpark

3 years
40k-55k €
400-500 €
Ile-de-France, France

Dans le cadre d’un projet pour l’un de nos clients dans le secteur de la finance , nous recherchons un Data Engineer avec une forte expertise en Python , Spark , et Git . La mission s’inscrit dans un environnement Big Data et suit une méthode Agile . Objectifs de la mission Le consultant contribuera à : Développer de nouveaux modèles et indicateurs Industrialiser ces développements dans un environnement de production APIser les services Produire une documentation fonctionnelle et technique Livrables attendus Développements en Python et Spark Scripts d’intégration (Shell, éventuellement Perl / PHP) Documentation technique & fonctionnelle Services API Code versionné sous Git / GitHub Méthodologie Travail en mode Agile / Scrum

Contractor

Contractor job
Data Engineer (GCP / Python / DBT)

ESENCA
Published on
Agile Method
Apache Kafka
API

1 year
400-430 €
Lille, Hauts-de-France

Nous recherchons un Data Engineer confirmé pour accompagner les produits data de notre périmètre Connaissance Client et Commerce Animation Performance . 🎯 Objectif de la mission Mettre en place une cartographie des données . Concevoir un Datamesh adapté et partagé , incluant son dimensionnement. Déployer un Datamesh avec sondes de contrôle qualité garantissant la fiabilité des données. 🚀 Responsabilités Créer des pipelines robustes et optimisés afin de mettre à disposition les données de manière efficace et avec un coût FinOps maîtrisé. Maintenir et faire évoluer les produits data existants. Collaborer avec les équipes métier dans un environnement Agile (Scrum/Kanban) . 🛠️ Compétences attendues Python (Flask, appels API, Kafka) – Confirmé (impératif). GCP (BigQuery, GCS, Cloud Run, …), DBT – Confirmé (impératif). Github (CI/CD, versioning) – Confirmé (important). Méthodologies agiles (Scrum, Kanban) – Confirmé. Anglais courant – Impératif. ❌ À noter Nous recherchons un Data Engineer , et non un Data Scientist. 📍 Mission longue durée – Démarrage rapide – Contexte stimulant au sein d’une équipe data en structuration.

Contractor

Contractor job
DATA ENGINEER GCP (H/F)

ALLEGIS GROUP
Published on
Big Data
Google Cloud Platform (GCP)
Terraform

1 year
France

TEKsystems recherche pour le compte de son client : Un(e) DATA ingenieur(e) 📌 Contexte : Intégration au sein de l’équipe Finance. Plus précisément, intégration dans une sous-équipe composée de 2 data engineers, au sein d’un ensemble de 8 personnes. 🛠️ Activités : Mise à disposition de nouveaux projets et produits data sur GCP (Google Cloud Platform). Répartition des missions : 70 % dédiés à l’innovation et au développement de nouveaux projets sur GCP. 30 % consacrés à la continuité et au maintien des solutions existantes. 🤝 Interlocuteurs privilégiés : Product Owner (PO), Business Analyst et Chef de projet IT.

Contractor
Permanent

Job Vacancy
Data Engineer Cyber

VISIAN
Published on
Apache Kafka
DevOps
Elasticsearch

1 year
40k-45k €
100-470 €
Montreuil, Ile-de-France

Descriptif du poste Dans le cadre du déploiement du SOC ITG et de la collecte des logs sécurité de ses entités métiers, le bénéficiaire souhaite une prestation en ingénierie Data Collect et Data Transformation autour des solutions techniques Elastic Search et Elastic Beats, pour l'enrichissement d'un "puit de donnée sécurité" pour permettre la corrélation d'événements, et la mise en place d'alerting sur des paterns de sécurité. Missions Mise en place et définition des mécanismes de collecte Définition des patterns d'architectures de la collecte Déploiement de ces dispositifs sur le socle d'infrastructure Groupe, et sur les entités opérées dans les filiales ou à l'étranger Définition et mise en œuvre d'une stratégie de collecte uniforme et standardisée Mise en place de pipelines d'enrichissement de la donnée Maintien condition opérationnelle de la plateforme et des agents de collecte Mise en place de processus d'onboarding de nouvelles sources de logs ou d'assets en liens avec les responsables des systèmes monitorés Support et conseil aux entités utilisatrices des services Maintien et contrôle de la donnée collectée (exhaustivité et qualité)

Contractor
Permanent

Job Vacancy
Data Engineer SQL Server (T-SQL)

HIGHTEAM
Published on
BI
Microsoft Power BI
OLAP (Online Analytical Processing)

3 years
40k-55k €
400-500 €
Ile-de-France, France

Dans le cadre d’un renforcement d’équipe Data notre client recherche un Data Engineer confirmé spécialisé sur SQL Server . Vous serez responsable de : Maintenance évolutive et corrective des flux de données Développement SQL : modélisation, transformation de données, calculs d’indicateurs Gestion des flux de données : fichiers plats, XML, API REST, web services Ordonnancement des traitements via Control-M Optimisation de requêtes SQL et modèles de données Rédaction de documentations techniques Réalisation de tests unitaires et participation aux recettes Support utilisateur et gestion des incidents Participation active à la méthodologie Agile (Kanban) : Daily, poker planning, rétrospectives

Contractor

Contractor job
Data Engineer confirmé GCP / dbt / Looker | Full remote (Maghreb)

skiils
Published on
DBT
Google Cloud Platform (GCP)

3 years
130-230 €
Paris, France

Nous recherchons un Data Engineer pour intervenir en prestation (nearshore) dans le cadre d’un projet de transformation data ambitieux chez un acteur majeur du retail . L’objectif ? Concevoir, piloter et opérer des systèmes analytiques robustes, scalables et sécurisés, tout en encadrant techniquement une équipe de data engineers. 📍 Localisation : Nearshore (Full remote) 📅 Démarrage souhaité : 3 juin 2025 ✨ Ce que tu feras au quotidien Concevoir et opérer des pipelines data de bout en bout (ingestion, traitement, modélisation, valorisation, restitution) Développer et maintenir les applications back-end d’une plateforme data & analytics Garantir la qualité, la sécurité, l’observabilité et la scalabilité des solutions déployées Implémenter des couches sémantiques et des modèles de données pour la visualisation Participer activement à toutes les étapes du cycle de développement logiciel (conception, code, tests, CI/CD, déploiement) Collaborer avec les équipes business, produit et design dans une méthodologie Scrum 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, Cloud Functions, Pub/Sub, Cloud Composer) Transformation : DBT (data build tool) Visualisation : Looker (LookML) Langages : SQL, Python CI/CD & Qualité : Git, GitLab, tests automatisés, linting, Sonar Observabilité : monitoring, alerting, logging

Contractor
Permanent

Job Vacancy
Data Engineer Azure / Python

VISIAN
Published on
Azure
Azure Data Factory
Azure DevOps

1 year
Paris, France

Le rôle consiste à piloter des projets d’intégration temps réel et de data (big data & insights) , en assurant la conception et le déploiement de pipelines de données robustes pour les data scientists et data analysts. Il implique de proposer des solutions techniques adaptées , d’apporter une expertise sur les architectures Cloud , de garantir la qualité et la gouvernance des données (préparation, traçabilité, conformité) et d’optimiser les processus internes. Le poste demande également une collaboration internationale pour partager les bonnes pratiques et améliorer le data-sharing et la protection des données .

Contractor
Permanent

Job Vacancy
Data Engineer GCP (F/H)

CELAD
Published on
Google Cloud Platform (GCP)

12 months
42k-50k €
450-470 €
Lille, Hauts-de-France

CDI/Freelance/Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous souhaitez contribuer à la valorisation de la donnée dans un environnement Retail en pleine transformation digitale ? Vous aimez concevoir des pipelines robustes, fiabiliser les flux et exploiter la puissance du cloud GCP ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la fiabilité et la disponibilité des données pour les équipes métiers, Data Analysts et Data Scientists - Définir et mettre en place la gouvernance de la donnée et son cycle de vie dans un contexte Retail (gestion de la donnée client, transactionnelle et produit) - Intégrer et superviser les données issues de multiples sources (e-commerce, magasins, CRM, etc.) dans le Data Lake GCP - Développer, nettoyer et structurer les pipelines de données en assurant leur qualité, sécurité et conformité réglementaire (RGPD) - Produire et maintenir les livrables : Data Lake partagé, cartographie des données, code, reporting et documentation technique

Contractor

Contractor job
Data Engineer confirmé Maintenance et Inspection pour la Digital Line

Signe +
Published on
Java
Python
Scala

6 months
320-370 €
Pau, Nouvelle-Aquitaine

Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un "Data Engineer confirmé Maintenance et Inspection pour la Digital Line". Objectifs et livrables : Conception, développement et maintenance de pipeline de données évolutifs sur la plateforme Data Fabric, incluant ingestion et optimisation des performances et de l'usage de la donnée Garantir la qualité, sécurité et intégrité des données tout au long des pipelines Collaboration transversale avec les équipes Data Science, BI, Devops Réalisation d'audits techniques et proposition d'améliorations continues

Contractor

Contractor job
Data Engineer AWS expérimenté/sal

WorldWide People
Published on
AWS Cloud

4 months
400-450 €
Boulogne-Billancourt, Ile-de-France

Data Engineer AWS expérimenté. Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Date de début souhaitée : début septembre Durée : jusqu'à fin d'année minimum Localisation : Boulogne Billancourt + Télé travail Télétravail possible à hauteur de 50% L'objectif est de déployer jusqu’à l’environnement de production ce qu’on appelle l’environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync) alimenté depuis un datalake on premise. Dans le cadre d’un nouveau produit déployé sur AWS, il faudra mettre en œuvre des services data et un front (cible génération de CR mode speech to speech) : · Résoudre les éventuels problèmes résiduels sur les environnements · Utiliser les services Data AWS, ainsi que bedrock, et les solutions de RAG etc... pour implémenter les Use Case Data et IA Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Environnement technique : AWS solutions Data et IA

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

257 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us