Find your next tech and IT Job or contract role.

Your search returns 259 results.
Contractor

Contractor job
URGENT! Data Engineer – Azure, Kafka, Finance – Remote working (h/f)

emagine Consulting SARL
Published on

6 months
500-650 €
75001, Paris, Île-de-France

Vous êtes un Data Engineer expérimenté avec de solides connaissances d'Azure ? emagine a une opportunité pour vous d'aider à l'intégration de SAP BW et SAP BFC dans une plateforme de données moderne basée sur Azure, permettant l'analyse financière prédictive grâce à l'IA. Are you an experienced Data Engineer with strong Azure? emagine has an opportunity for you to assist in the integration of SAP BW and SAP BFC into a modern Azure-based data platform, enabling predictive financial analytics through AI. Expected Skills: Experience: Over 7 years of experience in Data Engineering including working in an international environment. Essential: Azure Functions, Apache Kafka, Python Strong Plus: SAP BW, SAP BFC, Internal Finance Nice to Have: MS Fabric, AI integration experience Language: English – Fully fluent Key Tasks & Deliverables: Design and implement robust data pipelines between SAP BW, SAP BFC, and Azure. Ensure data integrity, security, and real-time processing capabilities. Enable seamless data consumption by AI models for KPI prediction. Provide documentation and training for long-term support and maintenance. Apply with your latest CV or reach out to Brendan to find out more.

Contractor

Contractor job
Data Engineer AWS / Databricks

Groupe Aptenia
Published on
AWS Cloud
Databricks
Python

3 years
450-500 €
Paris, France

Nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur une mission de conseil et d’optimisation d’une Data Platform AWS Databricks . ✅ Vos missions principales Auditer l’existant de la Data Platform AWS Databricks Proposer des préconisations techniques & méthodologiques pour renforcer la performance et la fiabilité Conseiller les équipes sur les bonnes pratiques Data & Cloud Contribuer à l’évolution et à la roadmap de la plateforme Accompagner les équipes internes dans la mise en œuvre

Permanent
Contractor

Job Vacancy
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS

UCASE CONSULTING
Published on
Apache Spark
Microsoft Analysis Services (SSAS)
Scala

3 years
25k-58k €
310-600 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Contractor
Permanent

Job Vacancy
Technico-Fonctionnel Full Stack / Data engineer (Snowflake) / Audit & Estimation Description

R&S TELECOM
Published on
Apache Airflow
AWS Cloud
Full stack

12 months
40k-48k €
400-480 €
Malakoff, Ile-de-France

Contexte & Objectif Dans le cadre d’un projet Data déjà développé, le client souhaite faire appel à un expert capable de réaliser un audit technique et fonctionnel. En tant que Technico-Fonctionnel Full Stack / Data engineer (Snowflake) / Audit & Estimation vos principales missions seront les suivantes : Réaliser un audit complet d’un projet existant. Vérifier la compatibilité technique avec Snowflake et les environnements associés. Analyser et traduire le code back/front . Produire des recommandations concrètes : faisabilité, coûts, charge, risques. Intervenir en interface technico-fonctionnelle entre équipes techniques et métiers.

Contractor

Contractor job
Data Engineer Intégrateur

VISIAN
Published on
Apache Kafka
Dataiku
Javascript

2 years
400-650 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un Data Engineer afin d’accompagner la transformation des systèmes d’information et l’évolution des architectures data. Vos missions principales consisteront à : Maîtriser et mettre en œuvre l’ensemble des techniques et technologies composant une Data Platform. Accompagner les projets de collecte, transformation, stockage et mise à disposition de données issues de sources variées. Concevoir et déployer des outils et processus d’automatisation (CI/CD) pour les pipelines d’ingestion de données, qu’ils soient en batch ou en temps réel. Développer et maintenir des mécanismes de contrôle qualité garantissant l’intégrité et la fiabilité des données. Participer à la conception des solutions techniques et fonctionnelles en lien avec les équipes opérationnelles. Gérer le cycle de vie complet des données (flux, traitement, stockage). Automatiser les installations des socles techniques et assurer un support technique et fonctionnel, incluant l’analyse et la résolution des incidents. Contribuer à la rédaction de la documentation fonctionnelle, technique et d’exploitation en respectant les normes existantes. Environnement technique : Bases de données SQL/NoSQL Kafka Dataiku Python / SQL / Java Suite Elastic Zabbix Dynatrace Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous

Permanent
Contractor

Job Vacancy
Data Engineer T-SQL (Sqlserver 2019) - 6 ans d'expérience minimum

SMILE
Published on
DBMS
SQL
Transact-SQL

6 months
Paris, France

L’infocentre commercial de la Banque a pour rôle de collecter (depuis les systèmes front, pour tous les produits), normaliser, enrichir les données (depuis des référentiels) et créer/générer des analyses de l’activité commerciale de la Salle des Marchés à l’aide de différents outils décisionnels. L’infocentre présente principalement 5 types de données : La performance commerciale : décomposée en une partie client et une partie vendeur Hit Ratio : les demandes de prix électroniques, récupérées des plateformes La trésorerie : calculée en fonction des opérations effectuées par la Salle des Marchés CRM : données de meeting, contacts, etc. fournies par l’outil CRM interne Réglementaire (post-trade) : afin de lever des alertes au Front Par ailleurs, l’infocentre est branché à de nombreux référentiels et applications, ce qui permet de fournir différents axes d’analyses de la donnée aux utilisateurs. L'équipe est divisée en plusieurs Business Lines : Salle des Marchés ; Commercial ; Conformité ; Onboarding. Ces Business Lines sont composées de profils Business Analyst, Développeur & BI, organisés en équipe Agile. Les équipes sont principalement localisées en France (80%) et au Portugal (20%). ment en C#

Contractor

Contractor job
Data Engineer SPARK PYTHON Confirmé (F/H) - TOURS

Espace Freelance
Published on
Java

3 months
400-510 €
Tours, Centre-Val de Loire

REF : EFP/DEC/326328 Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Data Engineer Confirmé (F/H) Mission à pourvoir en régie à Tours Présence sur site hybride Le consultant devra être en mesure d’assurer les missions suivantes : · Participer à l’élaboration du design technique des produits logiciels · Faciliter la recherche de solutions techniques adaptées · Prendre en charge une partie des développements · Accompagner les autres développeurs (coaching, optimisation de code) · Collaborer avec l’architecte data pour l’intégration des produits dans le SI · Garantir la qualité des produits logiciels · Accompagner les directions métiers dans la réalisation de leurs cas d’usage data

Contractor

Contractor job
Data Engineer Senior (Spark,Java,Pyton,SQL)

Cherry Pick
Published on
Apache Spark
Java
Python

12 months
500-560 €
Paris, France

Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO

Contractor
Permanent

Job Vacancy
Data Engineer GCP & Talend

Espritek
Published on
Google Cloud Platform (GCP)
SQL
Talend

3 years
Ivry-sur-Seine, Ile-de-France

Au sein de la Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour nos équipes. Description  Missions principales • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe Livrables Développements Cahiers de test/recette Dossier de recette / Mise en production Spécifications Document d'exploitation Fiche consigne Compétences  Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • Talend : Solides compétences dans la conception et la gestion des workflows • GCP : Expérience sur les outils BigQuery, Dataflow, DataForm, Pub/Sub, CoudComposer et d’autres services GCP liés aux données. • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins, ou Terraform (serait un plus).

Contractor

Contractor job
DATA Engineer - AWS(H/F)

Atlas Connect
Published on
AWS Cloud
Azure DevOps
Data Lake

1 year
510-540 €
Ile-de-France, France

Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.

Contractor

Contractor job
Data Engineer AWS

RED Commerce - The Global SAP Solutions Provider
Published on
AWS Cloud
Data Lake
Dataiku

3 months
Paris, France

Kajenthi@RED Global – Recherche Data Engineer AWS – IDF – Freelance – 3 mois + Dans le cadre du déploiement d’un environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync), alimenté depuis un Data Lake on-premise , RED Global recherche un Ingénieur Data pour accompagner la mise en production d’un nouveau produit sur AWS . Missions : Résolution des problèmes techniques résiduels sur les environnements. Mise en œuvre de services Data et IA (Bedrock, RAG, etc.). Contribution à un front de génération de comptes-rendus en mode speech-to-speech . Compétences requises : Minimum 3 ans d’expérience sur AWS en environnement Data. Bonne maîtrise des services Data AWS . Connaissance de Starburst et Dataiku appréciée. Environnement technique : AWS, Dataiku, Starburst, Datasync, Bedrock, RAG, Data Lake on-premise. Si vous souhaitez recevoir de plus amples informations sur la mission ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour :

Contractor

Contractor job
Data Engineer confirmé (F/H) – Nantes (3jours par semaine sur site)

AKERWISE
Published on
Python

12 months
340-370 €
Nantes, Pays de la Loire

Dans le cadre du renfort d’une équipe Data au sein d’un grand acteur du secteur public, nous recherchons un·e Data Engineer expérimenté·e pour assurer la continuité d’activité sur des projets stratégiques de valorisation de données clients et opérationnelles. La mission s’inscrit dans un contexte de consolidation des données, de mise à disposition d’indicateurs métiers, et d’industrialisation des traitements au sein d’une plateforme Data de grande ampleur. Localisation : Nantes (présence sur site 3 jours / semaine) Démarrage : ASAP Durée : Mission longue Expérience requise : 4 ans minimum 🎯 Vos principales missions : Participer à la compréhension des besoins métiers et des enjeux Data Définir le périmètre de données nécessaire à chaque projet Concevoir et optimiser les modèles de données et pipelines (Python / PySpark) Créer les tables et vues nécessaires aux différents cas d’usage Industrialiser les traitements en lien avec les équipes Ops Data Assurer un rôle de référent technique au sein de l’équipe Accompagner les travaux liés à la migration de plateforme

Contractor

Contractor job
Data Engineer Kafka, KStreams, K8S, Spark

KEONI CONSULTING
Published on
DevOps
Java

18 months
100-400 €
Paris, France

MISSION Au sein de la Data Platform, le renfort devra intervenir en tant qu'expert sur les sujets Kafka, KStreams, K8S, Spark de la squad Data Value (connaissance client, collecte des événements digitaux...). Développer en Java des traitements de transformation et de production de données ; Designer des chaines optimisées CI/CD en collaboration avec les équipes. Assurer et garantir la production d'un code de qualité : robuste, maintenable et évolutif Participer à l'amélioration continue et à la revue de code Expertise souhaitée Expertise technique confirmé : - Kafka - Kstreams - K8s - streaming de données

Contractor
Permanent

Job Vacancy
Dev / Data Engineer orienté DevOps

VISIAN
Published on
Apache Spark
Control-M
Hadoop

1 year
45k-55k €
400-560 €
Paris, France

L'objectif de la mission est de renforcer une équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein d'une Squad : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets La mission principale de la prestation aura pour but de : traiter nos obsolescences de Framework (ex : springboot , spark2 ) moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : migration depuis tfs vers jenkins création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python )

Contractor

Contractor job
Data Engineer AWS

Groupe Aptenia
Published on
AWS Cloud
Dataiku
RAG

4 months
410-540 €
Ile-de-France, France

Nous recherchons un(e) Data Engineer AWS pour le déploiement d’un nouvel environnement de Data Augmentée et de GenAI sur AWS. 📍 Localisation : Paris / Remote partiel possible 📅 Démarrage : 01/09/2025 ✅ Déploiement d’un environnement Data & IA complet (AWS, Dataiku, Starburst, Datasync) alimenté depuis un datalake on-premise ✅ Résolution des problèmes résiduels sur les environnements existants ✅ Mise en œuvre des services AWS Data & IA (dont Bedrock) ✅ Implémentation de use cases RAG et Speech-to-Speech

Contractor

Contractor job
Data Analytics Engineer *ServiceNow/Snowflake*

Trait d'Union Consulting
Published on
Apache Airflow
DBT
ServiceNow

6 months
500-550 €
Issy-les-Moulineaux, Ile-de-France

Dans le cadre du renforcement des capacités analytiques autour des processus ITSM, nous recherchons un consultant Data Analytics Engineer autonome. Vous interviendrez sur la mise en œuvre de la connectivité entre ServiceNow et Snowflake , afin d’exploiter les données ITSM (incidents, demandes, changements, problèmes…) et d’alimenter des cas d’usage analytiques pour plusieurs départements internes (IT, qualité, gouvernance, opérations…). Missions principales Établir et sécuriser la connexion technique entre ServiceNow ITSM et Snowflake. Extraire et charger les données des modules ITSM (Request, Incident, Change, Problem Management). Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale). Structurer les données dans Snowflake (logique modulaire, réutilisable, exploitable). Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité. Documenter pipeline, schémas de données et points de reprise. Environnement technique Source : ServiceNow ITSM (REST API, exports planifiés) Destination : Snowflake Orchestration : Airflow (ou équivalent) Transformation : DBT Core / SQL Modélisation : DrawIO ou équivalent Visualisation : Tableau CI/CD & versioning : GitLab Documentation : Confluence, Jira

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

259 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us