Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 315 résultats.
Mission freelance
Data Engineer Senior
Groupe Aptenia
Publiée le
Informatica PowerCenter
Java
Oracle
2 ans
500-520 €
Bruxelles, Bruxelles-Capitale, Belgique
🔍 Nous recherchons un Ingénieur Data Senior pour renforcer une équipe en charge de la conception et de l’optimisation de pipelines ETL (Informatica PowerCenter) sur des bases de données massives (20 To+ : Oracle/SybaseIQ). Vous participerez également au développement d’applications Java (Springboot, Maven) et à l’amélioration des processus de release et de performance. 🎯 Vos missions principales ✅ Concevoir et optimiser des pipelines ETL complexes (Informatica PowerCenter). ✅ Développer des applications Java (Springboot, Maven) pour des solutions data robustes. ✅ Collaborer avec les analystes métiers pour traduire les besoins en solutions techniques. ✅ Gérer les releases : Sécuriser les changements, appliquer les bonnes pratiques de codage. ✅ Optimiser les performances : Traitement par lots, planification, automatisation. ✅ Résoudre des problèmes avec une approche pragmatique et proactive. ✅ Travailler en équipe pluriculturelle (environnement anglophone, secteur bancaire/assurance un plus).
Mission freelance
Data engineer
Comet
Publiée le
Azure Data Factory
Databricks
Scala
12 mois
400-560 €
Île-de-France, France
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques : Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code Le profil est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
Senior Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
Apache Airflow
Automatisation
2 ans
Paris, France
Missions principales Concevoir et faire évoluer des architectures data cloud sur AWS Développer et maintenir des pipelines data fiables et performants (batch & orchestration) Industrialiser les traitements data et API de services data Participer aux choix d’architecture, aux bonnes pratiques et à la gouvernance data Collaborer étroitement avec les équipes Analytics, BI et IA Contribuer à l’automatisation, à la qualité et à l’observabilité des chaînes data Cloud & Data AWS (Redshift, services managés) Terraform (Infrastructure as Code) Airflow (orchestration) Développement Python FastAPI Docker Atouts bonus Expérience GCP (BigQuery, services data) Exposition ou projets autour de l’ IA agentique (LLM, agents, automatisation intelligente, pipelines IA)
Offre d'emploi
Data Engineer H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : mowzc8bs1s
Mission freelance
Data Platform Engineer
Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD
6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
Mission freelance
AI Data Engineer (Microsoft Fabric & Azure) (h/f)
emagine Consulting SARL
Publiée le
6 mois
550-650 €
75001, Paris, Île-de-France
Vous êtes un ingénieur de données IA expérimenté et possédez une expertise pratique approfondie de Microsoft Fabric et de l'ingénierie de données Azure moderne ? emagine vous offre l'opportunité de participer au développement, à l'optimisation et à la mise à l'échelle de pipelines de données et d'architectures lakehouse qui permettent la mise en œuvre d'initiatives avancées en matière d'analyse et d'IA au sein d'une équipe internationale. Are you an experienced AI Data Engineer with deep hands‑on expertise in Microsoft Fabric and modern Azure data engineering? emagine has an opportunity for you to support the development, optimisation, and scaling of data pipelines and lakehouse architectures that enable advanced analytics and AI initiatives across a global team. Skills & Experience 10+ years’ experience as a Data Engineer, AI Engineer, or similar role. Strong hands‑on experience with Microsoft Fabric (Lakehouse, Data Engineering, Data Factory, Data Pipelines). Deep expertise across Azure Data Services: Azure Data Factory Azure Databricks / Spark Azure Synapse Analytics (SQL Pools) Azure Storage / ADLS Gen2 Azure Functions Azure Machine Learning Proficiency in Python and SQL for data processing and transformation. Strong experience building lakehouse architectures and Delta Lake pipelines. Knowledge of modern DevOps/MLOps practices including testing, version control, and automated deployment. Familiarity with governance solutions such as Azure Purview or Fabric governance. Key Tasks & Deliverables You will play a pivotal role in designing and running data engineering capabilities that enable analytics, AI, and ML use cases. Responsibilities include: Data Engineering & Architecture Design, build, and maintain scalable data pipelines on Microsoft Fabric (Data Factory, Dataflows, Lakehouse, Warehouse, OneLake). Develop ingestion, transformation, and orchestration workflows using Azure Data Factory, Azure Databricks, Azure Synapse, and Azure Functions. Implement and optimize Delta Lake architectures for both structured and unstructured datasets. Build reusable, production-grade data products supporting analytics, ML, and AI workloads. AI & Advanced Analytics Integration Collaborate with Data Scientists and ML Engineers to operationalize models via Azure Machine Learning, Fabric Data Science, or Databricks. Prepare feature‑engineered datasets for machine learning workloads. Implement MLOps workflows including automated deployments, model monitoring, and pipeline observability. Governance, Quality & Security Implement data quality, observability, monitoring, and lineage frameworks using Fabric and Azure Purview. Ensure compliance with governance, privacy, and security standards. Manage CI/CD pipelines and version‑controlled data code via Azure DevOps or GitHub. Collaboration & Stakeholder Engagement Work closely with business analysts, product owners, and domain experts to define data requirements and deliver high‑value solutions. Maintain documentation of data models, sources, pipelines, and best practices. Provide technical leadership and mentoring across the engineering team. Why join this project? You’ll be joining a collaborative, enabling environment that values innovation while giving you autonomy to architect modern data solutions at scale. Apply with your latest CV or reach out to Brendan to find out more.
Mission freelance
POT8904 - Un Data Engineer Spark/Scala sur Bordeaux
Almatek
Publiée le
Dataiku
6 mois
190-410 €
Bordeaux, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients Un Data Engineer Spark/Scala sur Bordeaux. Afin de renforcer l'équipe de développement, on recherche un Data Engineer expérimenté et connaissant les technos suivantes : Solutions utilisées : -Socle Big Data (OI1) : *Compute : Yarn *Storage: HDFS (avec chiffrement pour C3), Hive *Sécurité des données: Ranger, Ranger KMS, Ldap, Kerberos Frameworks/langage/outils utilisés : -MoveNAStoHDFS -Moteur d'ingestion v2 -Spark Scala -Dictionnaire de données -Socle Data Science : *DataiKu Automation Frameworks/langage/outils utilisés: -Spark 3 -HQL Localisation : Bordeaux + 2 à 3 jours de présence sur site requise
Offre d'emploi
Data Engineer (F/H)
Savane Consulting
Publiée le
50k-55k €
Rennes, Bretagne
Data Engineer - CDI - Rennes (35) - 50-55k€ Contexte Notre client, acteur coopératif majeur de la production animale et de l'agroalimentaire, poursuit sa transformation numérique via le programme "Élevage 4.0". Dans le cadre d'une création de poste, l'entreprise recrute un Data Engineer pour internaliser la compétence et structurer l'analyse de données issues des élevages connectés. Missions Rattaché(e) au pôle technique, vous prenez en charge le développement du moteur de données et la mise en place de l'architecture analytique. Vous intervenez de la collecte de la donnée brute jusqu'à sa mise à disposition fonctionnelle. Vos responsabilités principales sont : Orchestration & Pipelines : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour assurer la fiabilité des flux. Configuration de la Stack : Assurer la configuration et le maintien en conditions opérationnelles des outils de l'infrastructure data. Modélisation : Construire les modèles de données, les agrégats et les cubes d'analyse multidimensionnels pour servir les besoins métiers. Restitution : Développer les premiers tableaux de bord fonctionnels (focus sur la pertinence de la donnée et la structure, sans intervention sur l'UX/UI).
Offre d'emploi
Data Engineer Senior - Nantes &Vannes F/H
Argain Consulting Innovation
Publiée le
Apache Hive
Apache Spark
Batch
2 ans
40k-45k €
400-550 €
Nantes, Pays de la Loire
Nous recherchons un Data Engineer pour intervenir sur la fabrication de cas d’usages Data et le développement des produits associés. L’environnement est transverse, multi-sites, avec des enjeux forts de cohérence, de qualité et d’industrialisation des solutions Data à l’échelle de l’entreprise, en lien avec les équipes métiers et techniques. ➕ Les + de la mission Environnement technique structuré Enjeux Data à forte valeur métier Collaboration avec des équipes techniques expérimentées Mission longue durée 📍 Localisation Vannes / Nantes (1 jour par semaine sur site à Vannes requis) Mission longue
Mission freelance
POT8873 - Un Data Engineer sur Lyon
Almatek
Publiée le
SQL
6 mois
260-430 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, un Data Engineer sur Lyon. Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client Savoir-être : Bonnes compétences en communication Esprit d’équipe : capacité à collaborer efficacement Force de proposition : aptitude à apporter des idées et solutions proactives
Mission freelance
Développeur Data/Data Engineer (H/F)
Insitoo Freelances
Publiée le
Azure
Cloud
PySpark
2 ans
380-480 €
Charleroi, Hainaut, Belgique
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Data/Data Engineer (H/F) à Charleroi, Belgique. Les missions attendues par le Développeur Data/Data Engineer (H/F) : Politique télétravail / venue sur site : 2 jours sur site / semaine Autre : Le site n’est pas facilement accessible en transports en commun, la possession d’un permis de conduire et d’un véhicule sera préférable pour les déplacements. Principales responsabilités : Développer les flux d'ingestion via Fabric Data Factory (et comprehension de Azure Data Factory) ; Développer les flux de transformation de données via Fabric Factory Notebook ; Optimiser les Queries des transformations, en particulier en prenant en compte les coûts Azure associés ; Contribuer à la modélisation du Lake House ; Établir le Design technique,implémentation de l'architecture médaillon (silver& gold) dans Microsoft Fabric ; Établir le plan de tests unitaires (automatisables) de la solution ; Suivre/exécuter les tests unitaires ; Participer à l’estimation de l’effort lié aux activités de développement lors du cadrage de la demande ; Rédiger la documentation technique ; Contribuer à l’amélioration continue (guidelines de développement) ; Contribuer à la maintenance & résolution des incidents (production).
Mission freelance
Data Engineer - Secteur Assurance et Prévoyance (H/F)
EASY PARTNER
Publiée le
Apache NiFi
Bash
Gitlab
230 jours
420-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Dans le cadre d'un projet de refonte de son SI, notre Groupe renforce son dispositif Data au sein de la Direction des Systèmes d’Information. L’objectif est de concevoir, développer et maintenir des flux de données fiables et industrialisés au service des équipes métiers Épargne et Services Financiers. Le poste est rattaché au DAS Épargne & Services Financiers et s’inscrit dans un environnement orienté data, qualité et automatisation. Missions Missions principales En tant que Data Engineer, vous interviendrez sur la conception, le développement et l’industrialisation des flux de données, dans un contexte finance / assurance à forts enjeux de qualité, de traçabilité et de performance. Concevoir et implémenter le socle data du Master Data Management (MDM) Intégrer et transformer les données issues de différentes sources Sécuriser et industrialiser les flux dans le respect des standards de qualité et de traçabilité attendus Mettre en œuvre des traitements de données (collecte, transformation, stockage) Garantir la qualité, la fiabilité et la performance des flux Travailler en lien étroit avec les équipes métiers et IT Contribuer aux bonnes pratiques de développement, d’automatisation et de CI/CD Stack technique Compétences requises (niveau confirmé) Data & traitement : Apache NiFi, requêtage et traitement de données (SQL / NoSQL) Connaissance des formats et protocoles : JSON, XML, CSV, REST API Base de données & stockage : PostgreSQL, Stockage objet (S3) DevOps & industrialisation : GitLab, GitLab CI, Pratiques CI/CD Compétences appréciées Langages & scripting : Python, Bash
Mission freelance
Data Engineer Snowflake (H/F)
Cherry Pick
Publiée le
AWS Cloud
Python
Snowflake
12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Snowflake (H/F) pour l'un de ses clients qui opère dans le secteur du prêt-à-porter. Description 🏢 Le Contexte : Pilotage et Évolution du socle Snowflake Vous rejoignez une équipe Data en pleine transformation. Le socle technologique est désormais en production et nous recherchons un Data Engineer Senior pour reprendre le flambeau, sécuriser le "Run" et poursuivre le développement de la plateforme. L'enjeu est double : assurer une passation fluide avec le consultant sortant (fin de mission fin avril) et accompagner l'arrivée du nouveau Responsable Data (prévue le 9 février) dans l'évolution de la stratégie (replatforming d'apps legacy, architecture cloud). 🎯 Vos Missions : Développement, Run et Optimisation En tant que référent technique Snowflake, vos responsabilités couvrent l'ensemble du cycle de vie de la donnée. 1. Développement & Engineering : Développer et optimiser les pipelines de données complexes. Faire évoluer la plateforme Data pour répondre aux nouveaux besoins métiers. Intégrer les fonctionnalités avancées de Snowflake ( Snowflake Cortex et Snowflake Intelligence IA for SQL ) pour automatiser les analyses. 2. Run & Passation (Priorité court terme) : Assurer la reprise en main complète de l'environnement de production. Récupérer l'historique et les bonnes pratiques lors de la phase de passation (binôme avec le consultant actuel). Garantir la stabilité et la disponibilité des flux en production. 3. FinOps & Performance : Piloter l'optimisation des coûts liés à l'utilisation de Snowflake. Mettre en place des stratégies de monitoring de consommation et de tuning de performance.
Offre d'emploi
Data Engineer Cloud & BI (Finance)
Amontech
Publiée le
Azure
Git
Google Cloud Platform (GCP)
1 an
40k-45k €
400-450 €
Île-de-France, France
Contexte Nous recherchons un(e) Data Engineer pour rejoindre un projet stratégique dans le secteur bancaire. La mission vise à améliorer l’exploitation des données métiers à travers la création et la refonte de dashboards et le développement de solutions analytiques sur le cloud. Missions Comprendre l’environnement et les besoins métiers pour proposer des solutions adaptées S’approprier et optimiser les dashboards existants Collecter, transformer et gérer les données en garantissant leur qualité, intégrité et sécurité Participer à la définition et au suivi des KPI métiers Animer des ateliers et groupes de travail avec les utilisateurs pour collecter les besoins Développer et automatiser les traitements de données Former et accompagner les utilisateurs sur les outils et dashboards Contribuer à l’amélioration de l’expérience utilisateur (UX) et du design des tableaux de bord
Offre d'emploi
Data Engineer (4+ ans d'exp)
WINSIDE Technology
Publiée le
Google Cloud Platform (GCP)
40k-54k €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer confirmé.e ! 🚀 Ce poste est fait pour toi si : Tu as 5 ans d'expérience professionnelle en tant que Data Engineer . Tu as de l'expérience professionnelle avec AWS ou GCP . Tu parles anglais à un niveau professionnel. Tu as déjà travaillé avec Airflow et Spark . Missions: Concevoir, développer et maintenir des pipelines de données robustes, scalables et sécurisés Collecter, transformer et intégrer des données issues de sources hétérogènes (APIs, bases SQL/NoSQL, fichiers, etc.) Mettre en place des architectures data (data lake, data warehouse, data mesh) adaptées aux besoins métiers Optimiser les performances des traitements et garantir la qualité, la traçabilité et la gouvernance des données Collaborer avec les Data Scientists, Analysts et Product Managers pour répondre aux cas d’usage data Industrialiser les modèles et les flux de données dans des environnements cloud ou on-premise Assurer la surveillance, le monitoring et le support des plateformes data Participer à la veille technologique et à l’amélioration continue des outils et pratiques data engineering Contrat: CDI, statut cadre. Démarrage: fin avril 2026. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Mission freelance
Data Engineer SQL Oracle (H/F)
Insitoo Freelances
Publiée le
Oracle
SQL
2 ans
350-410 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer SQL Oracle (H/F) à Lyon, France. Contexte : Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client (les jours ne sont pas affilés) Savoir-être : MUST Bonnes compétences en communication Esprit d’équipe : capacité à collaborer efficacement Force de proposition : aptitude à apporter des idées et solutions proactives
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ARCE | Informations générales-Indemnisation
- Je code pour vous une application gratuitement
- Passage au réel après dépassement micro : notification URSSAF ?
- Placement via mon EURL à l'IS
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- TJM en vrille sur une proposition d'AO
315 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois