L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 272 résultats.
Mission freelance
Data Engineer Expert - Infogérance - Lille (H/F)
Publiée le
Microsoft Fabric
Python
6 mois
550-600 €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre d'un projet ambitieux de transformation digitale, notre entreprise spécialisée dans les technologies de l'information et des télécommunications, située à Lille, cherche à renforcer son équipe avec deux Data Engineers experts. Notre mission : offrir des solutions robustes et évolutives basées sur Microsoft Fabric pour répondre aux besoins stratégiques de nos clients. Vous rejoindrez une équipe dynamique et collaborative, composée de Data Analysts et de spécialistes IT, où votre expertise sera cruciale pour la réussite de projets multicanaux et l'intégration de données complexes. Dans cette mission critique, vous serez un maillon essentiel de notre département Data Operations, travaillant sur des projets à fort impact business. Urgent : un Data Analyst doit rejoindre nos équipes sous 2 semaines, et le staffing global est prévu pour décembre, en vue de démarrer les lots en janvier pour une durée de 6 mois renouvelables, jusqu'à 12 mois selon l'évolution des projets. Missions - Implémenter et optimiser les composants Microsoft Fabric pour répondre à des cas d’usage prioritaires. - Concevoir et industrialiser des pipelines ETL/ELT, APIs et modèles de données avancés. - Assurer l'observabilité, la qualité des données, les tests rigoureux, ainsi que la mise en place des pratiques CI/CD. - Optimisation des coûts/performance, renforcer les aspects sécurité et conformité. - Assurer une collaboration étroite et efficace avec les Data Analysts et les équipes métiers.
Mission freelance
POT8700 - Un Data Engineer sur Clermont-ferrand
Publiée le
Microsoft Power BI
2 mois
280-430 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-ferrand. Descriptif : Le Data Engineer développe, construit et maintient des infrastructures de données d'un point de vue système et sécurité. Il s'assure de la collecte, du stockage et de l'exploitation des flux de données répondant aux enjeux de l'entreprise. Compétences techniques : Data engineer - Confirmé - Important Connaissances BI / Data - Confirmé - Important Connaissances linguistiques : Anglais Courant (Impératif) Français Courant (Secondaire)
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Talend
36 mois
Ivry-sur-Seine, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer confirmé pour rejoindre une Data Factory moderne et innovante au sein d’un grand groupe du secteur de la grande distribution. Vous participerez à la conception, l’optimisation et la maintenance de pipelines de données sous Talend et GCP , dans un environnement orienté performance et fiabilité. Concevoir, développer et optimiser des pipelines de données robustes et scalables sous Talend et GCP . Analyser les besoins métiers pour proposer des solutions Data alignées avec les objectifs stratégiques. Améliorer la performance et la disponibilité des traitements existants. Participer aux phases de recette, de déploiement et de maintenance. Assurer la documentation et la mise en place de bonnes pratiques. Mettre en œuvre des outils de monitoring et d’alerting. Collaborer avec les équipes Data, PO et Architectes.
Offre d'emploi
DATA ENGINEER MSBI / GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
MSBI
6 mois
40k-45k €
400-550 €
Paris, France
Contexte du poste Dans le cadre d’un programme de migration des solutions décisionnelles Microsoft vers Google Cloud Platform (GCP) , nous recherchons un Consultant Data Engineer expérimenté capable d’assurer la transition technique et fonctionnelle d’un environnement MSBI on-premise vers un écosystème GCP cloud-native . L’objectif est de moderniser la plateforme BI existante (SSIS, SSAS, SQL Server) vers des architectures Cloud basées sur BigQuery , Dataflow , Cloud Storage et Looker Studio , tout en garantissant la continuité des flux , la performance et la qualité des données . Missions principales Participer aux ateliers de cadrage technique et fonctionnel pour définir la stratégie de migration MSBI → GCP. Analyser l’existant MSBI (packages SSIS, cubes SSAS, rapports SSRS / Power BI) et identifier les dépendances techniques. Concevoir la nouvelle architecture cible GCP (BigQuery, Dataflow, Composer, Cloud Storage, IAM). Assurer la migration et la réécriture des flux ETL vers GCP (Dataflow / DBT / Python). Mettre en place les pipelines d’intégration continue et les jobs d’orchestration (Airflow / Cloud Composer). Optimiser les performances et les coûts d’exécution des traitements cloud. Garantir la gouvernance, la sécurité et la qualité des données dans le nouvel environnement. Accompagner les équipes internes dans la montée en compétences sur GCP . Compétences techniques requises Environnements Microsoft : SQL Server (T-SQL, procédures stockées, optimisation requêtes) SSIS (conception de flux ETL complexes) SSAS (tabular / multidimensionnel) Power BI / SSRS pour la partie reporting Environnements Google Cloud : BigQuery (datawarehouse cloud, modélisation, partitionnement, optimisation) Dataflow / Cloud Composer (orchestration et traitement de données) Cloud Storage, Pub/Sub, IAM Looker Studio pour la restitution Autres atouts : Connaissance de DBT , Python , ou Terraform Notions de DataOps , CI/CD , gouvernance des données Expérience sur des projets de migration cloud (Azure, AWS, ou GCP)
Offre d'emploi
Data Engineer
Publiée le
Azure Data Factory
Big Data
1 an
49k-55k €
400-550 €
Île-de-France, France
Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.
Mission freelance
Data Engineer GCP - Rennes
Publiée le
Agile Scrum
Apache Airflow
BigQuery
12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Mission freelance
Data Engineer
Publiée le
ETL (Extract-transform-load)
Linux
Microsoft Power BI
12 mois
360 €
Toulouse, Occitanie
Télétravail partiel
Contexte / mission : Nous recherchons un data engineer expérimenté avec des compétences en SQL, ETL et outils de reporting. Le domaine Cargo Datawarehouse charge et affine les données pour les entreprises. Intervention au sein d’une équipe de 8 personnes. Profil : Data Engineer Nombre d’années d’expérience : plus de 5 ans Attendus : Il/elle devra intervenir sur le backlog actuel du projet (corrections et nouvelles fonctionnalités). Les données Cargo pour les domaines suivants sont chargées dans l’entrepôt de données : Données de billetterie et de réservation Données financières Données opérationnelles Serait également apprécié : compétence à piloter des sous-projets au sein du domaine CARGO, sous la responsabilité du responsable de domaine. Quel défi à relever ? PowerBI et GCP à l’avenir.
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend
3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Mission freelance
Data Engineer Python/PySpark/Databricks / AWS
Publiée le
AWS Cloud
Databricks
PySpark
218 jours
400-610 €
Paris, France
🚨 Mission Freelance – Data Engineer 🚨 🚫 Pas de sous-traitance Je recherche un·e Data Engineer (Python / PySpark / Databricks / AWS) pour une mission stratégique au sein d’un grand groupe international dans l’énergie 🔋 📍 Paris – 3 jours sur site / 2 jours remote 🕐 Démarrage : 08/12/2025 💰 TJM selon profil Process : Codingame puis live coding 🔥 Ce qui t’attend : ✅ Mission longue durée ✅ Participation à la conception & à la mise en production d’architectures data déployées à l’échelle internationale 🌍 ✅ Environnement technique exigeant, méthodologie robuste & contexte multi-pays 🧠 Stack technique recherchée : Python ⭐⭐⭐⭐ (Expert) PySpark ⭐⭐⭐⭐ (Expert) Databricks ⭐⭐⭐ (Confirmé) Cloud AWS ⭐⭐⭐ (Confirmé) Bonus : culture data engineering avancée, industrialisation, bonne compréhension des architectures distribuées. 📩 Intéressé·e ? 👉 Envoie-moi ton CV en MP ⚠️ Seuls les profils correspondant strictement au besoin seront recontactés.
Offre d'emploi
Tech Lead Data Engineer
Publiée le
Apache Spark
Azure
Databricks
6 mois
45k-55k €
400-520 €
Châtillon, Île-de-France
Au moins 5 ans d’expérience en tant que Tech Lead. Principales missions : - Assurer un leadership technique auprès des équipes de développement. - Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. - Participer activement aux phases de conception, développement et tests. - Porter la vision technique au sein des équipes Agile. - Garantir la qualité des livrables et veiller à la réduction de la dette technique. - Réaliser la modélisation des données. - Assurer une veille technologique et participer aux POCs. - Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.
Mission freelance
Data Engineer Google Cloud / BigQuery H/F
Publiée le
BigQuery
Google Cloud Platform (GCP)
2 ans
400-550 €
Rouen, Normandie
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer Google Cloud / BigQuery H/F à Rouen, France. Missions principales : Analyse, Conception et Modélisation Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Réaliser la recette technique Assurer la qualité avec des tests de non-régression
Mission freelance
Data Engineer confirmé
Publiée le
Azure Data Factory
6 mois
400-500 €
Paris, France
Télétravail partiel
Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),
Offre d'emploi
Data Engineer Cloud GCP BigQuery F/H
Publiée le
50k-70k €
Ivry-sur-Seine, Île-de-France
Télétravail partiel
Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.
Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans minimum)
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS
3 ans
50k-65k €
500-580 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Mission freelance
Data Engineer AWS - PySpark/Databricks
Publiée le
Amazon S3
Apache Spark
AWS Cloud
12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Mission freelance
Data Engineer Python / AWS / Airflow / Snowflake
Publiée le
Apache Airflow
AWS Cloud
Python
12 mois
100-550 €
Île-de-France, France
Télétravail partiel
Conception & développement de pipelines Implémenter de nouveaux flux de données batch et streaming . Développer des pipelines ETL / ELT en Python et Airflow pour les traitements planifiés, et via NiFi ou Kafka pour les données en temps réel. Assurer l’intégration et la mise à disposition des données dans Snowflake . Industrialisation & bonnes pratiques Participer aux revues de code , aux tests unitaires et d’intégration . Contribuer à l’ industrialisation des pipelines avec des pratiques CI/CD robustes. Maintenir la documentation technique à jour et contribuer à l’amélioration continue des process. Maintenance & optimisation Garantir la maintenance corrective et évolutive des flux existants. Participer à la mise en place du monitoring , des alertes et des bonnes pratiques d’exploitation. Optimiser les performances, la fiabilité et la qualité des traitements de données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
272 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois