Trouvez votre prochaine offre d’emploi ou de mission freelance Data Engineering à Paris
Votre recherche renvoie 42 résultats.
Mission freelance
Consultant Power BI/Azure Data Factory
OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
1 an
450-500 €
Paris, France
BESOIN URGENT !!! Dans le cadre d’un projet de transformation data, notre client recherche un consultant data orienté BI et data engineering. Secteur immobilier. Missions Développement et maintenance de pipelines avec Azure Data Factory Modélisation de données pour les besoins analytiques Création de dashboards Power BI (DAX, performance) Amélioration de la qualité et des flux de données Participation à l’industrialisation (CI/CD, DevOps) Interaction avec les équipes métiers Profil recherché 3 à 5 ans d’expérience en Data Engineering / BI Très bonne maîtrise d’Azure Data Factory Bonne maîtrise de Power BI (modélisation, DAX) Connaissance des environnements DevOps Autonomie et bon relationnel
Mission freelance
Consultant Azure Data Factory/SQL Server
OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
Microsoft SQL Server
1 an
500-550 €
Paris, France
BESOIN URGENT!! Dans le cadre du renforcement de son équipe data, notre client recherche un consultant senior orienté data engineering avec une forte expertise bases de données. Secteur immobilier. Missions Conception et développement de pipelines avec Azure Data Factory Gestion et optimisation des bases de données Microsoft SQL Server Modélisation et structuration des données Optimisation des performances (requêtes, index, traitements) Mise en place de bonnes pratiques DevOps / CI-CD Collaboration avec les équipes techniques et métiers Profil recherché 7 à 10 ans d’expérience en Data Engineering Excellente maîtrise d’Azure Data Factory Forte expertise en Microsoft SQL Server Bonne connaissance des problématiques de performance et modélisation Culture DevOps appréciée Autonome, rigoureux et orienté résultats
Offre d'emploi
Tech Lead Databricks
KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark
55k-70k €
Paris, France
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Offre d'emploi
Consultant Qlik
KLETA
Publiée le
Qlik Sense
Reporting
3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Consultant Qlik pour concevoir, développer et optimiser des solutions analytiques et de visualisation avancées. Vous analyserez les besoins métiers, proposerez des modèles de données adaptés et guiderez leur mise en œuvre sur Qlik Sense ou QlikView. Vous serez responsable de la conception des scripts de chargement (Qlik Script), de la structuration des modèles associatifs et de l’optimisation des performances des applications analytiques. Vous travaillerez étroitement avec les équipes Data Engineering et métiers pour garantir la cohérence entre les sources de données, les transformations et les usages décisionnels. Vous participerez à la mise en place de bonnes pratiques (naming conventions, gouvernance des applications, sécurité des données, gestion des droits d’accès) et à l’industrialisation des déploiements sur la plateforme Qlik. Vous aurez également un rôle clé dans l’animation d’ateliers, la formation des utilisateurs et l’accompagnement des équipes dans l’adoption des outils Qlik et de la culture data-driven.
Offre d'emploi
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse
12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
Mission freelance
Data engineer Snowflake / DBT
PARTECK INGENIERIE
Publiée le
AWS Cloud
Cloud
DBT
12 mois
400-550 €
75000, Paris, Île-de-France
Data Engineer (H/F) – Environnement Data Platform / Big Data Mission : Au sein d’une équipe Data Platform, vous intervenez sur la conception, l’industrialisation et l’exploitation de solutions data à grande échelle, dans un contexte international. Responsabilités : Conception et développement de pipelines de données (collecte, transformation, valorisation) Analyse de données complexes en collaboration avec les équipes Data Maintenance et évolution d’une plateforme data de type Lakehouse Choix des technologies de stockage et de traitement adaptées Mise en place de bonnes pratiques (code, architecture, data) Veille technologique et amélioration continue des outils et pratiques Profil recherché : Minimum 5 ans d’expérience en Data Engineering / Big Data Solide culture technique et capacité à évoluer dans des environnements complexes Bonne compréhension des enjeux métiers et capacité à vulgariser Compétences techniques : Python, SQL Outils Big Data : DBT, ETL, solutions de stockage (S3, Snowflake, MongoDB ou équivalent) Environnement Cloud (AWS idéalement, Azure ou GCP) DevOps : Docker, CI/CD, environnement Unix Connaissance des architectures data et idéalement Infrastructure as Code Langues : Anglais professionnel requis
Offre d'emploi
Product Owner Big Data
KLETA
Publiée le
Big Data
Product management
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
Mission freelance
Data Engineer-Scientist AWS
INSYCO
Publiée le
AWS Cloud
Gitlab
Large Language Model (LLM)
3 ans
500-550 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Data Engineer-Scientist AWS. Nous étudions prioritairement les candidatures adressées par mail à freelance à insyco . fr avec : · Un argumentaire écrit répondant de façon ciblée au besoin ci-dessous · Un CV à jour au format Word · Une date de disponibilité · Un tarif journalier · Merci d’indiquer la référence MDE/DATA/5161 dans l'objet de votre mail Vos responsabilités · Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique · Modéliser et développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux · Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille · Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation · Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum · S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI interne · Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant · Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab · Participer à la définition et à l’amélioration des processus de l’équipe Lab · Solide culture DevOps : CI/CD, conteneurisation (Docker, Kubernetes, Gitlab) · Bases solides en data engineering (Python / SQL) & cloud PaaS/IaaS (AWS, API Gateway, Terraform) · Expériences en data processing / engineering (Panda, Pyspark, multi-threading, AWS batch) · Curiosité et pratique des outils d’IA générative et d’automatisation (ex. GitHub Copilot, Claude Code, LLM, NLP, AWS Bedrock) pour identifier les véritables opportunités d’amélioration · Expérience de travail en méthodes agiles (Scrum, SaFe, Kanban)
Offre d'emploi
DataOps Kafka
KLETA
Publiée le
Apache Kafka
DevOps
3 ans
Paris, France
Dans le cadre d’un programme d’industrialisation data, nous recherchons un DataOps Kafka pour fiabiliser, automatiser et exploiter des plateformes de streaming en production. Vous analyserez les pipelines existants, identifierez les points de fragilité et proposerez des améliorations en matière de résilience, de monitoring et de gouvernance des flux. Vous guiderez la mise en place de pratiques DataOps autour de Kafka : automatisation des créations de topics, gestion des schémas, versioning, tests de compatibilité et mise en place de contrôles qualité sur les événements. Vous serez responsable de l’intégration de Kafka dans les chaînes CI/CD, de la mise en place de mécanismes d’observabilité (métriques, alerting, tracing) et de la gestion proactive des incidents. Vous travaillerez main dans la main avec les équipes Data Engineering, DevOps et SRE pour optimiser les performances, la disponibilité et la traçabilité des flux. Vous participerez également à l’amélioration continue des pratiques d’exploitation et à la diffusion d’une culture DataOps autour du streaming.
Offre d'emploi
Architecte Power BI
KLETA
Publiée le
BigQuery
DAX
PowerBI
3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Architecte Power BI pour définir et piloter l’évolution des plateformes BI et analytiques de l’entreprise. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez une trajectoire cible alignée avec les enjeux métiers, techniques et opérationnels. Vous guiderez la conception de modèles de données robustes (modélisation dimensionnelle, semantic layer, Fabric/Power BI Premium lorsque pertinent) et définirez des standards de développement, de performance et de sécurité. Vous serez responsable des choix structurants en matière de gouvernance des workspaces, de gestion des datasets, de stratégie de rafraîchissement et de maîtrise des coûts. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et métiers pour garantir une cohérence entre ingestion, transformation et restitution des données. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture BI et l’accompagnement des équipes dans l’adoption des meilleures pratiques Power BI et data-driven.
Offre d'emploi
Consultant Power BI
KLETA
Publiée le
DAX
Power Query
PowerBI
3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Consultant Power BI pour concevoir, développer et optimiser des solutions de reporting et d’analyse avancée. Vous analyserez les besoins métiers, proposerez des modèles de données adaptés et guiderez leur mise en œuvre dans Power BI. Vous serez responsable de la création de datasets performants (Power Query, DAX), de la structuration de dashboards lisibles et actionnables, ainsi que de l’optimisation des performances des rapports. Vous travaillerez étroitement avec les équipes Data Engineering et métiers pour garantir la cohérence entre les sources de données, les modèles analytiques et les usages décisionnels. Vous participerez à la mise en place de bonnes pratiques (naming conventions, gouvernance des rapports, sécurité des données, RLS) et à l’industrialisation des déploiements (Power BI Service, workspaces, pipelines). Vous aurez également un rôle clé dans l’animation d’ateliers, la formation des utilisateurs et l’accompagnement des équipes dans l’adoption des outils BI et des pratiques data-driven.
Offre d'emploi
TECH LEAD DATA GCP
UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python
6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Offre d'emploi
Data Engineer senior
Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue
1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Offre d'emploi
QA Big Data
KLETA
Publiée le
Big Data
Hadoop
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Offre d'emploi
Data Engineer Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
42 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois