Find your next tech and IT Job or contract role.

Your search returns 192 results.
Permanent
Contractor

Job Vacancy
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance

Published on
Databricks
Jenkins
Python

1 year
35k-49k €
360-430 €
Ile-de-France, France
Hybrid
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Contractor
Permanent

Job Vacancy
DATA ENGINEER GCP (480€ MAX)

Published on
Google Cloud Platform (GCP)

3 months
40k-81k €
370-480 €
Paris, France
Hybrid
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Contractor
Permanent

Job Vacancy
DATA ENGINEER SPARK / SCALA / PYSPARK / DATABRICKS / AZURE

Published on
Apache Spark
Azure
Databricks

3 years
36k-60k €
400-550 €
Paris, France
Hybrid
Bonjour 👽, Pour le compte de notre client, nous recherchons un data engineer Spark / Scala / Pyspark / Databricks / Azure. Missions principales : Participer au développement des User Stories (US) et réalisation des tests associés. Produire et maintenir la documentation projet : mapping des données, modélisation des pipelines, documents d’exploitation. Mettre en place et maintenir le CI/CD sur l’usine logicielle. Assurer la mise en place du monitoring . Collaborer étroitement avec l’équipe projet ; pas de responsabilité de production individuelle. Travailler dans un environnement agile avec priorisation et gestion multi-projets. Compétences techniques indispensables : Maîtrise de Scala et Spark (batch principalement). Optimisation des jobs Spark et traitement de volumétries importantes / complexes . Bonnes pratiques de développement Scala et build Maven. Expérience en environnement cloud , idéalement Azure . Compétences techniques appréciées : Écosystème Databricks Azure Functions et Azure Data Factory Monitoring sous Datadog Déploiement avec Ansible Compétences transverses : Aisance relationnelle et esprit d’équipe Autonomie, rigueur et esprit d’analyse Capacité de synthèse et force de proposition Sens des priorités et respect des délais Appétence client et compréhension métier / fonctionnelle Mentoring et partage de connaissances
Contractor
Permanent

Job Vacancy
DATA Engineer Senior GCP-python

Published on
Gitlab

18 months
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Contractor

Contractor job
Data Engineer Spark/Scala

Published on
Apache Spark
Scala

3 months
Paris, France
Hybrid
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Permanent

Job Vacancy
Data Engineer with C# Dot net asp.net and SQL Server SSIS

Published on

£55k-70k
London, United Kingdom
Data Engineer with C# Dot Net asp.net with SQL Server SSIS Our Client is a bank based in Central London who are looking to recruit at least 7 years plus experience as a Data Engineer with the ability to work with C# Dot net and SQL Server with SSIS. You must have solid expertise of at least 7 years experience of working with and developing software with C# Dot Net and MS SQL Server and SSIS – SSIS is very important for this position. Must be an excellent problem solver and adept writing documentation for all projects. You ideally have worked on banking systems particularly Core Banking. Responsible for the development and delivery of new systems to automate and streamline processes required by different departments. To support the internal IT department with changes and upgrades to software platforms. To be primary contact for all technical questions relating to in-house bespoke systems and interfacing. Data Support Supporting budgeting and financial planning processes for Finance department, including loading and refreshing of data based on requirements. Understand and conduct the front-end functionality to amend and change hierarchical structures within the environment. Build data flows within the SQL environment in SSIS packages. Risk & Regulatory Duties Maintain knowledge of all applicable regulatory requirements including the Bank’s Risk and Compliance policies and procedures and adhere to these to avoid exposing the Bank to undue risk. Report policy/procedure breaches and areas of potential non-compliance and suspicions promptly upon identification in accordance with the Bank's Risk and Compliance policies. Accurately execute all controls within own area to minimise risk of policy, procedure, and/or regulatory breaches. Identify new risks/control gaps within own area and escalate accordingly to your Line Manager. Key Skills Software analysis and design. SQL Server query language with SSIS. Data warehouse design concepts, (Inmon or Kimball) Experience of developing software with C# Dot Net and asp.net and SQL Server is a must. Must have solid experience of working with SSIS and building data warehouses. The Client is a Bank based in the Central London. Must have a degree qualification. This is a 12 month FTC position with a salary of circa £55K - £70K. This is a hybrid position - you will be required to be in the office at least 3 days week. Do send your CV to us in Word format along with your salary and availability.
Contractor

Contractor job
[FBO] Data Engineer avec expertise MLOps

Published on
Planning
Python

3 years
400-590 €
Ile-de-France, France
Hybrid
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Contractor

Contractor job
Data Engineer AWS - PySpark/Databricks

Published on
Amazon S3
Apache Spark
AWS Cloud

12 months
550-600 €
Paris, France
Hybrid
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Contractor

Contractor job
Data Engineer Confirmé – GCP / DBT / Power BI

Published on
BigQuery
DBT
Google Cloud Platform (GCP)

3 months
100-430 €
Lille, Hauts-de-France
Hybrid
Nous recherchons un Data Engineer Confirmé pour intervenir chez l’un de nos clients dans le cadre de la mise en place et l’industrialisation d’une plateforme data moderne sur Google Cloud Platform . Missions principales : Conception et développement de pipelines de données sur GCP. Modélisation et transformation des données avec DBT / SQLMESH . Mise en place de dashboards et reporting via Power BI . Optimisation des performances et bonnes pratiques de CI/CD. Collaboration étroite avec les équipes Data, BI et métiers.
Contractor

Contractor job
Data Engineer GCP - Rennes

Published on
Agile Scrum
Apache Airflow
BigQuery

12 months
400-540 €
Rennes, Brittany
Hybrid
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Contractor

Contractor job
Data Engineer GCP (Rouen)

Published on
Google Cloud Platform (GCP)

1 year
400-550 €
Rouen, Normandy
Hybrid
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
Permanent

Job Vacancy
Consultant BI / Data Engineer – Secteur Gestion d’Actifs

Published on
DAX
Microsoft SQL Server
Microsoft SSIS

1 year
40k-45k €
400-500 €
Ile-de-France, France
Hybrid
Secteur : Finance / Gestion de fonds Localisation : Paris / Hybrid Type : CDI Notre client, un acteur majeur du secteur Finance / Gestion d’actifs , recherche un Consultant BI / Data Engineer confirmé afin d’intervenir sur des projets stratégiques de migration, d’évolution et d’optimisation des plateformes décisionnelles. 🎯 Objectif : remplacer un consultant expert, poste à compétences identiques. 🎓 Profil recherché Vous justifiez d’au moins 10 ans d’expérience en BI , avec une expertise forte sur l’environnement Microsoft BI : Compétences techniques indispensables : SQL Server (2016 → 2022) SSIS, SSRS, SSAS (Tabular & Multidimensional) Power BI (Report Server & Online) – DAX – RLS – Administration Azure DevOps / Azure DataFactory / Data Pipeline DataWarehouse, Datamarts, modélisation décisionnelle Reporting réglementaire & opérationnel Atouts supplémentaires Connaissance Fabric / Power BI Online Expérience en migration de plateformes BI Connaissance du secteur Finance / Gestion de fonds (vrai plus) 💼 Vos principales missions Migration SQL Server (2016 → 2022) et modernisation de la plateforme BI Migration SSIS, SSRS, SSAS Tabulaire / Multidimensional Migration Power BI Report Server → Power BI Online Gestion et administration des workspaces, datasets, gateways Conception et optimisation des flux d’intégration (SSIS, ADF) Développement de rapports SSRS / PBI, dashboards et cubes tabulaires Support utilisateurs + amélioration continue Participation à un environnement Agile / SCRUM
Permanent

Job Vacancy
Data Engineer with C# Dot Net asp.net with SQL Server SSIS SSRS

Published on

£55k-70k
London, United Kingdom
Data Engineer with C# Dot Net asp.net with SQL Server SSIS SSRS Our Client is a bank based in Central London who are looking to recruit at least 7 years plus experience as a Data Engineer with the ability to work with C# Dot net and SQL Server with SSIS. You must have solid expertise of at least 7 years experience of working with and developing software with C# Dot Net and MS SQL Server and SSIS, SSRS and SSAS – SSIS is very important for this position. Must be an excellent problem solver and adept writing documentation for all projects. You ideally have worked on banking systems particularly Core Banking. Responsible for the development and delivery of new systems to automate and streamline processes required by different departments. To support the internal IT department with changes and upgrades to software platforms. To be primary contact for all technical questions relating to in-house bespoke systems and interfacing. Analysis of issues pertaining to problems or errors raised by in-house systems, i.e. CORE, SharePoint interface, Equation, Kondor, Eximbills, end of day cycle. Support Supporting budgeting and financial planning processes for Finance department, including loading and refreshing of data based on requirements. Understand and conduct the front-end functionality to amend and change hierarchical structures within the environment. Build data flows within the SQL environment in SSIS and SSAS packages. Integrate the SharePoint environment and Forms with Equation system to introduce automation of processes thereby eliminating the need for duplicate entry. Utilise web services to integrate from cutting edge technology into legacy systems such as Equation. Integrate with all the systems using data abstraction and connectivity layers, i.e. ODBC, ADO.net. Duties Maintain knowledge of all applicable regulatory requirements including the Bank’s Risk and Compliance policies and procedures and adhere to these to avoid exposing the Bank to undue risk. Report policy/procedure breaches and areas of potential non-compliance and suspicions promptly upon identification in accordance with the Bank's Risk and Compliance policies. Accurately execute all controls within own area to minimise risk of policy, procedure, and/or regulatory breaches. Identify new risks/control gaps within own area and escalate accordingly to your Line Manager. Must Have Skills Software analysis and design. SQL Server query language with SSIS. Data warehouse design concepts, (Inmon or Kimball) Experience of developing software with C# Dot Net and asp.net and SQL Server is a must. Must have solid experience of working with SSIS and building data warehouses. The Client is a Bank based in the Central London. Must have a degree qualification. This is a 12 month FTC position with a salary of circa £55K - £70K. This is a hybrid position - you will be required to be in the office at least 3 days week. Do send your CV to us in Word format along with your salary and availability.
Contractor

Contractor job
[SCH] Data Engineer Spark / Scala - 1047

Published on

10 months
350-390 €
Paris, France
Hybrid
Au sein de la DSI Finance, vous interviendrez en tant que Data Engineer Spark / Scala confirmé sur le projet d’intégration du Datalake Finance, adossé à la distribution Hadoop HortonWorks. Ce datalake centralise les données issues des systèmes comptables et de synthèse afin de répondre aux besoins de reporting Finances & Risques (COREP, RWA, IFRS9, etc.). Missions principales : -Participer au développement et à l’intégration de nouvelles sources de données au sein du Datalake Finance. -Assembler et distribuer les données aux consommateurs métiers tout en garantissant la pérennité et la performance des pipelines existants. -Contribuer à la conception technique, l’implémentation et les tests des flux sous Spark / Scala. -Veiller à la non-régression et à la qualité du code dans le cadre des évolutions du socle. -Travailler en méthodologie Agile (Scrum / Kanban) avec les équipes métiers, data et maintenance. -Participer à la documentation technique et aux revues de code. Profil recherché : -5 à 6 ans d’expérience en environnement Big Data / Datalake. -Solide maîtrise de Spark / Scala et des paradigmes de programmation fonctionnelle (ZIO, Monix, Cats appréciés). -Connaissance des écosystèmes Hadoop, Hive, Kafka, HBase, Kerberos. -Expérience dans un cadre Agile (Scrum / Kanban) et outils associés (Jira, Confluence). -Esprit analytique, autonomie, rigueur et bon relationnel.
Contractor
Permanent

Job Vacancy
Data Engineer Python / AWS

Published on
AWS Cloud
PySpark
Python

3 years
Paris, France
Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…
Contractor
Permanent

Job Vacancy
DATA ENGINEER SENIOR SCALA / PYSPARK / DATABRICKS / POWER BI

Published on
Dataiku
Microsoft Power BI
Python

3 years
40k-60k €
400-550 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

192 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us