Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 684 résultats.
Freelance

Mission freelance
Data Product Manager – Data & BI Platform

Comet
Publiée le
Microsoft Power BI

1 an
400-550 €
Île-de-France, France
Dans le cadre de la transformation Data de Saint-Gobain Mobility , nous recherchons un Data Product Manager senior pour piloter plusieurs initiatives stratégiques autour des plateformes Data & BI . Vous interviendrez au sein d’un environnement international, en collaboration étroite avec des architectes data, data engineers, équipes BI et métiers (Sales, Finance, Manufacturing, Supply Chain, Purchasing) . L’objectif : structurer et piloter un portefeuille de produits data alignés avec les besoins business et la stratégie Data du groupe. Vos missions Piloter l’étude et le cadrage de projets Data & BI Recueillir et formaliser les besoins métiers Animer des workshops avec les stakeholders Structurer l’architecture fonctionnelle et les flux data Concevoir les modèles de données et business layers Coordonner les équipes Data Engineers / Architectes / BI Évaluer la valeur business des solutions proposées Préparer les roadmaps, budgets et planning de delivery Formaliser les propositions de lancement projet Environnement & sujets clés Plusieurs initiatives structurantes sont en cours : Migration vers une Cloud Data Platform Migration MicroStrategy → Power BI Structuration des produits data dans une logique Data-as-a-Service Cas d’usage métiers : Sales Finance Manufacturing Supply Chain Purchasing
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
Data Engineer GCP

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

18 mois
450 €
Saint-Ouen-sur-Seine, Île-de-France
Bonjour, Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Data Engineer GCP sénior pour rejoindre les équipes DST DataLab . Contexte de la mission: Vous interviendrez au sein d’une équipe data engagée dans la construction et l’optimisation de chaînes de traitement et d’intégration de données sur l’environnement Google Cloud Platform . La mission s’inscrit dans un contexte de structuration et de fiabilisation des flux de données , avec un fort enjeu autour de la qualité, de la performance et de la gouvernance. Informations pratiques: Localisation : Saint-Ouen-sur-Seine Présence sur site : 2 à 3 jours par semaine (obligatoire) Démarrage : 20 avril 2026 Fin de mission : 31 décembre 2027 TJM maximum : 450 € Missions: Concevoir et développer des pipelines de traitement de données sur GCP Mettre en place et maintenir des chaînes d’intégration et de transformation de données Travailler sur l’optimisation et la structuration des bases de données analytiques Participer aux choix d’architecture et aux bonnes pratiques de développement Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, architecture et métiers Stack technique: Compétences requises GCP Dataform (prioritaire) ou DBT BigQuery SQL (maîtrise avancée) Python Apache Airflow CI/CD Google Cloud SQL Google Cloud Run Compétences appréciées: Architecture applicative Expérience autour des APIs, IHM et exposition de données Expérience avec Cloud Run / Cloud SQL ou Kubernetes (JKS) Profil recherché: Data Engineer avec 5 ans d’expérience minimum Solide expérience sur les environnements data cloud Capacité à travailler dans un cadre structuré avec des méthodes de développement rigoureuses Excellentes soft skills : communication, autonomie, esprit d’équipe et sens de l’organisation
Freelance

Mission freelance
Manager Transition Data Factory (H/F)

Cherry Pick
Publiée le
Microsoft Power BI
Pilotage

6 mois
750 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un MT Data Factory (H/F) pour l'un de ses clients qui opère dans le secteur du transport aérien et de la gestion d’infrastructures aéroportuaires. Description🌐 Contexte de mission Dans le cadre de programmes de transformation IT à forte dimension stratégique, une organisation recherche un Manager de Transition Senior afin d’accompagner le responsable d’un département technologique dans le pilotage et la coordination des activités stratégiques et opérationnelles. La mission s’inscrit dans un environnement complexe avec un portefeuille de projets IT orientés Data et transformation du SI , nécessitant une vision globale des programmes, une forte capacité de gouvernance et un accompagnement opérationnel des équipes projets. ⚙️ Missions principales et rôle Gouvernance et stratégie : Concevoir et porter les dossiers d’investissement des projets . Rédiger les cahiers des charges techniques et analyser les offres dans le cadre des consultations. Piloter les prestations et assurer le suivi des engagements. Garantir l’alignement entre feuilles de route stratégiques et opérationnelles . Préparer les éléments nécessaires aux instances de gouvernance et de décision . Contribuer à l’amélioration continue des processus internes. Pilotage du portefeuille de programmes : Participer à l’identification et au suivi des projets du domaine. Assurer le pilotage du portefeuille projets et le suivi de la performance des programmes. Mettre à jour les outils de suivi et de pilotage du portefeuille . Produire les tableaux de bord et reportings consolidés . Participer aux instances de coordination et aux comités de pilotage. Coordination et accompagnement opérationnel : Assurer la coordination entre les équipes techniques, métiers et les différentes parties prenantes. Accompagner les chefs de projets et les ingénieurs dans le pilotage opérationnel. Faciliter le partage d’informations entre les équipes et les directions concernées. Assister le responsable du département dans certaines missions de support managérial . Contribution aux initiatives transverses : Participer à l’organisation d’évènements professionnels (agenda, contenus, logistique). Contribuer à la valorisation et à la communication autour des programmes en cours. 🎯 Objectifs Structurer et piloter efficacement le portefeuille de projets stratégiques . Garantir la cohérence entre les initiatives IT et les orientations stratégiques. Améliorer la visibilité et le pilotage des programmes via des reportings consolidés. Accompagner les équipes dans la réussite opérationnelle des projets de transformation .
Freelance

Mission freelance
DATA SCIENTIST - sénior

Geniem
Publiée le
Data science
Dataiku
Machine Learning

6 mois
Lille, Hauts-de-France
Pour compléter une équipe transverse : Data Engineer, Data Scientist, Data Analyst et MLOps Elle assure également le lien avec la Global Tech & Data Platform . Cette plateforme construit et maintient les produits liés à nos infrastructures et notre transformation vers le Cloud GCP, assurant ainsi l’efficacité opérationnelle sur lesquelles reposent nos plateformes métiers. Votre mission : En lien avec notre philosophie Data In Product, vous êtes responsable de : La création de solutions et applications ML/IA de pointes, pour mise en production, La modélisation et l’industrialisation de modèles produits au service des BUs de la plateforme, L’élaboration d’un cadre de bonnes pratiques au sein de la guilde Data du domaine, L’accompagnement et l’acculturation des métiers sur les bonnes pratiques de l’exploitation de la data. Vous êtes vous-même sensible à l’approche Data Driven de nos produits, L’intégration des applications ML dans nos produits, en lien avec les équipes métiers, La mise en place de modèles statistiques pour résoudre les problématiques identifiées, La collecte de données, la construction de Data Marts et le déploiement de modèles (end-to-end PoC), La connaissance des métriques de base, et les principes d’évaluation de la qualité des modèles obtenus, et leur relation avec les indicateurs de performances Métier, La veille technologique pour orienter et être force de proposition sur l’animation de la backlog du Data Socle COMPÉTENCES REQUISES/ Technique : Python, SQL, GCP (BigQuery, GCS, ...), Pipeline MLOps, Linux, Modélisation de données Méthodologique : Agilité, Github Langues : Français, Anglais
Freelance

Mission freelance
Data Engineer

Signe +
Publiée le
Deep Learning
MLOps
Python

6 mois
400-480 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients un Data Engineer. Missions : En tant que Data Engineer, vous serez en charge de : Concevoir, développer et maintenir des data pipelines robustes et scalables en Python Collecter, transformer et valoriser de grands volumes de données Mettre en œuvre des traitements géospatiaux et 3D (GDAL, PDAL ou équivalents) Participer à l’industrialisation des modèles de données dans des environnements MLOps (MLflow, Kubeflow) Orchestrer les workflows data via des outils tels que Argo ou Prefect Déployer et exploiter les solutions dans des environnements Docker / Kubernetes Intervenir sur des plateformes Cloud (AWS, GCP ou Azure) Collaborer étroitement avec les équipes Data Science, DevOps et Métiers Participer aux bonnes pratiques data : qualité, performance, sécurité et observabilité
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Freelance

Mission freelance
Ingénieur Infrastructure Data – Cloudera / Hadoop

Deodis
Publiée le
Red Hat

1 an
450 €
Île-de-France, France
Au sein de l’équipe Data & IA, l’Ingénieur Infrastructure Data est responsable de l’administration, de l’évolution et du maintien en conditions opérationnelles des plateformes Big Data basées sur l’écosystème Cloudera CDP et des technologies Open Source. Il conçoit et met en œuvre des solutions d’ingestion, de stockage et de traitement de données (Hadoop, Ozone, Hive, Kafka, Spark, etc.), automatise les pipelines de données et veille à la qualité, la sécurité et la conformité des données, notamment au regard du RGPD. Il participe également à l’industrialisation et au déploiement de modèles de data science et de machine learning, tout en assurant le support technique aux équipes applicatives et métiers. Enfin, il contribue aux projets d’évolution des plateformes, à la migration des clusters Hadoop et à l’amélioration continue des infrastructures, en collaboration avec les équipes infrastructures, production et internationales.
CDI

Offre d'emploi
Data Analyst

CAT-AMANIA
Publiée le
Business Object
Qlik Sense

40k-61k €
Maisons-Alfort, Île-de-France
Element de contexte et organisation : Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme, piloté par le Chief Data Officer (CDO) et sous sponsoring de la Direction Générale, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le cœur du SI. En parallèle, le chantier de transformation Cloud en cours induit d’importantes adhérences avec les travaux d’industrialisation de la plateforme Data & IA. L'organisation projet est réalisée avec SAFE. Objectif poursuivi pour cette mission : La mission porte sur la réalisation du socle Financement et contentieux dont il s'agira d'assurer un rôle de Data Analyst avec pour objectif de: - spécifier les besoins en terme de données Financement et Contentieux permettant de servir les usages bancaires des filières : -- Crédit Bail équipement, -- Crédit Immobilier, énergie & environnement, -- Court terme, -- Immatériel - modéliser les entités permettant de représenter les données des métiers du Financement et du Contentieux - spécifier les Data Product nécessaire pour couvrir : -- les besoins des filières (Reporting opérationnels, Agents opérationnels, suivi d'activité, reporting conventionnels,...) -- les besoins de l'équipe chargée d'exploiter le socle Financement et Contentieux (Reporting transverses, études de prospection, cross-selling, ...) - définir et contrôler la Qualité des données véhiculées au sein du socle - réaliser les recettes des données collectées Compétences métier souhaitables : Mission(s) réussie(s) dans le domaine Bancaire dans le cadre de reportings de Financement. Bonne connaissance des métiers bancaires (Crédit, crédit bail, court terme, ...) Très bonne connaissance des données bancaires du financement Forte appétence pour la donnée La connaissance de l'écosystème (notamment le Legacy) serait un plus Liste des technologies : Le comptoir de données est réalisé sur le Cloud AWS. Outil de restitution de la donnée : Business Objects, QlikSense Bon niveau en SQL
Freelance

Mission freelance
Data Engineer GCP H/F

LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)

6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
Freelance

Mission freelance
Data Manager Lead – GO Data

ALLEGIS GROUP
Publiée le
Data governance

1 an
Paris, France
GO Data renforce son pôle Data Management afin d’accélérer la structuration, la gouvernance et l’efficacité des pratiques Data, notamment dans le cadre du programme BI & Analytics Strengthening (BigUp) et du déploiement des standards Data by Design. Nous recherchons un(e) Data Manager Lead pour piloter les initiatives clés, accompagner les Data Owners et Data Stewards, et garantir une gouvernance Data robuste, cohérente et alignée avec la stratégie Groupe. MISSIONS : 🔹 Pilotage du programme BigUp (BI & Analytics strengthening) Piloter le projet BigUp incluant : rationalisation des périmètres BI, standardisation des pratiques, amélioration des modèles de delivery, opérationnalisation du nouvel operating model. Coordonner les parties prenantes métiers, IT, data et transformation. 🔹 Gouvernance BI & Analytics en mode BAU Manager la gouvernance opérationnelle et maintenir les frameworks en place. Produire et mettre à jour les artefacts de gouvernance (inventaires, reporting, suivis). 🔹 Déploiement et application des Standards Data Renforcer la stratégie Data en garantissant l’application des standards : Data Governance Policy Data Quality Framework Data By Design Framework Documentation Data (modèles, glossaires, dictionnaires…). Construire et maintenir des modèles de données robustes et cohérents. 🔹 Data by Design & accompagnement projets Participer concrètement au processus Data by Design avec Data Architects, DPO et équipes projets. S’assurer que les exigences Data (qualité, sécurité, documentation, gouvernance) sont intégrées dès la conception. 🔹 Support aux Business Data Owners & Data Stewards Agir en Data Ambassador pour les accompagner dans la mise en œuvre des frameworks de gouvernance. Aider les domaines métiers (dont HR Data Domain) à monter en maturité.
CDI

Offre d'emploi
Tech Lead Data et IA Générative H/F

JEMS
Publiée le

50k-65k €
Nantes, Pays de la Loire
Nous recherchons un(e) Tech Lead Data et IA Générative capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 7mxfpl6dmb
Freelance

Mission freelance
Data Manager Senior - Customer domain

Atlas Connect
Publiée le
CICS (Customer Information Control System)
Data governance
Data Lake

12 mois
600-640 €
Issy-les-Moulineaux, Île-de-France
🎯 Contexte & Objectif du Poste Dans le cadre du renforcement de la gouvernance et de la structuration du paysage data, nous recherchons un Data Manager Senior intervenant de manière transversale sur le domaine Customer et les autres domaines data. Le Data Manager joue un rôle clé d’interface entre les équipes métier, produit et techniques. Il garantit la cohérence, la standardisation et la qualité long terme des données tout en accompagnant la conception des data products. 🧩 Responsabilités principales1️⃣ Cadrage & Conception des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products. Apporter une forte compréhension fonctionnelle des processus Customer. Conseiller sur les choix de modélisation, la complexité, la faisabilité et les impacts transverses. Garantir l’alignement avec les standards data et l’architecture cible. 2️⃣ Gouvernance & Standards Data Définir, maintenir et promouvoir les standards de data management (règles de modélisation, conventions de nommage, documentation). Co-construire des guidelines et patterns lors de nouveaux cas d’usage. Assurer l’adoption et la cohérence des standards au sein du domaine Customer. Être référent sur la qualité de la documentation et les bonnes pratiques de gouvernance. 3️⃣ Urbanisation & Cohérence Transversale Assurer l’interopérabilité entre les domaines data. Identifier et corriger les duplications, chevauchements et fragmentations (notamment autour des concepts Customer). Fournir des recommandations pour simplifier et rationaliser le paysage data. Promouvoir la réutilisation, l’harmonisation et la qualité long terme des données. 4️⃣ Data Management Opérationnel Support aux activités continues de gestion des données. Maintien de la documentation, des modèles et des définitions de données. Coordination des parties prenantes. Mise en place et suivi des règles de qualité, contrôles et réconciliations.
Freelance

Mission freelance
Data Architect Orion

Nicholson SAS
Publiée le
Architecture
Data analysis
Data governance

9 mois
1 300 €
Paris, France
Vous êtes un architecte de la donnée passionné par la haute précision ? Rejoignez le programme stratégique de mon client pour façonner l'avenir de la Data au sein de cette marque Iconic. Votre Mission Une fois la Data Factory opérationnelle, vous deviendrez le garant de l'intelligence structurelle de nos données. Votre rôle sera central pour : Architecturer le futur : Concevoir et piloter la modélisation au sein d'une architecture Médaillon (Bronze, Silver, Gold). Innover en réseau : Déployer des modèles de données dans un environnement Data Mesh complexe. Standardiser l'excellence : Définir le modèle de données canonique , les spécifications techniques et l'intégrité des relations (clés, tables, jointures). Votre Profil Expertise : +7 ans d'expérience en Data Architecture Orion. Technique : Maîtrise avancée d' Oracle et de la modélisation complexe. Méthodologie : Vous évoluez avec aisance dans des environnements Agile et SaFe . Soft Skills : Esprit de synthèse, rigueur analytique et capacité à traduire des besoins métiers en structures de données performantes. Prêt à relever ce défi au sein d'une société de légende ?
Freelance

Mission freelance
Product Manager Referentiel et data

Freelance.com
Publiée le
Confluence
Gherkin
JIRA

1 an
580-600 €
Île-de-France, France
Dans le cadre d’un programme stratégique au sein d’un grand acteur du financement et de l’assurance, nous recherchons un Product Manager Data & Référentiel pour intervenir sur un environnement SI métier complexe et transverse . La mission s’inscrit dans un train SAFe dédié aux applications métiers , avec une forte interaction entre plusieurs équipes produits et data. Le Product Manager interviendra sur deux domaines structurants : Référentiel et composants transverses Data / Infocentres Ces équipes couvrent les besoins mutualisés de plusieurs produits métiers et participent à la transformation des plateformes data. Vous serez amené à piloter des initiatives transverses impliquant différentes équipes et trains agiles, notamment autour de projets de modernisation data et d’amélioration continue des solutions. Une attention particulière est portée à l’intégration de l’IA dans les pratiques produits et dans la chaîne de delivery , afin d’améliorer la performance collective des équipes. En tant que Product Manager , vous serez garant de la vision produit et de la valeur délivrée : Définir des solutions désirables, viables et réalisables répondant aux besoins métiers Construire et porter la vision produit et la roadmap Élaborer et maintenir : la Roadmap Solution (vision pluriannuelle) la Roadmap PI (planification des features sur les Program Increment) Identifier et initier les Features et Enablers dans le backlog Gérer la priorisation du backlog produit Collaborer étroitement avec les métiers et les équipes Agile Animer des ateliers de recueil de besoins Traduire les besoins métiers en solutions livrables par les équipes techniques Piloter des projets transverses impliquant plusieurs équipes Contribuer à l’amélioration continue des pratiques produit et data
CDI

Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F

CELAD
Publiée le

42k-50k €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
1684 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous