L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 226 résultats.
Offre d'emploi
Responsable stratégie Data/IA
Publiée le
Reporting
18 mois
40k-45k €
110-600 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Stratégie & transformation digitale, Chef de projet Spécialités technologiques : Intelligence artificielle, Big Data Un grand groupe souhaite accélérer un programme transverse Data & IA visant à mieux coordonner plusieurs entités internes expertes (data, IA, plateformes, industrialisation) et à renforcer la cohérence globale de la filière. Des actions ont déjà été engagées (gouvernance, premiers chantiers, animation du collectif), et le groupe veut désormais structurer davantage et passer à l’échelle : clarifier le positionnement, harmoniser les pratiques, renforcer la capacité à travailler “d’une seule voix”, et améliorer l’efficacité de bout en bout (de l’offre au déploiement). MISSIONS Objectifs de l’appel d’offre : - Renforcer l’alignement entre entités contributrices (offres, priorités, modes opératoires, gouvernance). - Accélérer les synergies opérationnelles et business (offres conjointes, réponses coordonnées, passage à des engagements plus ambitieux). -Définir/mettre à jour une roadmap 2025–2026 et sécuriser l’exécution via une gouvernance robuste. -Structurer une stratégie marketing & communication (messages, visibilité, preuves, supports), incluant une réflexion sur une architecture de marque type “marque ombrelle” + déclinaisons, sans logique de fusion. -Renforcer l’animation “collectif” et la capitalisation (veille, retours d’expérience, publications, démarche à impact / IA responsable). Rôle attendu du prestataire : -Le prestataire intervient comme pilote et facilitateur du programme, à l’interface entre direction, sponsors, et entités contributrices : -Pilotage / PMO de programme : cadrage, planification, suivi des chantiers, animation des rituels, préparation/animation des comités, gestion des actions et décisions. -Structuration de l’offre : formalisation d’une offre de service cohérente, lisible et réplicable, articulation des contributions des différentes entités. -Activation des synergies : mise en place de mécanismes concrets (process, coordination, “passage de relais”, construction d’offres croisées, consolidation des retours terrain). -Marketing & communication opérationnels : plan de communication, contenus, kits de présentation, éléments de langage, valorisation des réalisations et cas d’usage. -Rayonnement & animation de l’expertise : cadrer une dynamique de type “lab/collectif” (veille, publications, événements internes/externes, démarche à impact). Livrables attendus : -Roadmap 2025–2026 (priorités, jalons, chantiers, dépendances) + cadre de pilotage associé. -Dispositif de gouvernance : comitologie, rituels, responsabilités, tableaux de suivi et reporting. -Plan marketing & communication : objectifs, messages, cibles, canaux, calendrier, contenus. -Kit de communication & kit commercial : pitchs, trames, supports, éléments de langage, preuves, cas d’usage / retours d’expérience. -Reporting périodique (ex. trimestriel) : avancement, synergies réalisées, points de blocage, recommandations. -Synthèse annuelle : bilan, impacts, perspectives et axes de développement.
Mission freelance
Product Lead Data / Directeur projet (Montpellier)
Publiée le
Data governance
Product management
12 mois
600 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Lead Data / Directeur projet" pour un client dans le secteur des services Description 🎯 Contexte de la mission La Direction Data renforce ses équipes dans le cadre de la montée en puissance du domaine Data, Analytics & AI . Afin de garantir la qualité, la cohérence et la performance des livrables Data à l’échelle du groupe, le client recherche un Product Lead / Directeur de projet expérimenté . Placé directement sous la responsabilité du Responsable de Domaine , le Product Lead jouera un rôle clé dans la gouvernance, la stratégie et le delivery des Data Products , tout en assurant la tenue des engagements métiers et techniques. ⚙️ Rôle et responsabilités En tant que Product Lead, vous serez le garant du delivery, de la performance technique et de la qualité des composants de la ligne de produit Data, Analytics & AI. Vos principales missions : Piloter la ligne de produit Data, Analytics & AI sur les volets fonctionnels, techniques et stratégiques. Collaborer étroitement avec les Delivery Owners , Directeurs de programme et le Responsable de ligne de produit pour garantir la cohérence globale et la qualité des solutions. Contribuer à la stratégie de la ligne produit : dimensionnement des équipes, choix technologiques, modèle de coûts, sourcing et plan de delivery. Superviser la production et la maintenance des produits Data (disponibilité, performance, fiabilité). Assurer le suivi opérationnel : calendrier des évolutions, publications, roadmap technique et fonctionnelle. Définir et appliquer la politique d’industrialisation et de maintenance de la ligne de produit (qualité, CI/CD, automatisation). Accompagner et soutenir les Feature Teams dans la montée en compétence et la réalisation des objectifs. Collaborer avec les équipes agiles pour suivre les charges, les alertes et le staffing. Maintenir la documentation technique et fonctionnelle (Wiki, SharePoint, Teams). Contribuer à la pérennité technologique du patrimoine Data en réduisant la dette technique et en garantissant la conformité DSI. Assurer la coordination avec la DEXO (gestion de crise, gestion de la proximité avec les partenaires).
Offre d'emploi
Développeur Data Integration – Chaîne d’Intégration Comptable (NodeJS/TypeScript, Java, GCP)
Publiée le
Java
Node.js
SQL
62 jours
Hauts-de-France, France
📢 Appel d’Offre – Développeur Data Integration / Chaîne d’Intégration Comptable (H/F) Programme Finance – Finalisation Core Model | Contexte international Bonjour à tous, Nous recherchons un développeur expérimenté pour participer aux évolutions de notre chaîne d’intégration comptable dans le cadre d’un programme Finance international, afin de finaliser notre Core Model Finance . Le consultant interviendra sur deux composants majeurs : L’interpréteur comptable (transformation, validation, enrichissement des données) Un ETL (transport/conversion des fichiers + appels services web) 📅 Informations clés Type de contrat : Assistance technique Démarrage souhaité : 05/01/2026 Fin estimée : 31/03/2026 Volume prévisionnel : 62 jours Présence sur site : 3 jours / semaine Déplacements : Non Astreintes : Non Langue : Anglais professionnel impératif Code profil : 3.2.2 – Concepteur/Développeur – Medium 🎯 Objectif de la mission Contribuer au développement et à la stabilisation des évolutions nécessaires sur la chaîne d’intégration des données comptables, afin de garantir la qualité , la cohérence et la fiabilité des flux dans un contexte international . 🧩 Responsabilités principales Développer et mettre au point des programmes de transformation et d’enrichissement de données en NodeJS typé TypeScript + SQL sur GCP (interpréteur comptable) Développer et mettre au point des programmes équivalents en Java dans l’ ETL Concevoir et réaliser les tests unitaires Corriger les anomalies et contribuer à la stabilisation des composants Participer à la rédaction / mise à jour des spécifications techniques Respecter les normes, procédures et standards de développement (qualité, sécurité, performance) 💡 Compétences techniques attendues (Impératif) NodeJS (TypeScript) – Expert Java – Expert SQL – Expert GCP – Expert Web Services REST – Expertise solide ⭐ Compétences appréciées Expérience sur des chaînes d’intégration de données / projets Finance Pratique des environnements ETL , flux fichiers, traitements batch & contrôles Autonomie, rigueur, sens du résultat Capacité à évoluer dans un contexte international (échanges en anglais) 🧠 Profil recherché Développeur / Concepteur-Développeur confirmé À l’aise sur des sujets data transformation , intégration, APIs REST Capacité d’analyse, qualité de code, esprit d’équipe Orienté delivery (développement + tests + correction) 📄 Livrables attendus Programmes de transformation/enrichissement de données (NodeJS/TS + SQL + Java) Spécifications techniques (flux, mapping, interfaces, règles techniques) Tests unitaires (jeux de tests, résultats, couverture) Suivi des anomalies / corrections (selon processus interne)
Mission freelance
Data engineer - Reconstruction modèle tabulaire – SQL / DAX
Publiée le
DAX
SQL
15 jours
Asnières-sur-Seine, Île-de-France
Télétravail partiel
Data engineer - Reconstruction modèle tabulaire – SQL / DAX - 15 JOURS Contexte & objectif de la mission L’entreprise recherche un Data Engineer opérationnel pour intervenir sur un environnement décisionnel existant présentant des problèmes de : redondance de données , manque de fiabilité / véracité , performances insuffisantes dans les rapports et calculs, modèle tabulaire (cube) devenu difficile à maintenir. L’objectif de la mission est de reconstruire le modèle tabulaire , fiabiliser les sources, optimiser les performances et remettre le datamart sur des bases saines. Missions principales Analyser l’existant : tables SQL, flux, relations, modèle tabulaire actuel. Identifier les causes de redondance, d’incohérences et de problèmes de performances. Proposer une modélisation cible optimisée (star schema, normalisation, référentiels). Reconcevoir ou reconstruire le modèle tabulaire (VertiPaq) dans les bonnes pratiques. Reprendre les mesures DAX : fiabilisation, optimisation, documentation. Améliorer la qualité, la cohérence et la fraîcheur des données. Mettre en place les optimisations SQL (indexation, refactor, vues, partitionnement si nécessaire). Documenter les travaux réalisés et transmettre les bonnes pratiques. Livrables attendus Nouveau modèle tabulaire propre, performant et stable Refonte ou nettoyage des tables SQL sources Mesures DAX revues et fiabilisées Optimisations performances (SQL + DAX + modèle) Documentation technique Plan d’amélioration continue si nécessaire Environnement technique MS SQL Server SSAS Tabular / VertiPaq DAX Modélisation BI MS + Visualisation PowerBI Entrepot de données : Talend
Mission freelance
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis/ko
Publiée le
ETL (Extract-transform-load)
6 mois
400-420 £GB
Saint-Denis, Île-de-France
Télétravail partiel
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis Date de début : 05/01/2026 Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple. Objectif de la mission Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : → sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky (ENEDIS) et Gaspar (GRDF) → fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
Offre d'emploi
Chef de projet CDP DATA
Publiée le
JIRA
18 mois
40k-45k €
100-600 €
Paris, France
Télétravail partiel
Contexte : Dans le cadre de plusieurs projets Data sont en cours : conformité de la collecte et des usages des données, identification des nouveaux cas d’usage d’activation des données utilisateurs, constitution du socle de données utilisateurs, développement de la connaissance des utilisateurs, gouvernance des données… Dans ce cadre, la Direction Data recherche un chef de projet pour la gestion opérationnelle des cas d’usages d’activation publicitaires et d’acquisition issus de la CDP : Mediarithmics. La Customer Data Platform Mediarithmics a été déployée en 2020. Elle est implémentée sur la plupart des offres. Les données issues de la CDP servent actuellement de cas d’usages à destination des équipes métiers Acquisition, CRM . MISSIONS : Les tâches confiées couvrent la mise en place de la collecte, le suivi du déploiement, l’exploitation et la maintenance de notre CDP mais aussi la gestion de projets data transverses (suivi de la mise en place de solutions face à la fin des cookies tiers, amélioration de l’usage de la donnée en fonction des cas d’usage CRM (Email & Push) en place, création de nouveaux cas d’usages transverses…). 1. Répondre aux différents besoins des équipes métiers CRM (Email & Push) - Challenger les besoins et identifier les projets/chantiers à mettre en place : a) création de nouveaux segments au sein de l’outil b) mise en place de nouveaux flux d’envoi de donnée c) mise en place de nouvelles collectes de données d)… - En tant que point d’entrée pour ces équipes, animer les points hebdo sur leurs besoins et l’évolution des projets en cours - Proposer et défendre la mise en place de nouveaux cas d’usages liées aux nouvelles features de l’outil CDP Mediarithmics, aux nouvelles collectes de données, … - Concevoir et animer des workshops de cas d’usage avec les équipes des offres & des équipes métiers pour développer l’usage de la CDP (cas d’usage par métier & transverse) 2. Participer au run et à l’amélioration continue la CDP Mediarithmics (collecte, flux, dash, …) pour répondre aux besoins métiers CRM (Email & Push) - Création de segments dans la CDP et suivi de l’envoi de données dans les applicatifs - Pilotage de la donnée Mediarithmics en créant des dashboards de Data Quality, d’insights et de mesure, - Définir les plans de marquage de la CDP sur chacune des offres/ environnements (implémentation ou corrections), accompagner les équipes dans l’implémentation et veiller à ce que la collecte correspondant aux souhaits (rédiger et réaliser les recettes, …) - Concevoir et cadrer la mise en place de nouveaux projets / implémentation de nouvelles features ou de nouvelles données / mise en place de correctifs pour donner suite à des incidents : pré-requis, risques, parties prenantes, facteurs clés de succès… - Rédiger les documentations nécessaires au partage de la connaissance (CDP, cas d’usage, bonnes pratiques, … ) à destination des équipes., - Assurer la relation, la coordination et les évolutions des outils avec l’éditeur Mediarithmics 3. Gérer et suivre la mise en place des projets / cas d’usage pour les équipes CRM (Email & Push) - Organiser et animer les ateliers de conception et de cadrage avec les équipes des offres, les équipes techniques et les experts métiers - Organiser et animer les comités de pilotage des projets confiés - Coordonner et communiquer les actions entre les parties prenantes : Data, Technique, Offres numériques, Croissance des offres, Stratégie éditoriale, Equipe RGPD, … - Coordonner et communiquer avec les différents métiers en cohérence avec l’objectif projet et la roadmap - Partager les alertes projet aux différentes parties prenantes, - Identifier et partager les impacts entre les roadmaps des différents métiers, - Garantir l'avancée des projets et la qualité des livrables, - Assurer la création et l’évolution de la documentation projet / cas d’usage - Suivre, mesurer & communiquer sur les performances des projets, de l’outil CDP ou des cas d’usages - Prendre en charge, dans une démarche d’amélioration continue, les actions nécessaires pour améliorer les performances tout au long du cycle de vie des projets 4. La rédaction de livrables attendus - Rédiger les supports des instances Projet (ODJ, CR) et les supports de vulgarisation projet, - Participer à la définition, au suivi et aux évolutions de la roadmap projet, - Rédiger les spécifications fonctionnelles et documentation d’intégration des cas d’usages et/ou des outils au sein de Confluence, - Tenir la documentation liée au référentiel de segments - Compléter la documentation liée aux cas d’usage réalisées et à leur performance 5 - Nous attendons aussi du candidat d’être force de proposition sur : - Des méthodologies projets (best practices) permettant de tracer et d’améliorer a) Les alertes projet b) Les arbitrages pris (opérationnels et stratégiques), c) Les actions à venir et les parties prenantes impliquées, d) Les risques et leur mitigation
Offre d'emploi
CHEF DE PROJET DATA opérationnel
Publiée le
Dash
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Dans le cadre de plusieurs projets Data sont en cours : conformité de la collecte et des usages des données, identification des nouveaux cas d’usage d’activation des données utilisateurs, constitution du socle de données utilisateurs, développement de la connaissance des utilisateurs, gouvernance des données… MISSIONS : Nous recherchons un chef pour la gestion opérationnelle des cas d’usages d’activation publicitaires et d’acquisition issus de la CDP : Mediarithmics. La Customer Data Platform Mediarithmics a été déployée en 2020. Elle est implémentée sur la plupart des offres. Les données issues de la CDP servent actuellement de cas d’usages à destination des équipes métiers Acquisition, CRM et de la Publicité. Les tâches confiées dans le cadre de la mission couvrent la mise en place de la collecte, le suivi du déploiement, l’exploitation et la maintenance de notre CDP mais aussi la gestion de projets data transverses (suivi de la mise en place de solutions face à la fin des cookies tiers, amélioration de l’usage de la donnée en fonction des cas d’usage publicitaires et d’acquisition en place, création de nouveaux cas d’usages transverses…). 1. Répondre aux différents besoins des équipes métiers Acquisition & Publicité - Challenger les besoins et identifier les projets/chantiers à mettre en place : a) création de nouveaux segments au sein de l’outil b) mise en place de nouveaux flux d’envoi de donnée c) mise en place de nouvelles collectes de données d)… - En tant que point d’entrée pour ces équipes, animer les points hebdo sur leurs besoins et l’évolution des projets en cours - Proposer et défendre la mise en place de nouveaux cas d’usages liées aux nouvelles features de l’outil CDP Mediarithmics, aux nouvelles collectes de données, … - Concevoir et animer des workshops de cas d’usage avec les équipes des offres & des équipes métiers pour développer l’usage de la CDP (cas d’usage par métier & transverse) 2. Participer au run et à l’amélioration continue la CDP Mediarithmics (collecte, flux, dash, …) pour répondre aux besoins métiers Acquisition & Publicité - Création de segments dans la CDP et suivi de l’envoi de données dans les applicatifs - Pilotage de la donnée Mediarithmics en créant des dashboards de Data Quality, d’insights et de mesure, - Définir les plans de marquage de la CDP sur chacune des offres/ environnements (implémentation ou corrections), accompagner les équipes dans l’implémentation et veiller à ce que la collecte correspondant aux souhaits (rédiger et réaliser les recettes, …) - Concevoir et cadrer la mise en place de nouveaux projets / implémentation de nouvelles features ou de nouvelles données / mise en place de correctif pour donner suite à des incidents : pré-requis, risques, parties prenantes, facteurs clés de succès… - Rédiger les documentations nécessaires au partage de la connaissance (CDP, cas d’usage, bonnes pratiques, … ) à destination des équipes. - Assurer la relation, la coordination et les évolutions des outils avec l’éditeur Mediarithmics 3. Gérer et suivre la mise en place des projets / cas d’usage pour les équipes Acquisition & Publicité - Organiser et animer les ateliers de conception et de cadrage avec les équipes des offres, les équipes techniques et les experts métiers - Organiser et animer les comités de pilotage des projets confiés - Coordonner et communiquer les actions entre les parties prenantes : Data, Technique, Offres numériques, Croissance des offres, Stratégie éditoriale, Equipe RGPD, … - Coordonner et communiquer avec les différents métiers en cohérence avec l’objectif projet et la roadmap - Partager les alertes projet aux différentes parties prenantes, - Identifier et partager les impacts entre les roadmaps des différents métiers, - Garantir l'avancée des projets et la qualité des livrables, - Assurer la création et l’évolution de la documentation projet / cas d’usage - Suivre, mesurer & communiquer sur les performances des projets, de l’outil CDP ou des cas d’usages - Prendre en charge, dans une démarche d’amélioration continue, les actions nécessaires pour améliorer les performances tout au long du cycle de vie des projets
Mission freelance
Responsable Strategie Data / IA senior
Publiée le
IA
1 an
400-600 €
Île-de-France, France
Localisation : Hauts-de-Seine Expérience : 7 an et plus Mission : 1 an renouvelable Spécialités technologiques : Intelligence artificielle Big Data Description et livrables de la prestation : Contexte : Un grand groupe français souhaite accélérer un programme transverse Data & IA visant à mieux coordonner plusieurs entités internes expertes (data, IA, plateformes, industrialisation) et à renforcer la cohérence globale de la filière. Des actions ont déjà été engagées (gouvernance, premiers chantiers, animation du collectif), et le groupe veut désormais structurer davantage et passer à l’échelle : clarifier le positionnement, harmoniser les pratiques, renforcer la capacité à travailler “d’une seule voix”, et améliorer l’efficacité de bout en bout (de l’offre au déploiement). Objectifs de l’appel d’offre : - Renforcer l’alignement entre entités contributrices (offres, priorités, modes opératoires, gouvernance). - Accélérer les synergies opérationnelles et business (offres conjointes, réponses coordonnées, passage à des engagements plus ambitieux). -Définir/mettre à jour une roadmap 2025–2026 et sécuriser l’exécution via une gouvernance robuste. -Structurer une stratégie marketing & communication (messages, visibilité, preuves, supports), incluant une réflexion sur une architecture de marque type “marque ombrelle” + déclinaisons, sans logique de fusion. -Renforcer l’animation “collectif” et la capitalisation (veille, retours d’expérience, publications, démarche à impact / IA responsable). Rôle attendu du prestataire : -Le prestataire intervient comme pilote et facilitateur du programme, à l’interface entre direction, sponsors, et entités contributrices : -Pilotage / PMO de programme : cadrage, planification, suivi des chantiers, animation des rituels, préparation/animation des comités, gestion des actions et décisions. -Structuration de l’offre : formalisation d’une offre de service cohérente, lisible et réplicable, articulation des contributions des différentes entités. -Activation des synergies : mise en place de mécanismes concrets (process, coordination, “passage de relais”, construction d’offres croisées, consolidation des retours terrain). -Marketing & communication opérationnels : plan de communication, contenus, kits de présentation, éléments de langage, valorisation des réalisations et cas d’usage. -Rayonnement & animation de l’expertise : cadrer une dynamique de type “lab/collectif” (veille, publications, événements internes/externes, démarche à impact). Livrables attendus : -Roadmap 2025–2026 (priorités, jalons, chantiers, dépendances) + cadre de pilotage associé. -Dispositif de gouvernance : comitologie, rituels, responsabilités, tableaux de suivi et reporting. -Plan marketing & communication : objectifs, messages, cibles, canaux, calendrier, contenus. -Kit de communication & kit commercial : pitchs, trames, supports, éléments de langage, preuves, cas d’usage / retours d’expérience. -Reporting périodique (ex. trimestriel) : avancement, synergies réalisées, points de blocage, recommandations. -Synthèse annuelle : bilan, impacts, perspectives et axes de développement. Expertise souhaitée : - Expérience avérée en accompagnement de programmes de transformation Data & IA - Compétences en marketing stratégique, gouvernance et pilotage d’écosystèmes complexes - Capacité à travailler en contexte multi-entités et à animer la coopération interfiliales - Qualité méthodologique et lisibilité de la proposition - Dynamique, leadership - Expérience en grands groupes Mobilité : Mission Full Time hybride : 2 à 3 jours sur site
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Mission freelance
Data Engineer Python Azure
Publiée le
Azure
Databricks
PySpark
12 mois
600-650 €
Paris, France
Télétravail partiel
DATA ENGINEER Avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Objectifs et livrables : Nous recherchons une prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Le consultant Data Engineer évoluera dans un contexte agile, en mode itératif et co- constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir data modeling SQL/NoSQL Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en Data Engineering. Compétences requises quotidiennement : Maîtrise des technologies suivantes : Python niveau expert - (4/4) Azure Cloud niveau avancé - (3/4) Azure functions niveau confirmé - (2/4) Compétences requises : Pyspark niveau expert - (4/4) Databricks niveau expert - (4/4)
Mission freelance
Technico-Fonctionnel / Scientific Data Engineering - Expert DataOps - R&D - 1117
Publiée le
6 mois
500-530 €
Paris, France
Télétravail partiel
Objectifs de la mission : Le Passenger Cognition Lab modélise les comportements des voyageurs afin d’optimiser les services digitaux et l’information voyageur en Île-de-France. Le Lab recherche un Ingénieur de Recherche DataOps capable de concevoir et enrichir une infrastructure de données permettant des études scientifiques sur la cognition des voyageurs. Enjeux et rôle du consultant - Traduire les besoins théoriques des chercheurs en pipelines de données robustes et architectures cloud performantes (AWS). - Garantir l’intégrité scientifique des traitements : gestion des biais statistiques, fiabilité des séries temporelles, reproductibilité. - Concevoir des environnements d’expérimentation Cloud fiables, orientés production de résultats scientifiques. - Documenter et structurer les travaux pour assurer leur pérennité. - Agir comme le bras technique du Lab dans un contexte de recherche. Environnement & contexte : R&D agile manipulant des volumes de données massifs et hétérogènes. Stack : AWS, Python (Scientific Stack), conteneurisation. Interaction clé avec l’IT Groupe pour favoriser le portage et l’exploitation des données dans d’autres projets. Livrable : Instrumentation des données pour la recherche (Scientific Data Engineering) Architecture Cloud pour l'expérimentation (Scientific Ops) Formalisation technique et Support à la valorisation Obligatoire : Thèse de doctorat (Data, ML ou Mathématiques Appliquées) garantissant sa capacité à dialoguer avec des chercheurs, couplée à une expérience opérationnelle forte en Ingénierie logicielle/Cloud. Expériences entre 7 et 9 années.
Mission freelance
Product Owner Data Sénior Localisation : Paris– La Défense (TT possible : 2 jours / semaine)/ko
Publiée le
Méthode Agile
6 mois
400-470 £GB
Paris, France
Télétravail partiel
Product Owner Data Sénior Localisation : Paris – La Défense (Télétravail possible : 2 jours / semaine) Objectif de la mission Assurer le Product Ownership des socles Data pour le programme Data Performance, afin de : maximiser la valeur business, garantir l’adoption des produits par les métiers, sécuriser la performance des traitements et le passage en RUN. Le consultant sera également amené à collaborer avec le Product Manager transverse et à accompagner la transformation Data dans l’organisation. Missions principales 1. Product Ownership des socles Piloter le backlog des socles et prioriser les évolutions en fonction des besoins métiers. Rédiger user stories et spécifications fonctionnelles pour les fonctionnalités critiques. Assurer la cohérence fonctionnelle avec les objectifs métiers : CA, performance commerciale, nouveaux services marketing. Préparer le passage en RUN et accompagner l’adoption des produits par les métiers. Suivre les traitements existants, le legacy, les référentiels et les adhérences. 2. Collaboration avec le Product Manager transverse Participer à la structuration et pilotage industriel des socles Data . Contribuer à la roadmap Data à 3 ans , et à la mise en place du PI Planning . Déployer des KPIs orientés valeur business pour mesurer l’impact des socles et des cas d’usage. Préparer les supports de COPIL / CEB / COPROJ , incluant avancement, risques et indicateurs de valeur. 3. Accompagnement de la transformation Data Décliner les orientations de la transformation (audit plateforme Data) dans les pratiques des socles et zones business. Suivre les pilotes New SAPO et Distribution , sécuriser leur mise en œuvre et généraliser les bonnes pratiques. Contribuer à la conduite du changement : acculturation, formation, communication et montée en maturité des équipes métiers et SI. Livrables clés Backlog et priorisation des évolutions des socles User stories / spécifications fonctionnelles Roadmap Data à 3 ans KPI de valeur business et supports de pilotage pour COPIL / CEB Documentation sur la transformation Data et accompagnement au changement Profil recherché Expérience Product Owner Data dans des grands groupes ou environnements complexes Connaissance en transformation Data et Data Office Capacité à travailler avec les métiers et la DSI pour traduire les besoins en solutions Data opérationnelles Maîtrise des concepts modernes de data architecture , notamment Data Mesh et gestion de référentiels Expérience Agile / PI Planning / gestion de roadmap Data Orientation forte valeur business , capacité à mesurer et suivre l’impact des socles et produits Data Idéalement : connaissance environnement transport (données clients, données commerciales / financières)
Mission freelance
Product Owner Data Expert
Publiée le
Agile Scrum
Architecture
Azure Data Factory
12 mois
600-630 €
Île-de-France, France
Télétravail partiel
Contexte de la mission La mission s’inscrit dans un programme de refonte des traitements de données Ventes et Client, visant à fiabiliser et valoriser les données au service des métiers. L’objectif est de transformer les jeux de données existants en Data Products clairs, robustes et pérennes, tout en optimisant la valeur de l’ensemble décisionnel actuel. L’environnement est hybride , combinant : des composants legacy à maintenir et fiabiliser, essentiels au pilotage opérationnel, et des chantiers de refonte et de modernisation menés dans une logique produit et Data Mesh . La mission s’inscrit dans un contexte de modernisation de la stack data (architecture Lakehouse) et de montée en maturité des pratiques Produit au sein des équipes Data. Missions principales Le prestataire assurera le rôle de Product Owner Data , en pilotant une équipe pluridisciplinaire (Produit, Tech, Data). Ses responsabilités incluront : Conduire la refonte et la valorisation des données Ventes , du cadrage des besoins métiers jusqu’à la livraison des Data Products. Piloter la roadmap produit data dans une logique Data Mesh : gouvernance, qualité, exploitabilité. Maintenir l’existant (legacy) en garantissant la continuité de service et la fiabilité des indicateurs clés. Collaborer étroitement avec le Product Manager et les autres PO Data pour aligner la vision et assurer la cohérence transverse. Animer les échanges métiers autour de la valeur d’usage, des indicateurs de succès et de la qualité des livrables. Contribuer activement à la communauté Produit & Data , en partageant les bonnes pratiques et en favorisant la montée en maturité collective. Livrables attendus Roadmap produit claire et priorisée (vision, jalons, backlog). Cadrages et spécifications fonctionnelles des Data Products (règles de gestion, contrats d’interface, indicateurs de succès). Plan de maintien et d’amélioration continue du legacy (cartographie, fiabilisation, suivi qualité, documentation). Pilotage agile et reporting régulier sur l’avancement et les risques. Documentation consolidée (catalogue, dictionnaire de données, fiches produit, gouvernance).
Mission freelance
DATA ARCHITECTE
Publiée le
Data analysis
12 mois
400-660 €
Paris, France
Télétravail partiel
Notre client, un grand groupe bancaire international, renforce sa Direction IT dans le cadre de la transformation de son Système d’Information. Au sein du pôle “Gouvernance & Architecture”, vous rejoindrez l’équipe “Architecture d’Entreprise” pour piloter un programme transverse visant à fiabiliser la cartographie des données et des flux applicatifs . 🚀 Vos missions Cadrer le projet et définir le Target Operating Model (TOM) Collecter les informations via les outils collaboratifs internes Produire et/ou réviser la cartographie des applications déployées Développer des interfaces facilitant la consultation du référentiel des cartographies Piloter les chantiers, la roadmap et les livrables Définir les processus opérationnels, la gouvernance et le RACI Animer la communauté de contributeurs (Data Office, Architectes, Application Managers) Suivre les plans d’action et garantir l’avancement des objectifs 🧠 Votre profil Minimum 10 ans d’expérience dans la gestion de projets IT ou l’architecture d’entreprise Maîtrise des frameworks d’architecture , principes d’urbanisation et standards de modélisation Solides compétences en pilotage de projet, planification et gestion des risques Capacité à coordonner des équipes internationales et à communiquer en anglais Esprit analytique, structuré et orienté résultats Force de proposition et approche innovante dans la conduite du changement
Mission freelance
architecte data senior API Lyon/3 jours TT
Publiée le
API REST
Architecture
6 mois
520-700 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
architecte data senior API Lyon . Compétences attendues : Architecture technique : compréhension des infrastructures, intégration, scalabilité Maitrise des briques techniques, APIs, frameworks et librairies Maîtrise des démarches de design Solution technique (concept, ateliers, livrables Traduction des exigences fonctionnelles et non fonctionnelles en spécifications techniques. Connaissance des standards d’intégration (REST, GraphQL, ESB, etc.). Communication et vulgarisation : capacité à expliquer des concepts complexes au sein d’une équipe pluridisciplinaire Collaboration interdisciplinaire : capacité à travailler étroitement avec différentes parties prenantes (métiers et IT) Méthodologies agiles Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Séniorité : Minimum 7 ans d’expérience Missions : Contributions à la découverte du périmètre fonctionnel (Collaborer avec l’équipe produit pour aligner l’architecture sur les objectifs métier, clarifier les exigences, définir les personas et scénarios d’usage afin de répondre aux besoins des utilisateurs finaux.) Design de solution technique (Définir les exigences non fonctionnelles et critères de succès techniques, tout en analysant les intégrations et dépendances avec les systèmes et infrastructures existants.) Contribuer à l’amélioration du design de solution Compétences attendues : Architecture technique : compréhension des infrastructures, intégration, scalabilité Maitrise des briques techniques, APIs, frameworks et librairies Maîtrise des démarches de design Solution technique (concept, ateliers, livrables Traduction des exigences fonctionnelles et non fonctionnelles en spécifications techniques. Connaissance des standards d’intégration (REST, GraphQL, ESB, etc.). Communication et vulgarisation : capacité à expliquer des concepts complexes au sein d’une équipe pluridisciplinaire Collaboration interdisciplinaire : capacité à travailler étroitement avec différentes parties prenantes (métiers et IT) Méthodologies agiles
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
330-420 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
226 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois