Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Manager conseil & delivery data/IA - Consultant data/IA
🎯 Contexte Notre client, recherche un(e) freelance expérimenté(e) pour accompagner la qualification, la formalisation et le pilotage de projets Data & Intelligence Artificielle, dans un environnement complexe et international. 📝 Vos missions Analyser les briefs entrants et proposer des dispositifs IA adaptés Prioriser et synthétiser le pipe de demandes et propositions Formaliser des recommandations, opérationnelles et tactiques, en adéquation avec les besoins exprimés Assurer la coordination du delivery (équipes locales, nearshore ou offshore) Être le point de contact opérationnel avec les interlocuteurs internes Contribuer à la mise en place et à l’amélioration des process internes Être force de proposition sur les opportunités liées à la Data & l’IA, spécifiquement sur l'IA générative

Offre d'emploi
Data Engineer Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Mission freelance
Chef de projet Data transport electrique -
Dans le cadre de la transition vers l’électrification de ses opérations, l’entreprise identifie un manque de compétences en data management et data governance . L’objectif est de devenir une organisation data-driven , en s’appuyant sur l’expérience réussie en Colombie (GreenMovil) et en cours de structuration en Suède. Localisation & Organisation Basé à Issy-les-Moulineaux Démarrage : ASAP Deadline de Réponse : 20/09 TJM : En fonction du profil Anglais courant Durée : Environ 40 jours de mission avant fin 2025 (possibilité 1 semaine / ou 2 jours par semaine) - potentiellement renouvelable sur 2026 Projet international : échanges réguliers avec la Suède, et potentiellement d'autres pays (Il y aura un déplacement en Suède durant la mission). Équipe majoritairement anglophone (seulement 2 Français) Objectif : Définir et standardiser le modèle à l’international Profil recherché Chef de projet Data / Consultant en transformation Data Spécialiste en data governance avec une appétence pour les données liées au transport électrique (batteries, télématique, bornes de recharge…) Expérience en conduite du changement et en structuration de la donnée Capacité à définir des KPI (pas à les produire) Livrables attendus Livrables possibles : Guide pratique des principes clés Session ou support de formation One-pager avec exemples concrets Analyse des risques et mesures de mitigation Étape 1 – Inputs : Définir les KPI et types de données à collecter (batteries, télématique, bornes) Étape 2 – Outputs : Accompagner notre client sur les livrables attendus et la structure des rapports Objectif : calquer le modèle initié en Colombie

Mission freelance
Développeur SEMARCHY XDM – Projet Stratégique de Transformation Digitale – Nantes (H/F)
Localisée à Nantes, notre entreprise s'emploie à intégrer et à optimiser une solution de Master Data Management de pointe. Au sein de notre Business Unit "Service", composée d'une vingtaine de collaborateurs, vous travaillerez sur des projets de grande envergure. Ce poste est créé dans le cadre de notre transformation numérique continue et de l'évolution de nos projets de gouvernance de données. Missions Missions principales Concevoir, configurer et déployer des modèles de données dans SEMARCHY XDM. Développer et maintenir des règles de gestion, workflows et interfaces utilisateur. Intégrer SEMARCHY XDM avec les autres systèmes de l’entreprise (ERP, CRM, etc.). Missions annexes Collaborer étroitement avec les équipes métiers pour traduire leurs besoins en solutions efficaces. Documenter techniquement et fonctionnellement les processus en place. Offrir le support nécessaire et résoudre les incidents liés aux solutions mises en place. Stack technique À maîtriser SEMARCHY XDM. Compétences avancées en scripting Python. Bases de données (SQL, NoSQL) et formats de données (XML, JSON). Outils d’intégration de données (ETL/ELT). Environnement technique global Environnements cloud (AWS, Azure, GCP) appréciés. Connaissance des standards de données (ISO, GS1, etc.).
Offre d'emploi
Chef de Projets Data H/F
Nous recherchons un Chef de Projets Data pour venir renforcer nos équipes Delivery. Vous serez responsable de la gestion complète des projets de déploiement de nos plateformes data chez nos clients, en garantissant le respect des délais, du budget et de la qualité des livrables. Nous attendons de vous des compétences fortes en Management et Leadership. Vous aurez la charge de : • Superviser l'ensemble du cycle de vie des projets en mode forfaitaire ou en mode dispositif à engagements, jusqu'au déploiement en production • Définir et formaliser les besoins clients en étroite collaboration avec les équipes techniques et les stakeholders • Chiffrer les différentes étapes du projet, identifier les compétences nécessaires, élaborer les plannings, définir le plan de charge (montée en charge des ressources nécessaires) • Assurer un suivi rigoureux des coûts, des délais et des risques, en identifiant et en gérant les éventuels écarts de périmètre • Initialiser et maintenir le plan d'assurance qualité à jour • Encadrer et animer les équipes projets, en motivant et en assurant un suivi efficace de la performance de l'équipe • Garantir la qualité des livrables en supervisant les tests, la validation des fonctionnalités et la conformité aux exigences spécifiées • Participer à l'amélioration continue des processus et méthodologies de gestion de projets (plan de progrès) • Préparer des rapports réguliers sur l'état d'avancement des projets et les résultats obtenus. Référence de l'offre : xs2ya26cg5

Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Offre d'emploi
Software Data Engineer H/F
Nous recherchons un(e) Software Data Engineer pour l'un de nos clients grand compte. Missions : • Concevoir et implémenter les composants/pipelines d’ingestion de données en scala spark • Traiter et normaliser les données • Refactoriser des imports existants pour être compliant avec l'architecture médaillon (silver + gold layers) • Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud • Distribuer les données aux différents consommateurs/Métiers • Implémenter les règles de Data Quality (DataQuality framework) et gérer le data calatog • Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) • Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … • Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données • Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. • Être force de proposition pour améliorer les processus et les performances des systèmes. Compétences requises : • Expertise en Scala et Spark. • Expérience significative dans le développement d'ETL en contexte Big Data. • Expérience AWS (Glue, Lambda, Step Function, S3, etc.) : niveau intermédiaire avec expérience pratique • Compétences Dev/Ops • Capacité à travailler en équipe et à communiquer efficacement avec les parties prenantes. • Organisation, orientation résultats et intérêt marqué pour le fonctionnel. • Des compétences en Python et REACT seraient un plus pour le candidat

Mission freelance
Développeur Big Data
La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API

Offre d'emploi
Consultant(e) MOA DataHub – Finance de Marché
Contexte du projet : Au sein du Portefeuille de solutions « Pilotage financier et projets data » et sous la coordination du responsable de périmètre « Projets Data » d’un grand compte bancaire, vous contribuez en tant que Consultant(e) MOA Sénior aux activités de projet ou de maintenance évolutive des solutions Data , en particulier : • La maintenance évolutive de Data Finance , la plateforme multi-décisionnelle du métier Gestion d’actifs (GDA) et de ses métiers partenaires (DEOF, DFFE…). • Le projet DataHub « Finance de Marché » , lancé selon la stratégie Data de l’Établissement Public, pour le compte du métier de la Gestion d’Actifs. Description de vos missions : Projet DataHub – Impacts de la création du DataHub sur les DataMarts : • Étude de couverture des données, par lots du projet DataHub, pour la continuité des usages existants • Étude d’impact de la reconnexion des DataMarts sur le DataHub • Cadrage de l’impact de cette reconnexion sur les DataSources et les rapports Tableau (génériques et personnalisés) • Conception, recette et déploiement des nouveaux DataMarts Projet DataHub Finance de Marché – Data Foundation et modélisation : • Modélisation des objets métiers du DataHub, les spécifications de leur implémentation • Validation des modèles de données du DataHub (Data Vault / Business Views) • Rédaction des spécifications et du mapping des données pour alimenter ces couches, avec un enjeu particulier sur la conception des Business Views sur mesure et des règles de gestion de leur alimentation à partir du Raw Vault • Contribution au pilotage du projet en support du responsable de périmètre

Offre d'emploi
Data analyst R&D (données cliniques)
Missions principales En pratique, vos responsabilités seront les suivantes : Recueillir et analyser les besoins utilisateurs (équipes métier et R&D). Développer ou améliorer des solutions d’acquisition et de visualisation innovantes. Concevoir et optimiser des rapports de tests, validations et suivis financiers (P&L, KPIs). Élaborer et maintenir la documentation technique, fonctionnelle et les guides utilisateurs. Conseiller et accompagner les utilisateurs dans l’exploitation des solutions. Participer à la mise en place et l’évolution de processus et d’outils de data management. Réaliser des études de faisabilité (données, systèmes, outils, développements). Assurer des formations utilisateurs et produire le matériel pédagogique associé. Compétences techniques attendues Reporting & DataViz Power BI (certification souhaitée) : DAX, Power Query, Report Builder. Streamlit (Python) et Shiny (R) pour des applications interactives. Data storytelling et adaptation des visualisations selon les profils utilisateurs (métiers, data science, direction). Programmation & Analyse de données Python (pandas, matplotlib, seaborn, Streamlit). R (packages de data processing, dashboards interactifs via Shiny). SAS (traitement, analyse et transformation de données structurées, contexte analytique ou clinique). SQL / DBT (structuration, transformation et exploitation de données relationnelles). Bonnes pratiques de développement Maîtrise de Git / GitLab (versionning, branches, merge requests, revues de code). Respect des bonnes pratiques de structuration, modularité et documentation du code. Travail en mode agile (Kanban, Scrum) avec PO, Tech Lead, Data Engineers. Big Data & Cloud Transformation et industrialisation de la donnée sur Google Cloud Platform (GCP) . Développement de datamarts en collaboration avec les Data Engineers.
Mission freelance
Product Owner Data
Dans le cadre d'une mission freelance située à Paris intramuros, nous recherchons un Product Owner Data spécialisé dans la qualité des données pour piloter la mise en place d’un cockpit Data Quality à l’échelle d’un groupe international. Ce cockpit permettra de centraliser les indicateurs de qualité, suivre les seuils critiques et accompagner les entités métiers dans l’amélioration continue de la fiabilité des données. Vous interviendrez sur l’ensemble du cycle de vie du produit : cadrage, définition du MVP, conception des fonctionnalités, animation des comités de suivi, déploiement dans les différentes entités, et accompagnement au changement.
Offre d'emploi
Data Steward – Secteur Financement d’Entreprises
Contexte : Un acteur majeur du secteur financier, spécialisé dans le financement de biens d’équipement et immobiliers pour les entreprises, présent à l’international, recherche un Data Steward pour intervenir dans le cadre d’un programme Data Management. L’entreprise propose différents types de solutions : crédit, crédit-bail mobilier et immobilier, location, wholesale, location longue durée avec gestion de parc, revolving, etc. La mission s’inscrit au sein d’une entité IT en charge de l’évolution et de la maintenance d’applications dédiées aux métiers Finance, Risk et ALMT. L’objectif est de piloter et réaliser la documentation des données, notamment la production du Business Data Dictionary , du Business Data Model et de la Data Asset Confidentiality Card . Lieu de mission : Nanterre

Offre d'emploi
CHEF DE PROJET DATA
Bonjour, Pour le compte de notre client, nous recherchons un chef de projet data. Contexte : Assurer le rôle de point de coordination entre les équipes data engineer et data analystes Comprendre et cartographier les flux de données existants Réaliser ponctuellement des développements SQL si nécessaire Assurer le pilotage, suivi et traçabilité des projets data Garantir la bonne application de la méthodologie Agile (Rituels, backlog, priorisation). Compétences attendues Solides capacités d'analyse et de compréhension fonctionnelle Bonne connaissance des environnements data (bases, flux, reporting) Expérience en gestion de projet / PO Compétences techniques en SQL, DBT et Snowflake Connaissance de l'outil Tableau Profil hybride Technico fonctionnel

Mission freelance
Product Owner - SAP Business Partner
🎯 Contexte de la mission Dans le cadre du déploiement de la solution SAP S/4 Hana au sein des différentes entités du groupe, nous recherchons un Product Owner spécialisé sur le domaine Business Partner (référentiel fournisseurs, clients, employés). L’objectif : piloter le run, build et déploiement de la solution, assurer la qualité de la donnée et accompagner l’onboarding des nouvelles Business Units. ✅ Missions principales Piloter le run et les évolutions de la solution SAP Business Partner. Gérer et prioriser le product backlog en cohérence avec les enjeux métier et digitaux. Rédiger les user stories , valider les développements et définir les tests utilisateurs. Coordonner les interactions entre les équipes SAP Finance, Supply Chain et IT . Contribuer à la roadmap produit et présenter les évolutions lors des sprint reviews.

Offre d'emploi
Data Analyst – Denodo (H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Analyst – Denodo (H/F) 🚀 💡 Votre mission est pour un client dans le secteur bancaire. Vous intégrerez une équipe Data déjà en place à Aix-en-Provence pour accompagner la montée de version de l’outil Denodo (V8 → V9). La mission couvre à la fois l’accompagnement des utilisateurs et le suivi de la production. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Assurer le suivi et le traitement de la montée de version Denodo (V8 vers V9) 🔸 Contribuer à l’administration de l’outil (monitoring, RUN, gestion des habilitations et rôles) 🔸 Accompagner les utilisateurs dans l’appropriation de Denodo V9 et le développement de couches métiers 🔸 Produire la documentation associée (architecture, conduite du changement, guide d’utilisation)

Mission freelance
Data Engineer Confirmé (Cloudera / Spark)
Contexte Vous intervenez au sein du Chapitre Data de notre client, basé à Vannes , dans un environnement Big Data Cloudera . Le Chapitre agit en transverse et contribue à la fabrication des cas d’usage Data pour plusieurs Squads métiers. Vous serez amené à : Collaborer avec différentes équipes métiers Travailler avec des interlocuteurs changeants Échanger avec les membres du Chapitre local et national Responsabilités Participer à la définition de l’architecture Data (en lien avec les architectes et la Squad) Concevoir, affiner et développer des solutions de collecte & stockage de données multi-sources Mettre en œuvre des tests unitaires & automatisés Déployer les produits dans différents environnements Superviser la production , gérer les incidents et le support Contribuer à l’amélioration continue des pratiques et de la qualité de code
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.