Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 46 résultats.
CDD
CDI
Freelance

Offre d'emploi
DATA  Engineer GCP 2

KEONI CONSULTING
Publiée le
Architecture
Python
SQL

18 mois
20k-60k €
100-550 €
Paris, France
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Freelance

Mission freelance
SENIOR DATA AND AI ENGINEER

CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake

1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission 􋰄 Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). 􋰄 Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. 􋰄 Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. 􋰄 Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). 􋰄 Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. 􋰄 Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Freelance
CDI

Offre d'emploi
Data Analyst ESG (Proxy Product Owner / Reporting) – Longue durée

AVA2I
Publiée le
AWS Cloud
ESG
KPI

3 ans
57k-68k €
500-600 €
Île-de-France, France
Nous recherchons un(e) Data Analyst spécialisé(e) ESG , avec une expérience sur des projets de construction/refonte de SI et une vraie capacité à faire le lien entre métier et IT . 🎯 Contexte Le programme vise à industrialiser et fiabiliser les données ESG pour plusieurs directions métiers (Capital Markets, Financements structurés, Trade Finance, etc.). Le/la consultant(e) interviendra à la fois sur la construction du SI , la qualité de données , et la production d’analyses/reportings . ✅ Mission 1 – Proxy Product Owner (Data / ESG) En tant que relais du Business Data Officer, vous intervenez sur : Recueil des besoins data auprès des consommateurs ESG (Capital Markets, Trade Finance, Origination, etc.) Conception des modèles de données ESG Garantie de la qualité / fiabilité des données produites Élaboration des plans de tests Participation aux UAT Contribution à la conception et au développement avec les équipes IT Participation aux travaux de gouvernance data : dictionnaire de données, lineage, etc. ✅ Mission 2 – Analyse & Reporting Vous prenez en charge : Collecte, analyse et interprétation des données métier issues de sources multiples Création et maintien de tableaux de bord / rapports KPI Identification des tendances, anomalies et axes d’amélioration Analyses ad hoc pour différents départements Contrôle qualité et fiabilité des données analysées Documentation des méthodologies et processus d’analyse
Freelance

Mission freelance
98710/Data Engineer Nantes - Kafka - DBT - Python - Trino

WorldWide People
Publiée le
Apache Kafka
DBT
Python

12 mois
400-420 £GB
Nantes, Pays de la Loire
Data Engineer Nantes - Kafka - DBT - Python - Trino L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Freelance

Mission freelance
Recetteur/Appui PO

SQLI
Publiée le
Product management

1 an
400-470 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'énergie, je suis à la recherche d'un Recetteur/Appui PO Profil « Appui PO / Proxy PO / Data Analyst » Missions souhaitées : Appui sur les recettes : Capacité à accompagner pour la bonne réalisation de l’intégralité des recettes des tickets, création des JDD, recettes inter-SI. Support Métier et intégration des anomalies / évolutions en prod : Garant du processus de remontées d’anomalies en prod (création ticket, priorisation), validation et analyse en prod des évolutifs. Garant des Tests Automatisés : Fiabiliser et maintenir les tests automatisés existants, inciter et superviser le développement des tests automatisés (les développeurs resteront sûrement garant de la réalisation de tests automatisés). Supervision de l’application : Mise à jour et suivi des tableaux de bord Grafana, vérification de la bonne intégration/transmission des données (COSY, DRU, MECAFLEX, DERMS, etc..). Backlog & user stories : Participation à la rédaction, clarification et priorisation des user stories. Cérémonies agiles : Soutien au PO dans la préparation et l’animation des différentes cérémonies agiles (refinement, sprint planning…).
Freelance

Mission freelance
Développeur Fullstack Senior Python Typescript(H/F)

HOXTON PARTNERS
Publiée le
API REST
Python
TypeScript

6 mois
Paris, France
Dans le cadre d’un programme d’envergure, nous recherchons un Développeur Fullstack confirmé pour intervenir sur la conception, le développement et le maintien en condition opérationnelle de composants logiciels critiques. Le projet s’inscrit dans un contexte d’innovation, d’interopérabilité et de valorisation de données sensibles, à destination de médecins, chercheurs et équipes métiers, avec une forte orientation Open Source. Missions principales Le consultant interviendra sur l’ensemble du cycle de vie des applications, avec un haut niveau d’autonomie, et sera notamment en charge de : Concevoir et développer des composants Front-end et Back-end robustes et réutilisables Développer et exposer des API REST conformes aux standards d’interopérabilité (FHIR) Réaliser des interfaces utilisateurs en JavaScript / TypeScript (React) Assurer la maintenance évolutive et le maintien en condition opérationnelle des applicatifs Produire des spécifications techniques détaillées et de la documentation technique Mettre en œuvre les tests unitaires, fonctionnels et de non-régression Contribuer à la qualité logicielle (sécurité, performance, documentation) Collaborer avec des équipes pluridisciplinaires (designers, PM/PO, data engineers, chercheurs, médecins) Participer à des projets Open Source reconnus dans le domaine de la santé
Freelance

Mission freelance
Proxy PO build - Snowflake + Power BI

FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake

1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
CDI

Offre d'emploi
Développeur Full-Stack H/F

DAVRICOURT
Publiée le
Full stack

35k-40k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Développeur Full-Stack Node.js / Nest.js pour l'un de nos clients. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes :) - Développer et faire évoluer les APIs, BFF et services métier en Node.js / Nest.js ; - Structurer, optimiser et moderniser le monorepo (Nx / Turborepo) et contribuer à son industrialisation ; - Mettre en œuvre et maintenir les traitements event-driven via Kafka (producers, consumers, schémas) ; - Assurer la performance et la qualité logicielle : tests, revues de code, clean code, monitoring ; - Participer activement aux rituels agiles et collaborer étroitement avec les équipes PO, UX, data et développement ; - Contribuer à l'observabilité du produit (Datadog), à la scalabilité des services et à l'amélioration continue des pratiques. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Freelance

Mission freelance
Data Product Owner

SKILLWISE
Publiée le
Azure
MySQL
Python

3 mois
400-550 €
La Défense, Île-de-France
Nous recherchons pour un de nos clients un Data Product Owner qui sera le responsable de la vision analytique d’un domaine métier. Son rôle est de comprendre en profondeur les besoins des utilisateurs, de transformer ces besoins en produits data concrets et de garantir que les équipes techniques livrent des solutions fiables, utiles et alignées sur les priorités de l’entreprise. Il travaillera au quotidien avec les métiers, les Data Engineers, les Data Analysts et les équipes IT pour créer de la valeur grâce aux données.
Freelance
CDI

Offre d'emploi
Senior Data Engineer (5+ ans d'exp)

WINSIDE Technology
Publiée le
Azure
Databricks

3 ans
40k-60k €
100-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer Senior pour une grande entreprise internationale sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience professionnelle en tant que Data Engineer. tu as travaillé au moins 3 ans sur le cloud Azure. tu maîtrises Databricks, Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. tu es expert.e dans la conception et optimisation d'architectures data tu maîtrises la modélisation de données (schéma analytique, SCD, faits et dimensions). tu as déjà travaillé sur des outils de développement assistés par l'IA. tu as déjà implémenté des Data Quality. Stack supplémentaire démandée : Python, SQL, Git. Objectif principal du poste : Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Missions : Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards. Démarrage : mars 2026. TT: 2 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Freelance

Mission freelance
Data Product Owner – Intermodal

LINKWAY
Publiée le
Business Intelligence
Confluence
JIRA

1 an
400-490 €
Île-de-France, France
Dans un contexte de transformation digitale et d'optimisation des flux logistiques mondiaux, nous recherchons un Data Product Owner spécialisé dans le transport Intermodal . Le secteur de la logistique vit une révolution axée sur la donnée, et l'intermodalité (la combinaison intelligente de différents modes de transport comme le rail, la route et le maritime) est au cœur des enjeux écologiques et économiques actuels. En tant que Data Product Owner, vous serez le chef d'orchestre de produits de données innovants destinés à optimiser ces flux complexes. Vous intégrerez une équipe transverse ("Squad") composée de Data Engineers, de Data Scientists et d'analystes, et vous ferez le lien vital entre les équipes techniques et les métiers opérationnels du transport. Définition de la Vision et de la Roadmap Produit : Vous serez responsable de la construction et du maintien de la vision produit. Cela implique de comprendre les besoins des opérationnels qui gèrent le transport intermodal au quotidien. Vous devrez traduire ces besoins business en solutions "Data" concrètes (tableaux de bord décisionnels, algorithmes d'optimisation de routes, outils de tracking prédictif, calculateurs d'émissions CO2). Vous élaborerez une roadmap claire à court, moyen et long terme, en priorisant les fonctionnalités qui apportent le plus de valeur ajoutée à l'entreprise (ROI). Gestion du Backlog et Delivery : Vous serez en charge de la rédaction des User Stories, en vous assurant qu'elles sont claires, testables et orientées vers la valeur utilisateur. Vous gérerez le Product Backlog, en arbitrant constamment les priorités entre les nouvelles fonctionnalités, la dette technique et les corrections de bugs. Vous animerez les rituels agiles (Sprint Planning, Daily Stand-up, Sprint Review, Retrospective) pour garantir un rythme de livraison soutenu et de qualité. Valorisation de la Donnée et Qualité : Le cœur de votre mission reste la donnée. Vous devrez travailler en étroite collaboration avec la gouvernance des données pour vous assurer de la qualité, de la fiabilité et de la disponibilité des flux de données entrants (IoT, systèmes TMS, données partenaires). Vous devrez identifier les sources de données pertinentes pour résoudre les problèmes de logistique intermodale (ex: temps d'attente aux terminaux, congestion ferroviaire) et transformer ces données brutes en insights actionnables pour les décideurs. Gestion des Parties Prenantes (Stakeholder Management) : Vous serez l'interlocuteur privilégié des différentes directions (Opérations, Commerce, RSE, IT). Votre rôle sera de fédérer ces acteurs autour du produit, de gérer les attentes parfois contradictoires et de communiquer transparentement sur l'avancement des projets. Vous devrez faire preuve de pédagogie pour expliquer les contraintes techniques aux métiers et les enjeux business aux équipes techniques. Accompagnement au Changement : Le déploiement d'un produit Data ne s'arrête pas à la mise en production. Vous accompagnerez les utilisateurs finaux dans la prise en main des outils, recueillerez leurs retours pour l'amélioration continue et mesurerez l'adoption des solutions via des KPIs précis (taux d'utilisation, impact sur la marge, réduction des délais, etc.).
Freelance

Mission freelance
Data Scientist

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
Lille, Hauts-de-France
🎯 Objectif global Concevoir et développer de nouveaux algorithmes de Machine Learning afin d’enrichir et d’améliorer un système de recommandation à fort impact business. 📦 Livrables attendus Développement d’algorithmes ML opérationnels Prototypes (PoC / MVP) validés techniquement Documentation technique associée Mécanismes d’explicabilité des modèles Recommandations d’optimisation et d’industrialisation 🚧 Contraintes du projet Forte exigence de performance et de robustesse Nécessité d’explicabilité des algorithmes Intégration dans un écosystème data existant Collaboration transverse avec équipes produit et techniques 🧠 Missions principales1. Veille & Innovation Suivre les avancées en IA/ML (Deep Learning, Reinforcement Learning, LLM, IA générative) Identifier les technologies pertinentes pour les cas d’usage recommandation Proposer des approches innovantes adaptées aux enjeux métier 2. Conception & Expérimentation Concevoir des Proof of Concept (PoC) Développer des MVP robustes Tester et comparer différentes approches algorithmiques 3. Analyse de données & Modélisation Explorer et analyser des datasets complexes Identifier patterns et signaux exploitables Concevoir, entraîner et évaluer des modèles de recommandation 4. Explicabilité & Qualité Mettre en place des mécanismes d’interprétabilité Garantir la compréhension des résultats par les parties prenantes Documenter les choix techniques et les performances 5. Collaboration & Intégration Travailler en lien étroit avec Product Owners et équipes data Participer à l’intégration des modèles dans les plateformes existantes Contribuer à l’amélioration continue des solutions IA 🌍 Langues Français courant – Impératif Anglais professionnel – Secondaire
Freelance

Mission freelance
PO SMFC Confirmé

Byrongroup
Publiée le
Marketing
Product management

1 an
400-550 €
Paris, France
Responsabilités principales • Définir, prioriser et piloter la roadmap Customer Activation en cohérence avec la stratégie de l’entreprise. • Animer des ateliers métiers et des sessions de refinement pour recueillir les besoins, arbitrer et alimenter le backlog. • Garantir des livraisons de qualité, dans les délais et le budget, sur les sujets à forte valeur (personnalisation, notifications, campagnes d’activation). • Apporter un support fonctionnel aux équipes internes et aux utilisateurs sur les fonctionnalités liées à l’activation client. • Concevoir et optimiser des parcours clients digitaux robustes, conformes aux contraintes légales des différents pays et aux bonnes pratiques UX/UI. • Travailler en transverse avec les équipes Marketing, Data, Produit et Tech pour transformer les irritants clients en user stories actionnables. • Communiquer régulièrement sur l’avancement de la roadmap et les livraisons auprès des parties prenantes. • Collaborer avec les autres Product Owners (web, mobile, data, PMS) pour gérer les dépendances et aligner les plans de delivery. • Contribuer à la gestion des assets digitaux et à la définition de stratégies de communication efficaces avec l’équipe Marketing.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

46 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous