Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 164 résultats.
Freelance

Mission freelance
DATA ANALYST

Publiée le
CRM
SQL

10 mois
360-400 €
Meudon, Île-de-France
Télétravail partiel
Forte expérience télécom obligatoire 2 J DE TT Démarrage fevrier fin de mission prévisionnel: septembre TJM: 400 € HT/J Contexte et besoin Dans le cadre d’un congé maternité prévu à partir de mi-février, l’équipe cherche à remplacer temporairement une Data Analyst. La mission s’inscrit initialement comme une couverture de congé maternité, avec une possibilité de prolongation (potentiellement jusqu’à septembre, voire au-delà selon les besoins). Profil recherché Nous recherchons un Data Analyst expérimenté, avec 6 à 10 ans d’expérience, capable d’être rapidement opérationnel et de prendre du recul sur le poste. Compétences clés attendues : Excellente maîtrise de SQL (impératif) Très bonne connaissance de Tableau Capacité à s’adapter à un environnement Data Analytics existant Dimension organisationnelle Au-delà des compétences techniques, le poste comporte une dimension de coordination d’équipe. L’équipe actuelle est composée d’environ : 4 personnes en interne 2 personnes à distance (Rabat), dont 2 profils juniors Même si tous les membres ne sont pas juniors, l’équipe manque aujourd’hui d’un profil suffisamment senior pour assurer un rôle de référent, structurer le travail et accompagner les profils plus jeunes. Une expérience préalable en encadrement d’équipe est un vrai plus, sans être strictement indispensable, à condition que le consultant ait l’appétence pour ce rôle. Enjeux de la mission Assurer la continuité de service pendant le congé maternité Apporter un lead technique et méthodologique Participer à la coordination et à la montée en compétence de l’équipe Possibilité de pérennisation ou prolongation de la mission selon l’évolution du contexte Processus Il ne s’agit pas d’un appel d’offres formel. Le processus restera similaire aux précédentes collaborations, avec des échanges directs et des entretiens menés par les interlocuteurs internes en charge de l’intérim. Contexte de la mission Au sein de la Direction des Opérations de Bouygues Telecom Division Entreprises. Dans le cadre d'un congé maternité. Le Data Analyste à pour rôle la production d'indicateurs de performance à destination principale des métiers de la Relation client & de l'ADV. Dans le cadre de sa mission le Data Analyste aura également pour rôle l'accompagnement de l'équipe: Sur les méthodes et nouvelles façons de faire Pilotage / Délégation d'une partie des chantiers auprès de deux DA internes.
CDI

Offre d'emploi
Data Analyst

Publiée le

40k-45k €
Saint-Ouen-sur-Seine, Île-de-France
Télétravail partiel
Profil recherché : Data Analyst Séniorité : + 3 ans Date de démarrage : ASAP Anglais courant impératif (échanges réguliers dans un contexte international). 2j de télétravail Présentation du poste Dans le cadre d'un remplacement et face à une croissance constante des besoins du client en analyse de données, ils recherchent un Data Analyst Expérimenté. Rattaché(e) à la direction, vous jouerez un rôle clé dans le pilotage de l’activité en transformant des volumes importants de données en leviers de décision stratégiques. Missions principales Votre mission consiste à donner du sens aux chiffres et à apporter une vision claire de la performance commerciale et du marché. Analyse de performance : Suivre et analyser les ventes hebdomadaires, les niveaux de stocks et les indicateurs de performance (KPIs). Granularité des données : Creuser les chiffres en profondeur pour identifier les éléments de performance, les points d'amélioration et les opportunités de croissance. Veille Marché : Récupérer et exploiter les données sectorielles (notamment via GFK / WORKIT) pour le segment électroménager/EGP. Reporting & Visualisation : Synthétiser des flux de données importants pour en extraire des bilans positifs/négatifs exploitables par les équipes opérationnelles.
Freelance

Mission freelance
Data Product Manager en Data Lab - Rennes

Publiée le
Google Cloud Platform (GCP)
Python
SQL

3 mois
520-570 €
Rennes, Bretagne
Télétravail partiel
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
Freelance

Mission freelance
Data Architect GCP

Publiée le
Apache
Apache Airflow
Apache Spark

12 mois
540-600 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
L’objectif principal est la conception et la mise en œuvre d’un Data Lake moderne sur GCP , basé sur une architecture Médaillon (Bronze / Silver / Gold) et s’appuyant sur Apache Iceberg , avec la capacité de détacher une brique autonome pour certains clients manipulant des données sensibles. Missions principalesArchitecture & Data Platform Concevoir et mettre en place un Data Lake sur GCP basé sur Apache Iceberg Définir et implémenter une architecture Médaillon (ingestion, transformation, exposition) Participer aux choix d’architecture pour une brique data autonome dédiée aux données sensibles Contribuer à l’ internalisation de la plateforme data (design, outillage, bonnes pratiques) Data Engineering Développer des pipelines d’ingestion pour : Données capteurs issues de drones Données tabulaires associées Gérer des pics de charge importants (jusqu’à 10 Go ingérés simultanément) Garantir la disponibilité rapide des données après les vols d’essai Mettre en place des contrôles de qualité, traçabilité et gouvernance des données Data & Analytics Préparer les données pour des cas d’usage de maintenance prédictive Optimiser les performances de lecture et d’écriture (partitionnement, schéma, versioning) Collaborer avec les équipes data science / métier Sécurité & conformité Travailler dans un contexte habilitable (données sensibles, clients spécifiques) Appliquer les contraintes de sécurité et de cloisonnement des données
Freelance

Mission freelance
Data Platform Engineer

Publiée le
AWS Cloud
Python

12 mois
600-650 €
Paris, France
Télétravail partiel
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Freelance

Mission freelance
Data Scientist

Publiée le
SQL

6 mois
470-570 €
Île-de-France, France
Télétravail partiel
Contexte et mission Nous recherchons un Data Scientist expérimenté pour renforcer une équipe sur un projet en développement. La mission principale consiste à développer et exploiter des bases de données internes pour produire des KPI précis et soutenir des projets de R&D. Vous intégrerez un projet en pleine expansion, avec pour objectif de construire une base de données centralisée , de la nettoyer, enrichir et exploiter pour créer des indicateurs clés de performance et faciliter les décisions opérationnelles. La mission inclut également l’audit et l’analyse de données brutes , la proposition de modèles prédictifs et la collaboration avec différents services pour optimiser les processus et l’analyse des données. Localisation IDF / Toulouse Responsabilités Exploiter, transformer et analyser des données brutes provenant de multiples sources. Proposer et développer des indicateurs KPI pertinents pour différents services. Créer et maintenir des bases de données enrichies et documentées , incluant les données nécessaires aux analyses et chiffrages. Réaliser des audits de données pour identifier les anomalies, corriger et standardiser les jeux de données. Prototyper des solutions et outils d’analyse en Python (Shiny, Polars, Plotly). Servir d’ interface entre les équipes métiers et techniques pour comprendre les besoins et proposer des solutions adaptées. Documenter les processus, modèles et spécifications techniques avec rigueur. Être force de proposition pour de nouveaux projets et outils d’analyse, notamment dans le domaine de la cybersécurité et de l’ intelligence artificielle appliquée aux données .
Freelance
CDI

Offre d'emploi
Data Analyst (H/F)

Publiée le
SQL

1 an
Paris, France
Télétravail partiel
Votre mission Rejoignez une équipe spécialisée dans la lutte contre la fraude au sein d'un acteur majeur des paiements électroniques. Vous contribuerez activement à la surveillance du réseau de paiement, en détectant et analysant les activités suspectes pour protéger des millions de transactions quotidiennes. 💼 Vos responsabilités clés • Surveillance opérationnelle : Analysez les remontées de reporting et détectez les patterns frauduleux sur le réseau (commerçants, cartes) pour remonter des alertes stratégiques • Construction de datamarts : Créez des agrégats fiabilisés à partir de données unitaires pour alimenter les analyses et dashboards de l'équipe • Analyses ad hoc : Explorez et comparez les différentes sources de données pour évaluer leur qualité, leurs atouts et leurs limites • Industrialisation : Collaborez avec les équipes Data Engineering pour automatiser vos traitements et les rendre scalables • Evolution continue : Participez activement au développement des dashboards avec les équipes BI pour améliorer la détection de fraude
Freelance

Mission freelance
Tech Lead DATABRICKS (Lyon)

Publiée le
Azure Data Factory
Java

1 an
500-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Freelance

Mission freelance
Data Ingénieur

Publiée le

18 mois
500 €
France
Le rôle du Data Engineer dans ce projet consistera à : * Concevoir et implémenter les composants/pipelines d'ingestion de données en scala spark (glue jobs, sans utilisation de solutions managées type Databricks) * Traiter et normaliser les données * Refactoriser des imports existants pour être compliant avec l'architecture medaillon (silver + gold layers) et notre modèle uniformisé/harmonisé à toutes les plateformes (aggrégateurs, market exchanges) * Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud * Distribuer les données aux différents consommateurs/Métiers * Implémenter les règles de Data Quality (DataQuality framework : great expectation) et gérer le data calatog * Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) * Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … * Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données * Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. * Être force de proposition pour améliorer les processus et les performances des systèmes.
Freelance

Mission freelance
Data Engineer SAP

Publiée le
SAP

3 mois
800-820 €
Paris, France
Télétravail partiel
Contexte du Projet : Nous recherchons un Data Engineer senior pour un projet stratégique de 14 semaines, visant à développer un système d'aide à la décision de planification Supply Chain chez un acteur de la défense. Le projet implique l'intégration de données provenant de multiples ERP (notamment SAP) et la création d'un moteur de calcul pour analyser l'impact des retards sur les pièces critiques et la disponibilité des systèmes finaux. Missions Principales : Expertise en extraction de données SAP (modules MM, PP, MRP) et modélisation de données industrielles complexes. Maîtrise des tables SAP (MRP, stocks, ordres, nomenclatures) pour structurer un Data Layer robuste et pertinent. Développement de moteurs de calcul (Python, SQL ou autres) permettant d'analyser l'impact des retards sur la Supply Chain. Adaptation à un environnement multi-sites et multi-ERP hétérogène. Interaction directe avec les consultants opérations/supply et les équipes IT SAP. Contribuer à la mise en place d'un outil d'aide à la décision et de planification pour identifier et tracer les risques de rupture. Compétences Techniques Requises : Solide expertise SAP sur l'extraction et la modélisation de données (MM/PP/MRP). Maîtrise des concepts et tables liés à la planification (MRP, stocks, ordres, BOM). Expérience confirmée en développement de moteurs de calcul (Python, SQL). Familiarité avec les environnements Data Analytics. Profil Recherché : Senior, avec une expérience significative dans des projets similaires. Capacité à s'adapter et à évoluer dans un contexte industriel sensible et exigeant. Excellentes compétences en communication et en travail d'équipe. Localisation et Durée : Localisation hybride, préférentielle : Bretagne, Brest, Bordeaux. Démarrage : Janvier (sous réserve de confirmation du projet). Durée : 14 semaines.
Freelance
CDI

Offre d'emploi
Expert Data Référentiels

Publiée le
API
Azure DevOps
Azure Synapse

1 an
50k-57k €
500-580 €
Paris, France
Nous sommes à la recherche d'un(e) : Expert Data Référentiels -Se coordonner avec le Business Analyst du sujet pour définir la charge et définir les travaux à mener - Développer l’intégration des flux avec Azure Synapse / PySpark -S’appuyer sur les connaissances fonctionnelles de l’équipe en place - S’assurer de la qualité et de la cohérence de données intégrer pour anticiper les impacts sur les reporting (comparaison de données entre sources. - Expérience dans la mise en place de la qualité du code (Sonar) et l’amélioration continue
CDI

Offre d'emploi
Data Analyst/Ingénieur BI

Publiée le
Azure
Azure Data Factory

40k-47k €
Nantes, Pays de la Loire
Télétravail partiel
Urgent Type de prestation : expert BI/data analyst Lieu de la mission : NANTES / Le consultant doit obligatoirement habiter à NANTES Télétravail : 2j/s Anglais courant est un + Description et livrables de la prestation En tant qu’Expert(e) BI Entreprise au sein de la DSI de ManpowerGroup (Filiale EXPERIS), vous serez au cœur de l’action. Votre mission ? Prendre en charge les nouveaux besoins de nos interlocuteurs métiers et intervenir sur toutes les phases d’un projet d’ingénierie DATA. Vos responsabilités : • Solution Complète BI Entreprise : Vous serez le référent(e) sur nos solutions BI pour les métiers Finance, AdV, Comptabilité, RH, Recrutement, Services généraux et Commerce. Imaginez les opportunités d’optimisation, de reporting et de modélisation que vous pourrez explorer ! • L’intégration des données et la création de mesures • La conception d’architectures décisionnelles complètes • L’élaboration d’états (reporting), tableaux de bord (dashboard) et modèles sémantiques • La documentation • Le maintien en condition opérationnelle de tout l’existant • L’optimisation constante de nos livrables • Solution Complète BI Opérationnel Client : Ponctuellement, vous plongerez dans notre BI Opérationnel Client, analysant les KPI des centres de relation clients, de la téléphonie au ticketing.
CDI

Offre d'emploi
Lead data (H/F)

Publiée le

40k-45k €
Villeurbanne, Auvergne-Rhône-Alpes
Télétravail partiel
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
CDI

Offre d'emploi
Data Engineer (F/H)

Publiée le

50k-55k €
Rennes, Bretagne
Télétravail partiel
Data Engineer - CDI - Rennes (35) - 50-55k€ Contexte Notre client, acteur coopératif majeur de la production animale et de l'agroalimentaire, poursuit sa transformation numérique via le programme "Élevage 4.0". Dans le cadre d'une création de poste, l'entreprise recrute un Data Engineer pour internaliser la compétence et structurer l'analyse de données issues des élevages connectés. Missions Rattaché(e) au pôle technique, vous prenez en charge le développement du moteur de données et la mise en place de l'architecture analytique. Vous intervenez de la collecte de la donnée brute jusqu'à sa mise à disposition fonctionnelle. Vos responsabilités principales sont : Orchestration & Pipelines : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour assurer la fiabilité des flux. Configuration de la Stack : Assurer la configuration et le maintien en conditions opérationnelles des outils de l'infrastructure data. Modélisation : Construire les modèles de données, les agrégats et les cubes d'analyse multidimensionnels pour servir les besoins métiers. Restitution : Développer les premiers tableaux de bord fonctionnels (focus sur la pertinence de la donnée et la structure, sans intervention sur l'UX/UI).
CDI

Offre d'emploi
Data Architecte - Lyon

Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
PRODUCT OWNER (DATA SUPPLY)

Publiée le
Snowflake

12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
1164 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous