Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 268 résultats.
Freelance

Mission freelance
Data Engineer / Développeur Talend - Niort

Publiée le
Apache Maven
JIRA
Talend

2 ans
380-480 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Pour l'un de nos clients niortais, nous recherchons un data engineer / développeur talend : · Participer à l'évaluation de la charge de travail d'analyse et de réalisation, · Contrôler la qualité des développements, · Développer et maintenir, le cas échéant, les applications informatiques, · Participer aux tests d'intégration, · Rédiger les dossiers afférents aux phases précédentes, · Respecter les normes de développement et de planification, · Participer à l'industrialisation des applications, · Participer à la formation des utilisateurs.
Freelance
CDI

Offre d'emploi
Architecte Technique Data Expert Technique - Architecture Data & Cloud (H/F)

Publiée le
Gitlab

18 mois
40k-45k €
110-600 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Cloud, Infrastructure & Cloud, Devops, Gouvernance des données, IAM Compétences Technologies et Outils AWS CI/CD Spark Terraform Python Docker Kinesis Amazon Kubernetes Gitlab Description et livrables de la prestation Le poste d'Architecte Technique Data Expert Technique, également de niveau Expérimenté ou Sénior, a pour mission d'assurer la validité technique et l'alignement des architectures Data avec les standards définis dans le cadre du Programme Vision 2035. En tant que référent technique, vous interviendrez en amont au sein des équipes CAPVISION (méthodologies Capvision, Découverte, Zoom) pour définir les architectures cibles et garantir leur cohérence au sein de l'écosystème SI existant. Vos responsabilités englobent la définition des architectures Cloud (performance, résilience), la mise en œuvre de la gouvernance des données (Dataviz, Datamesh), et la sécurisation des données. Compétences et Technologies (Focus Technique) : Ce rôle requiert une expertise en architecture Data et Cloud (Niveau 4). La maîtrise des outils de gouvernance de la donnée tels que Dataviz et Datamesh est primordiale (Niveau 4). Une expertise est demandée sur la gestion de la sécurité du SI, notamment la gestion des accès (IAM) et les mécanismes de protection des données (Niveau 4). De solides connaissances en intégration et déploiement continus (CI/CD) sont requises (Niveau 4). Techniquement, vous utiliserez Python et Spark. Les services Cloud spécifiques comprennent AWS IAM, Amazon Kinesis, AWS Lake Formation, AWS S3, ainsi que les outils d'industrialisation AWS, Gitlab CI, Docker, Kubernetes et Terraform. Expertise souhaitée Architecte Technique Data Expert Technique
CDI
Freelance

Offre d'emploi
Data Analyst - PowerBI

Publiée le
Conception
ETL (Extract-transform-load)
Microsoft Power BI

1 an
40k-45k €
300-500 €
Toulouse, Occitanie
Télétravail partiel
Nous recherchons un Data Analyst expérimenté pour intervenir sur la conception, le développement et l’industrialisation de dashboards Power BI destinés à des équipes internes. La mission couvre l’ensemble de la chaîne data : recueil des besoins, récupération et intégration des données, modélisation, alimentation de l’entrepôt de données, création de tableaux de bord, livraison et support aux utilisateurs. Vous participerez également à l’administration de l’environnement Power BI et au suivi des activités dans un outil de ticketing. Vous interviendrez sur des données liées au support informatique et aux cycles de vie des incidents. Le rôle nécessite une excellente maîtrise de SQL, Power BI et SSIS, ainsi qu’un esprit analytique, une rigueur forte et une réelle capacité de communication. Compétences techniques SQL – Expert Power BI – Expert SSIS – Confirmé / Important PL/SQL ETL Environnements On-Premise (pas d’Azure / pas de Data Factory) Conception et modélisation de données Intégration de données dans un entrepôt Conception de bases agrégées
Freelance

Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)

Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Freelance

Mission freelance
Data Engineer Sénior (5 ans d’expérience minimum)

Publiée le
Azure

12 mois
380 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer autonome disposant d’au moins 5 ans d’expérience, capable de collecter, analyser et exploiter les données pour améliorer le pilotage des activités et identifier les leviers de création de valeur. Le consultant accompagnera également les équipes métier dans le développement, le déploiement et l’exploitation de solutions data afin d’atteindre leurs objectifs. Missions principales : – Collecter, préparer et structurer les données pertinentes pour les besoins des utilisateurs. – Construire et optimiser des pipelines ETL/ELT robustes et performants. – Analyser les données et produire des visualisations accessibles via les outils décisionnels. – Proposer des recommandations et lignes directrices pour créer de la valeur au sein des activités métier. – Accompagner l’optimisation des offres, services et processus grâce à l’analyse et l’évaluation des données. – Garantir la conformité aux règles d’éthique et de gouvernance du groupe. – Présenter les fonctionnalités des produits data et faciliter leur maintenance. – Réaliser des tests conformément à la stratégie définie. – Maintenir à jour le catalogue des produits data (datasets). – Fournir des kits de formation et des outils pour les utilisateurs. Résultats attendus : – Identification et sélection des données pertinentes pour les besoins opérationnels. – Optimisation du temps, des ressources et des outils dédiés à l’analyse de données. – Production de jeux de données et visualisations compréhensibles et accessibles. – Mise à disposition de recommandations métier génératrices de valeur. – Amélioration des processus, services et offres grâce aux analyses. – Application stricte des règles de gouvernance et d’éthique data. – Tests réalisés et conformes aux exigences. – Catalogue des datasets à jour. – Mise à disposition de supports et kits de formation pour les utilisateurs. Compétences requises en Data Engineering : – Modélisation de données : modèles relationnels, dimensionnels, Data Vault. – ETL / ELT : conception, optimisation et gestion des dépendances. – Gouvernance et qualité de données : data lineage, qualité, catalogage, gestion des métadonnées. – Architecture data : maîtrise des patterns modernes (Data Lakehouse, Data Mesh…). Langages : – SQL avancé – Python avancé – PySpark avancé Outils et technologies : – Dataiku – Power BI – Databricks – Azure Data Factory – Azure Logic Apps
Freelance

Mission freelance
Un(e) Data Analyste - Maintenance évolutive d'une application de reporting

Publiée le
IBM DataStage
Microsoft Power BI
Microsoft SQL Server

6 mois
400-480 €
Bois-Colombes, Île-de-France
Télétravail partiel
Data Analyste Expert - Maintenance évolutive d'une application de reporting Contexte : Nous recherchons pour un(e) consultant(e) Data Analyste BI confirmé(e) pour assurer la maintenance évolutive et contribuer à l'amélioration continue d'une application de reporting interne dédiée au suivi commercial. Cette application joue un rôle clé en collectant des données stratégiques et en les mettant à disposition des utilisateurs internes afin de suivre et analyser la performance commerciale. Missions : En tant que Data Analyste confirmé, vous serez chargé(e) de la gestion opérationnelle de l’application de reporting et participerez activement à un projet stratégique visant à optimiser le processus de collecte et de mise à jour des données. Ce projet a pour objectif de simplifier les flux de données, réduire au minimum les traitements manuels, et accélérer le cycle de mise à jour des informations tout en garantissant une qualité de données irréprochable. Plus spécifiquement, vous serez amené(e) à : • Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions nécessaires pour répondre aux besoins internes. • Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. • Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. • Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. • Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. • Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise. • Assistance aux utilisateurs en faisant preuve de pédagogie pour les autonomiser. Aide à la gestion du changement. Compétences techniques et linguistiques requises Profil recherché : • Expertise confirmée en Business Intelligence, avec une maîtrise des outils d’extraction et de traitement de données, et des technologies associées. • Maitrise de l’utilisation de SQL pour sélectionner des données • Compétences solides en analyse de données, avec une capacité à traduire des besoins métiers en solutions techniques. • La connaissance d’outils de reporting serait un plus. • Capacité à travailler de manière autonome et en équipe. • Rigueur et souci de la qualité des données, avec une forte orientation résultats. Les solutions BI mise en œuvre actuellement chez le client sont basées sur les technologies suivantes : • Oracle • IBM Datastage • Power BI • SAP Business Object 4.2 • Outil de data virtualization comme Denodo • Sqlserver Compétences requises • Une expérience significative d’un minima de 4 années dans l’intégration de systèmes décisionnels • Une expertise concrète en environnement BI • De solides connaissances ainsi qu’une expérience significative dans la manipulation de données. • Des compétences fonctionnelles • Un fort sens de l’analyse et de la pro activité • Capacité rédactionnelle • Excellent relationnel • Maîtrise de l’anglais indispensable (lu, parlé, écrit) Autres compétences appréciées • Connaissance du métier de l’assurance Durée de la Prestation Régie, pour une période de 6 mois renouvelable.
CDD

Offre d'emploi
Développeur Data Integration – Chaîne d’Intégration Comptable (NodeJS/TypeScript, Java, GCP)

Publiée le
Java
Node.js
SQL

62 jours
Hauts-de-France, France
📢 Appel d’Offre – Développeur Data Integration / Chaîne d’Intégration Comptable (H/F) Programme Finance – Finalisation Core Model | Contexte international Bonjour à tous, Nous recherchons un développeur expérimenté pour participer aux évolutions de notre chaîne d’intégration comptable dans le cadre d’un programme Finance international, afin de finaliser notre Core Model Finance . Le consultant interviendra sur deux composants majeurs : L’interpréteur comptable (transformation, validation, enrichissement des données) Un ETL (transport/conversion des fichiers + appels services web) 📅 Informations clés Type de contrat : Assistance technique Démarrage souhaité : 05/01/2026 Fin estimée : 31/03/2026 Volume prévisionnel : 62 jours Présence sur site : 3 jours / semaine Déplacements : Non Astreintes : Non Langue : Anglais professionnel impératif Code profil : 3.2.2 – Concepteur/Développeur – Medium 🎯 Objectif de la mission Contribuer au développement et à la stabilisation des évolutions nécessaires sur la chaîne d’intégration des données comptables, afin de garantir la qualité , la cohérence et la fiabilité des flux dans un contexte international . 🧩 Responsabilités principales Développer et mettre au point des programmes de transformation et d’enrichissement de données en NodeJS typé TypeScript + SQL sur GCP (interpréteur comptable) Développer et mettre au point des programmes équivalents en Java dans l’ ETL Concevoir et réaliser les tests unitaires Corriger les anomalies et contribuer à la stabilisation des composants Participer à la rédaction / mise à jour des spécifications techniques Respecter les normes, procédures et standards de développement (qualité, sécurité, performance) 💡 Compétences techniques attendues (Impératif) NodeJS (TypeScript) – Expert Java – Expert SQL – Expert GCP – Expert Web Services REST – Expertise solide ⭐ Compétences appréciées Expérience sur des chaînes d’intégration de données / projets Finance Pratique des environnements ETL , flux fichiers, traitements batch & contrôles Autonomie, rigueur, sens du résultat Capacité à évoluer dans un contexte international (échanges en anglais) 🧠 Profil recherché Développeur / Concepteur-Développeur confirmé À l’aise sur des sujets data transformation , intégration, APIs REST Capacité d’analyse, qualité de code, esprit d’équipe Orienté delivery (développement + tests + correction) 📄 Livrables attendus Programmes de transformation/enrichissement de données (NodeJS/TS + SQL + Java) Spécifications techniques (flux, mapping, interfaces, règles techniques) Tests unitaires (jeux de tests, résultats, couverture) Suivi des anomalies / corrections (selon processus interne)
Freelance

Mission freelance
Administrer moteurs bases de données et plateformes data

Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL

1 an
370-390 €
Tours, Centre-Val de Loire
Télétravail partiel
Missions principales L’ingénieur de Production data assure : L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. La gestion des incidents et participe à la résolution des problèmes Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) Maintien en conditions opérationnelles des plateformes Suivi et amélioration des performances (mémoire, disques, index, requêtes), Stratégies de sauvegarde, restauration et supervision La gestion des accès et création des comptes autorisés à se connecter aux plateformes De la veille technologique La gestion documentaire du périmètre Astreinte
Freelance

Mission freelance
Coordinateur/Référent Data_Senior_Lyon

Publiée le
Data analysis
RGPD

3 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous souhaitons nous renforcer d’un profil Coordinateur/ Référent Data, sur le site de Lyon. Interlocuteur privilégié des Tribus du site, il va capter / qualifier et challenger les besoins et les cas d’usages data à fabriquer, tout en véhiculant le cadre Data de l’entreprise au sein des équipes, à la fois sur le Data managment, la Data Protection, le Digital, le Pilotage BI. Il est entouré de Data Engineer et Data Analyst avec lesquels il collabore en vue d’assurer les missions qui lui sont confiées. - Collecte et priorisation des contributions auprès des PP métiers, organisation de la fabrication avec les Data Engineers et Data Analysts et suivi de la mise en œuvre - Participation au cadrage des contributions et vérification de la mise en œuvre / opérationnalisation du cadre Data (Data Management, Data Protection, Digital, BI), y compris contribution au choix de solutions Data en réponse aux besoins métiers et en cohérence avec les offres normées de l'entreprise - Accompagnement des squads dans la réalisation de leurs Analyses de Risques Métiers sur les axes RGPD - Acculturation, accompagnement et déploiement du Data Management auprès des squads (aide à l’appropriation de l’outil entreprise du Data Management, sensibilisation aux enjeux d’une Data Gouvernée) - Acculturation et accompagnement Digital Parcours des équipes - Organisation des points de suivi auprès des Leaders et communication sur l’état des lieux Data des Tribus suivi (enjeux, priorisation, budget) - Animation et coordination locale - Piloter et animer les travaux Data menés par le Chapitre Data pour le compte des Tribus/Squads accompagnées dans le cadre de la mission, en lien avec les Data Engineer et Data Analyst du Chapitre. Tribu accompagnées : Dématérialisation, Digital Workplace, Innovation, Crédits Entreprises/Agri Pro - Maintenir, animer et déployer le cadre de gouvernance Data (Data Management, Data Privacy) de l’entreprise auprès des Tribus/Squads accompagnées dans le cadre de la mission. - Maitriser les process, méthodes et outils donnés par le cadre de l’entreprise pour proposer la meilleure solution Data à nos clients.
Freelance

Mission freelance
Business Analyst - Data Platform

Publiée le
Business Analyst
Control-M
Microsoft SSIS

1 an
400-600 €
Paris, France
Télétravail partiel
Mission : Mission située au sein de la DSI au niveau de l’équipe Data et Reporting d'un acteur financier. La mission consistera à être Business Analyst sur la plateforme Data du SI. Analyse des besoins : Comprendre les besoins des parties prenantes et des utilisateurs finaux afin de définir des exigences claires pour des projets liés aux données. Cadrage de projet : Travailler avec des équipes techniques de la DSI (architectes, data engineers, MOA/MOE des autres applications), autres DSI du groupe, et non techniques (direction financière, conformité, direction des risques, direction commerciale) afin de cadrer un projet (solution, chiffrage, planning, …) Pilotage de projet : définir et suivre les engagements / assurer le reporting et le dialogue avec les interlocuteurs métiers Analyse des demandes du métier : Sur la base d’une expression de besoins ou de spécifications fonctionnelles générales, réalisation de l’analyse, en lien avec les développeurs, puis établissement des chiffrages et du planning de mise en œuvre des évolutions. Spécifications fonctionnelles : A partir des expressions de besoins, rédaction des spécifications fonctionnelles détaillées à destination des équipes de développement. Préparation et réalisation des recettes : Rédaction des cahiers de recettes et validation du bon fonctionnement technico-fonctionnels des applications. Assistance et support : Assurer l’assistance auprès des utilisateurs, analyser les dysfonctionnements et proposer des solutions correctives/palliatives chiffrées.
Freelance

Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud

Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)

12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
CDI

Offre d'emploi
Responsable du service Essais et Prototypes H/F

Publiée le
Data analysis

54k-70k €
Saverne, Grand Est
Télétravail partiel
Plus qu'un métier, itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d'un CV. Aujourd'hui, nous recherchons pour l'un de nos clients un Responsable du service Essais et Prototypes H/F et vous présentons les points clés du poste : Poste en CDI Basé Nord Alsace Secteur de l'Industrie Agricole Les conditions : Fourchette salariale : selon le profil et les expériences Mode de travail : hybride Restaurant d'entreprise sur place Avantages multiples, notamment : primes diverses, participation aux bénéfices, chèques cadeaux, mutuelle santé et prévoyance, charte télétravail. Accès facile - proche d'une gare Les missions : En tant que Responsable de l’Équipe Essais & Prototypes, rattaché(e) directement au service R&D, vous prenez en charge le pilotage opérationnel et managérial des équipes et jouez un rôle clé dans l’évolution des méthodologies de validation des machines. Vous êtes le garant de la cohérence, de l’efficacité et de la fiabilité des essais réalisés. Votre profil fera la différence par les caractéristiques suivantes: Piloter et animer les équipes Essais & Prototypes, en adaptant votre approche managériale aux besoins et profils de chacun. Développer et optimiser les processus d’essais mécaniques, grâce à vos compétences techniques et scientifiques. Proposer, défendre et porter un plan d’amélioration des méthodes et outils de test auprès de la direction (analyse financière, impacts, enjeux, gains attendus). Accompagner les chefs de service dans le renforcement de leur posture managériale et de leur management d’équipe. Assurer une présence terrain régulière, garantissant la bonne remontée d’informations vers les services internes et externes (commerce, marketing, achats, SAV, partenaires…). Analyser les pratiques existantes, définir des règles claires, en assurer l’application et accompagner l’adhésion des équipes. Installer un climat de confiance, de motivation et de performance, permettant à chacun de s’engager avec conviction et ambition. Veiller au respect strict des règles de sécurité sur le terrain et en être le référent.
Freelance

Mission freelance
Tech Lead Data Engineering / Databricks – Mission longue

Publiée le
Management

12 mois
400-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons pour l’un de nos clients grands comptes un Tech Lead spécialisé Data Engineering afin de rejoindre une squad produit au sein d’un environnement moderne et exigeant. 🎯 Objectif de la mission Contribuer au delivery des produits data, piloter les choix techniques, encadrer les bonnes pratiques, et garantir la qualité logicielle au sein d’une équipe pluridisciplinaire (Data Engineers, Data Scientists, Software Engineers…). 🎤 Soft skills Leadership technique + accompagnement d’équipe Communication structurée et vulgarisation technique Rigueur, autonomie et sens du delivery Capacité à interagir avec de multiples parties prenantes
Freelance
CDI

Offre d'emploi
Data Analyst/Product Owner Supply Chain (2-5ans) (H/F)

Publiée le
Python
SQL
Supply Chain

3 ans
10k-55k €
100-480 €
Paris, France
Télétravail partiel
Nous recherchons un Data Analyst/PO (H/F) pour rejoindre la direction Data & Analytics d’un grand acteur du retail engagé dans un vaste programme de transformation analytique. 🎯 L’objectif ? Faire le lien entre les équipes métier (notamment Supply Chain) et les équipes data, afin de transformer les besoins opérationnels en solutions analytiques concrètes, impactantes et alignées avec la stratégie data du groupe. 🚀 Tes missions principales : 🎯 Analyse & accompagnement métier Identifier, comprendre et traduire les besoins des équipes opérationnelles en opportunités data & analytics Mener en totale autonomie des analyses ad-hoc : cadrage, extraction, traitement et restitution Communiquer les résultats aux équipes métier avec pédagogie, transparence et esprit critique Mettre en avant les limites, biais et axes d'amélioration des analyses réalisées 🧩 Pilotage de produits analytiques Tu endosseras également le rôle de Product Owner Data au sein d’une squad produit pluridisciplinaire : Définir la vision produit et la roadmap analytique en cohérence avec la stratégie globale Prioriser les besoins métier, identifier les problématiques analytiques à résoudre Rédiger les User Stories et spécifications nécessaires au delivery Planifier et suivre le développement des fonctionnalités analytiques Participer aux rituels agile (daily, sprint planning, refinements…) Définir et suivre les indicateurs de succès de chaque produit analytique Garantir l’adoption et l’utilisation des produits par les équipes métier 🔧 Environnement technique & outils : Données : SQL, BigQuery DataViz : Tableau, Google Looker Studio Versioning / Delivery : GitLab Langage complémentaire : Python (atout) Méthodologie : Agile (Scrum, Sprint Planning, Backlog…)
Freelance

Mission freelance
Data Analyst Power BI

Publiée le
Data analysis
Marketing
Microsoft Power BI

2 ans
400-450 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Analyser les données clients - Réaliser des analyses ad hoc pour répondre aux besoins des équipes - Mettre en place des tableaux de bord Power BI pour suivre les KPIs - Identifier des opportunités business via des analyses prédictives ou des insights data-driven Compétences demandées : - Expériences significatives en tant que data analyst, avec une spécialisation en marketing (loyalty, CRM, leads, media, generosity, pricing...) - Maitrise de Power BI - Bonne compréhension des enjeux marketing client - Anglais professionnel
Freelance

Mission freelance
Consultant Master Data SAP (Manufacturing & Reporting) – Migration ECC → S/4HANA

Publiée le
CDS Views
Microsoft Power BI
SAP S/4HANA

6 mois
Île-de-France, France
Télétravail partiel
Besoin très urgent – Consultant Master Data SAP (Manufacturing & Reporting) – Migration ECC → S/4HANA Informations générales : • Localisation : 2x3jours/mois à Bourges et le reste en IDF • Démarrage : ASAP • Nationalité : FR obligatoire • Durée : 6 mois renouvelable • Rythme : 3 jours sur site / 2 jours télétravail Contexte de la mission : Dans le cadre du projet de migration du SI SAP, le client recherche un consultant Master Data SAP pour accompagner la transition des données dans l’écosystème ECC → S/4HANA. La mission inclut la préparation, le nettoyage, la transformation et la migration des données, avec un usage intensif des outils LSMW, Mass Update et solutions de Data Cleansing. Le consultant interviendra en étroite collaboration avec les SMEs pour fiabiliser l’ensemble des Master Data Manufacturing et assurer la qualité des données migrées.
1268 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous