Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 307 résultats.
CDI

Offre d'emploi
Responsable Practice IA & DATA (H/F)

K-Lagan
Publiée le
Big Data
Direction de projet
IA Générative

50k-80k €
Paris, France
🚀 K-LAGAN recrute un(e) Responsable Practice IA&DATA (H/F) 🌟 Rejoignez une aventure stratégique et innovante au cœur de la Data & de l’Intelligence Artificielle ! Chez K-LAGAN France , nous recherchons un(e) profil senior et expérimenté pour piloter et développer nos activités Data & IA , dans le cadre de projets à forte valeur ajoutée, au sein d’un environnement en pleine croissance. 📍 Localisation : Paris (Île-de-France) et/ou Niort (Nouvelle-Aquitaine) – mode hybride 🔥 Pourquoi nous rejoindre ? En intégrant K-LAGAN, vous rejoignez une équipe d’experts passionnés par la Data, l’IA et les technologies de pointe. Vous interviendrez sur des projets innovants , en collaboration avec des clients et partenaires de renom , tout en contribuant activement à la structuration et au rayonnement de notre practice Data & IA . 🎯 Votre rôle En tant que Data & IA Project Manager / Responsable Practice IA , vous piloterez des projets complexes Data & IA et accompagnerez la montée en puissance de notre expertise interne. 👨‍💻 Vos principales responsabilités : Piloter des projets Data & IA de bout en bout : cadrage, conception, développement, mise en production. Recueillir et analyser les besoins métiers afin de proposer des solutions adaptées et innovantes. Définir une vision stratégique Data & IA , alignée avec les objectifs business. Superviser et animer des équipes pluridisciplinaires (data engineers, data scientists, MLOps, business analysts). Développer et intégrer des solutions basées sur le Machine Learning, Deep Learning, NLP , etc. Assurer la gouvernance, la qualité et l’éthique des données (RGPD, gestion des risques, biais algorithmiques). Mettre en place et suivre des KPIs pour mesurer la performance et la valeur des projets. Être un(e) ambassadeur(rice) de la Data & de l’IA , accompagner le changement et vulgariser les enjeux auprès des parties prenantes non techniques.
Freelance

Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris

EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation

6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Freelance
CDI

Offre d'emploi
Data Ingénieur Spark

NEO SOFT SERVICES
Publiée le
Apache Spark
PySpark
Spark Streaming

12 mois
35000, Rennes, Bretagne
ans le cadre d’un programme de transformation Data mené au sein d’une grande organisation, une équipe projet pluridisciplinaire travaille à la mise en place d’une nouvelle plateforme Data. Nous recherchons un Data Engineer senior disposant d’une expérience confirmée sur les traitements de données en Spark et Python , capable d’intervenir sur l’ensemble de la chaîne de valeur de la donnée. Responsabilités principales En tant que Data Engineer Senior, vous serez amené à : Concevoir, développer et faire évoluer des pipelines d’ingestion de données en batch et en temps réel Mettre en œuvre des traitements Data fiables, industrialisés et facilement observables Participer à la définition et à la construction d’une architecture Lakehouse moderne Assurer la qualité, la traçabilité et la cohérence des données tout au long de leur cycle de vie Contribuer aux démarches d’ industrialisation et d’automatisation (CI/CD, DataOps) Travailler en étroite collaboration avec les architectes Data, les équipes plateforme, les responsables produit et les métiers Appliquer les principes de sécurité by design et veiller au respect des exigences de conformité Produire la documentation technique et participer au partage de connaissances au sein des équipes
Freelance

Mission freelance
DevOps Engineer

DEVIK CONSULTING
Publiée le
DevOps

3 mois
400-600 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un DevOps Engineer pour exploiter et améliorer en continu des environnements applicatifs, incluant les serveurs, bases de données, services cloud, outils de monitoring et de logging. Mission principale : L’objectif est de garantir une infrastructure hautement disponible, sécurisée et scalable, tout en optimisant les performances, les processus de déploiement et de tests, ainsi que la documentation. Le rôle inclut également l’animation d’initiatives de partage de connaissances au sein de l’équipe et l’application de bonnes pratiques en gestion de projet afin de renforcer la collaboration et l’efficacité. Les tâches de la mission : L’ingénieur DevOps sélectionné sera en charge de : Mettre en place, exploiter et maintenir la plateforme data régionale, incluant Azure, Databricks et Unity Catalog Garantir que l’infrastructure data soit hautement disponible, scalable, sécurisée et robuste Accompagner l’équipe Data & IA en promouvant les bonnes pratiques DevOps, l’automatisation et l’amélioration continue. Collaborer étroitement avec les data engineers et les parties prenantes à l’échelle régionale Compétences requises : Diplôme Bac+3/Bac+5 en informatique, électronique, mathématiques ou équivalent Plusieurs années d’expérience pratique dans la conception et l’exploitation d’environnements cloud Forte expertise des technologies cloud, notamment Microsoft Azure (Databricks, Unity Catalog) Expérience pratique en SQL et Python Bon niveau d’anglais pour une collaboration efficace dans un contexte international Lieu : Paris
CDI
Freelance

Offre d'emploi
Data analyst (h/F)

1G-LINK CONSULTING
Publiée le
Azure DevOps
Méthode Agile
Snowflake

3 mois
Île-de-France, France
Afin d’accompagner la montée en charge de l’Open Data et de répondre à de nouveaux besoins fonctionnels et techniques, notre client souhaite renforcer ses équipes avec un(e) Data Analyst expérimenté , intervenant sur la plateforme Data & Analytics. Prestations attendues 1. Analyse, préparation et publication des données Open Data Analyse des besoins métiers et réglementaires liés à la publication en Open Data, Conception des modèles de données et des transformations associées, Développement, optimisation et maintien de pipelines automatisés (ingestion, transformation, publication), Garantie de la qualité, cohérence et traçabilité des données, Rédaction et exécution des tests unitaires et fonctionnels, Documentation des traitements, modèles et flux de données, Administration, publication et mise à jour des jeux de données sur le portail Open Data, Développement et maintien des visualisations (dataviz), Analyse et traitement des incidents liés aux chaînes de publication. 2. Qualité, sécurité et collaboration Intégration des exigences de sécurité, confidentialité et conformité réglementaire, Collaboration étroite avec les Product Owners, la MOA, les équipes métiers et techniques, Travail en lien avec les Data Engineers en charge de la plateforme Data Analytics (Snowflake), Participation aux mises en production dans le respect des standards d’architecture, qualité et sécurité, Application des bonnes pratiques de développement collaboratif (Git, revues de code, CI/CD). Environnement technique Plateforme Data & Analytics : Snowflake Langages : SQL, Python Datavisualisation / BI : Power BI, OpenDataSoft / Huwise Outils : GitLab, Azure DevOps Environnements : développement, préproduction, production Méthodologie : Agile , développement collaboratif, industrialisation et traçabilité
Freelance

Mission freelance
Business Analyst Data (Advanced)

Gentis Recruitment SAS
Publiée le
Big Data
Business Analyst
Data Lake

12 mois
Paris, France
Contexte de la mission Grand groupe international du secteur de l’énergie, fortement orienté data-driven, souhaite renforcer l’exploitation de ses données de marché afin de : Réduire les risques opérationnels Améliorer l’efficacité des équipes métiers Développer de nouvelles offres basées sur la donnée Le projet stratégique vise la mise en place d’une architecture Big Data de type médaillon (Bronze / Silver / Gold) dédiée aux market datas issues de différentes plateformes de marché. Objectifs du projet Le programme consiste à : Mettre en place les layers : Silver : données structurées et normalisées Gold : données calculées (orders, trades, orderbooks, best bid/ask, OHLC, VWAP, TWAP, etc.) Implémenter le data management : Data quality Data catalog Monitoring Exposer les données Gold via SDK et interfaces métiers Définir et appliquer les politiques d’accès Reprendre l’historique pour permettre le décommissionnement de solutions legacy Rôle du Business Analyst Le consultant interviendra au cœur d’un environnement mêlant équipes métiers (Trading Surveillance, Quant, Market Analysts) et équipes Data Engineering. Analyse & Cadrage Recueil et structuration des besoins métiers liés aux market datas Animation d’ateliers avec les stakeholders Analyse approfondie des données sources Identification des incohérences et cas spécifiques Spécifications fonctionnelles & Data Rédaction des spécifications Silver / Gold Définition des règles de transformation et d’enrichissement Data mapping Gestion de la complexité temporelle des données de marché Définition des modèles orientés usages métiers Data Management & Gouvernance Définition des règles de qualité et indicateurs Contribution au monitoring Participation au data catalog Garantie de traçabilité des règles métier Coordination & Delivery Collaboration étroite avec les Data Engineers Suivi des développements Élaboration de la stratégie de tests Conception et exécution des plans de tests Participation aux comités projet
Freelance

Mission freelance
ata Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services)

WorldWide People
Publiée le
DBT
Informatica
Snowflake

6 mois
400-480 £GB
France
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) Bordeaux pour diriger la migration d'IICS vers DBT sur Snowflake. 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Freelance

Mission freelance
Data Product Owner – Intermodal

LINKWAY
Publiée le
Business Intelligence
Confluence
JIRA

1 an
400-490 €
Île-de-France, France
Dans un contexte de transformation digitale et d'optimisation des flux logistiques mondiaux, nous recherchons un Data Product Owner spécialisé dans le transport Intermodal . Le secteur de la logistique vit une révolution axée sur la donnée, et l'intermodalité (la combinaison intelligente de différents modes de transport comme le rail, la route et le maritime) est au cœur des enjeux écologiques et économiques actuels. En tant que Data Product Owner, vous serez le chef d'orchestre de produits de données innovants destinés à optimiser ces flux complexes. Vous intégrerez une équipe transverse ("Squad") composée de Data Engineers, de Data Scientists et d'analystes, et vous ferez le lien vital entre les équipes techniques et les métiers opérationnels du transport. Définition de la Vision et de la Roadmap Produit : Vous serez responsable de la construction et du maintien de la vision produit. Cela implique de comprendre les besoins des opérationnels qui gèrent le transport intermodal au quotidien. Vous devrez traduire ces besoins business en solutions "Data" concrètes (tableaux de bord décisionnels, algorithmes d'optimisation de routes, outils de tracking prédictif, calculateurs d'émissions CO2). Vous élaborerez une roadmap claire à court, moyen et long terme, en priorisant les fonctionnalités qui apportent le plus de valeur ajoutée à l'entreprise (ROI). Gestion du Backlog et Delivery : Vous serez en charge de la rédaction des User Stories, en vous assurant qu'elles sont claires, testables et orientées vers la valeur utilisateur. Vous gérerez le Product Backlog, en arbitrant constamment les priorités entre les nouvelles fonctionnalités, la dette technique et les corrections de bugs. Vous animerez les rituels agiles (Sprint Planning, Daily Stand-up, Sprint Review, Retrospective) pour garantir un rythme de livraison soutenu et de qualité. Valorisation de la Donnée et Qualité : Le cœur de votre mission reste la donnée. Vous devrez travailler en étroite collaboration avec la gouvernance des données pour vous assurer de la qualité, de la fiabilité et de la disponibilité des flux de données entrants (IoT, systèmes TMS, données partenaires). Vous devrez identifier les sources de données pertinentes pour résoudre les problèmes de logistique intermodale (ex: temps d'attente aux terminaux, congestion ferroviaire) et transformer ces données brutes en insights actionnables pour les décideurs. Gestion des Parties Prenantes (Stakeholder Management) : Vous serez l'interlocuteur privilégié des différentes directions (Opérations, Commerce, RSE, IT). Votre rôle sera de fédérer ces acteurs autour du produit, de gérer les attentes parfois contradictoires et de communiquer transparentement sur l'avancement des projets. Vous devrez faire preuve de pédagogie pour expliquer les contraintes techniques aux métiers et les enjeux business aux équipes techniques. Accompagnement au Changement : Le déploiement d'un produit Data ne s'arrête pas à la mise en production. Vous accompagnerez les utilisateurs finaux dans la prise en main des outils, recueillerez leurs retours pour l'amélioration continue et mesurerez l'adoption des solutions via des KPIs précis (taux d'utilisation, impact sur la marge, réduction des délais, etc.).
Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Freelance
CDI

Offre d'emploi
Chef de Projet Data / Delivery Master

CAT-AMANIA
Publiée le
Microsoft Excel

12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Chef de Projet Data / Delivery Master pour le compte de notre client, acteur majeur dans le secteur des assurances . Au sein du Data Office , vous intégrerez le service Référentiels , dont la mission est de maintenir et de faire évoluer les référentiels stratégiques de l’entreprise (référentiel Personne, Véhicule, Immobilier). Vous jouerez un rôle central dans la coordination et l’accompagnement des équipes projets Data , en assurant la livraison des initiatives dans le respect des délais, des coûts et des standards de qualité, tout en faisant le lien entre les équipes techniques et les parties prenantes métiers. Présence demandée : 3 jours par semaine sur site à Niort. Vos missions principales 1. Rôle PMO au sein du service Suivi budgétaire des projets Saisie et suivi des collaborateurs dans l’outil Clarity 2. Pilotage des projets Data Planifier et organiser les projets de bout en bout (de la phase d’étude à la livraison) Coordonner des équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI projets et proposer des plans d’actions correctifs 3. Gestion de la qualité et des délais Garantir la livraison des projets dans les délais impartis et selon les exigences de qualité Veiller au respect des bonnes pratiques Data (Data Gouvernance, sécurité, conformité) 4. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective) Favoriser une culture d’amélioration continue et de collaboration 5. Communication et gestion des parties prenantes Assurer une communication fluide entre équipes techniques, métiers et partenaires Préparer et animer les comités de suivi (COPIL, comités opérationnels) Gérer les attentes et les demandes d’évolution 6. Optimisation des processus Identifier et mettre en œuvre des axes d’amélioration des processus de delivery Automatiser et optimiser les flux de travail pour renforcer l’efficacité opérationnelle
Freelance
CDI

Offre d'emploi
Chef de Projet IA

VISIAN
Publiée le
Gestion de projet
Gouvernance

1 an
40k-45k €
200-430 €
Paris, France
Descriptif du poste L'organisation souhaite accélérer l'identification, le cadrage et la mise en production de cas d'usage d'Intelligence Artificielle, tout en garantissant la cohérence stratégique, la valeur métier et le respect des standards techniques. Il s'agit plus précisément d'aider la responsable du LAB AI à : Orchestrer les parties prenantes (métiers, Data Science, IT, architecture) Structurer un portefeuille de cas d'usage IA Sécuriser le cadrage et la priorisation Faciliter l'adoption et la gouvernance IA Tâches à réaliser A. Pilotage du portefeuille de cas d'usage IA Recueillir et qualifier les demandes Suivre l'avancement, les dépendances, les risques et la valeur créée Mettre en place et tenir à jour des indicateurs (valeur, maturité, coûts, risques) B. Coordination & communication transverse Assurer le lien entre le LAB AI et les SPOC IT et Non IT Vulgariser les concepts IA auprès de publics non techniques C. Animation & facilitation Concevoir et animer des ateliers : Co-design, co-construction, industrialisation Priorisation Retours d'expérience / capitalisation Aligner les parties prenantes et faciliter l'intelligence collective D. Interface avec experts IA, Data Engineers et architectes Valider la faisabilité technique d'un cas d'usage Comprendre les contraintes data, les dépendances, les impacts architecture Contribuer aux comités et instances de gouvernance IA E. Structuration & capitalisation Contribuer à la création ou amélioration : Des référentiels de cas d'usage Des templates de cadrage Du framework méthodologique IA Des bonnes pratiques IA Documenter les retours d'expérience (succès, échecs, apprentissages) Promouvoir et diffuser la culture IA dans l'organisation
Freelance

Mission freelance
Fullstack Python/React Developer

Phaidon London- Glocomms
Publiée le
Python
React

12 mois
600-800 €
Paris, France
Développeur Full Stack Python / React Localisation : Paris, France (hybride) Type de contrat : 12 mois Contexte Nous accompagnons une grande institution bancaire basée en France dans un projet stratégique visant à concevoir une nouvelle génération de portail en ligne à destination de ses clients particuliers et entreprises. Cette mission consiste à construire une plateforme web sécurisée, évolutive et cloud-native , centralisant l’ensemble des services bancaires digitaux : gestion des comptes, paiements, souscriptions de produits financiers, assistance client et consultation d’informations en temps réel. Dans le cadre de cette transformation, le Développeur Full‑Stack Python/React jouera un rôle clé dans la conception et le développement de la plateforme from scratch , en garantissant un haut niveau de cybersécurité, une expérience utilisateur fluide et la conformité aux normes et réglementations du secteur bancaire. Responsabilités Concevoir et développer des applications full‑stack en Python (FastAPI / Django / Flask) et React Construire un portail web robuste offrant des fonctionnalités bancaires digitales complètes Développer des API sécurisées et structurées pour les équipes internes et les partenaires externes Mettre en place des flux de données en temps réel ou quasi temps réel pour l’affichage d’informations bancaires Traduire les besoins métiers en solutions techniques scalables , maintenables et performantes Développer des composants cloud‑native sur Microsoft Azure (App Services, AKS, Azure SQL, Storage, Key Vault, Monitor) Concevoir et maintenir des pipelines CI/CD suivant les meilleures pratiques Collaborer avec les architectes, data engineers et autres développeurs au sein de l’équipe SI Documenter les solutions et contribuer activement au partage de connaissances Faire preuve d’autonomie, de proactivité et d’efficacité dans un environnement dynamique Compétences Techniques Requises Expertise en développement backend Python (FastAPI fortement apprécié ; Django/Flask acceptés) Maîtrise de React et des outils modernes du frontend : TypeScript Hooks Bibliothèques de gestion d'état (Redux, Zustand, Recoil, etc.) Expérience en développement cloud‑native sur Microsoft Azure , incluant : App Services ou Kubernetes (AKS) Azure SQL & Storage Key Vault Monitor / Application Insights Solide expérience en conception d’API (REST ; GraphQL apprécié) Connaissances en architectures sécurisées et en gestion des identités : OAuth2, OpenID Connect Azure Active Directory MSAL
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance

Mission freelance
Product Owner data

ESENCA
Publiée le
API
Gouvernance
Kanban

1 an
Lille, Hauts-de-France
Attention : Mission dans la région lilloise, la présence sur site est obligatoire 🎯 Objectif du poste Piloter et faire évoluer une plateforme de data streaming transverse, destinée à faciliter la production, la consommation et la gouvernance des flux de données en temps réel au sein d’un écosystème digital complexe. Le rôle vise à garantir la valeur produit , la fiabilité des flux critiques et une excellente expérience développeur , tout en assurant l’alignement avec la stratégie produit globale. 🧩 Missions principalesProduct Management Définir et piloter la stratégie produit de la plateforme de streaming de données Gérer et prioriser le backlog Jira en cohérence avec la vision produit Structurer et affiner les Epics, User Stories et tâches techniques en collaboration avec les équipes produit et techniques Assurer les activités de discovery, delivery et post-delivery (suivi de la valeur, feedback, amélioration continue) Construire et partager la roadmap produit , les indicateurs de performance et les reportings associés Coordination & collaboration Travailler au sein d’une équipe cross-fonctionnelle (développeurs, data engineers, experts techniques) Être l’interface entre les équipes techniques, les produits consommateurs et les parties prenantes métiers Faciliter l’adoption de la plateforme à l’échelle de l’organisation Plateforme & écosystème Contribuer à la conception et à l’évolution de produits tels que : Outils de gestion et de monitoring de clusters de streaming APIs de streaming d’événements (internes et exposées) Outils de mock et de replay de flux de données Guidelines, standards et bonnes pratiques autour du streaming et de l’event-driven 🛠 Compétences requisesHard skills Expertise en Product Management (discovery, delivery, suivi post-livraison) Expérience confirmée sur des produits complexes , techniques et fortement intégrés (APIs, plateformes) Solide compréhension des architectures distribuées et des flux de données Maîtrise des frameworks agiles (Scrum, Kanban) Capacité à prioriser un backlog selon la valeur business , la criticité sécurité/stabilité et les métriques produit Connaissances approfondies en Data Streaming , Kafka, Event-Driven Architecture, Data Mesh Bonne compréhension des enjeux de monitoring et gouvernance des données Anglais professionnel courant (impératif) Atouts appréciés Familiarité avec les outils d’ observabilité , data lineage, schema registry Notions de sécurité des flux de données (authentification, autorisation, chiffrement, conformité réglementaire) Excellentes capacités de reporting et de présentation (vision produit, roadmap, avancement)
Freelance

Mission freelance
Responsable d’intégration technique (Programme ERP / Caisse)

Mon Consultant Indépendant
Publiée le
AMOA
ERP

6 mois
500-520 €
Paris, France
Contexte Programme de transformation visant la mise en place d’un nouvel ERP , avec une dimension transverse forte , couvrant les périmètres ERP et Caisse (POS) . Plusieurs projets techniques sont menés en parallèle dans un cadre programmatique structuré. Positionnement Intervention sous la responsabilité du Directeur de programme Travail en lien étroit avec l’intégrateur Appui sur des responsables de chantiers transverses (ERP / Caisse) Rôle de référent intégration technique auprès des directeurs de projet Rôle Pilotage de l’ensemble des chantiers d’intégration technique Coordination transverse des projets techniques ERP et Caisse Supervision des interfaces , reprises de données et flux Garantie de la cohérence globale des intégrations Appui et cadrage des chefs de projet techniques de l’intégrateur Remontée des alertes, risques et arbitrages sur le périmètre intégration Périmètre ERP Caisse / POS Interfaces et flux Reprises de données Chantiers techniques transverses Modalités Taux de sollicitation variable Environ mi-temps en moyenne Intervention flexible , avec des phases plus ou moins chargées selon l’avancement du programme NE PAS POSTULER SI VOUS ÊTES : PMO / PMO Programme Directeur de programme Directeur de projet SI Coach Agile / Agile Lead Responsable infrastructure Architecte Cloud / Architecte plateforme Head of IT / DSI / DSI adjoint Responsable RUN / TMA Expert Data / Data Engineer Consultant AMOA
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
307 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous