Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 465 résultats.
Freelance

Mission freelance
Data Analyst Expert Power BI

Gentis Recruitment SAS
Publiée le
Data analysis
Microsoft Power BI
Power Query

20 jours
Paris, France
Contexte de la mission Dans le cadre d’une démarche d’amélioration continue, un grand groupe du secteur de l’énergie souhaite réaliser un audit complet de son environnement Power BI , afin d’évaluer : La performance des jobs de rafraîchissement La fiabilité des datasets et modèles La qualité de la gouvernance Power BI La conformité aux meilleures pratiques Microsoft La scalabilité et la pérennité de l’architecture existante L’objectif est d’identifier les axes d’optimisation et de proposer une feuille de route claire et priorisée. Périmètre de la mission L’audit couvrira l’ensemble de la chaîne Power BI : Scheduled Refresh (Jobs) Datasets / Semantic Models Sources de données & Gateway Transformations Power Query / Dataflows Modélisation DAX & relations Rapports & dashboards Capacity management / Workspaces / Gouvernance Performance Analyzer & outils de monitoring Travaux attendusAnalyse des jobs Power BI Durées d’exécution Échecs récurrents Dépendances et enchaînements Consommation de ressources Analyse des logs d’erreurs Évaluation des modèles Structure des tables Types de stockage (Import / DirectQuery / Dual) Optimisation des mesures DAX Cardinalité & performance du modèle Analyse des sources de données Performance des requêtes Gouvernance des connexions Sécurité & gestion des credentials Optimisation Power Query (M) Gouvernance & sécurité Organisation des Workspaces Gestion des accès Row-Level Security (RLS) Sensitivity Labels Bonnes pratiques Microsoft Plan d’amélioration Recommandations techniques Quick wins & chantiers structurants Architecture cible Roadmap d’évolution Livrables attendus Rapport d’audit complet et structuré Liste priorisée des points critiques Plan d’optimisation détaillé Documentation des bonnes pratiques adaptées au contexte Présentation de restitution aux équipes
CDI
Freelance

Offre d'emploi
Data Analyste

VISIAN
Publiée le
Dataiku
Tableau software

1 an
40k-45k €
400-560 €
Paris, France
Contexte Au sein du département Artificial Intelligence & Innovation, l'équipe Analytics exploite les données et fournit des tableaux de bord sur l'adoption et la consommation des offres du département. Ceci à destination du management, des offering managers, et des clients de ces offres. Ces tableaux de bord s'appuient sur un pipeline de collecte et de transformation de la donnée organisé de la façon suivante : Collecte des données source : scripts python hébergés dans le cloud interne Stockage des données collectées : base postgreSQL et COS (fichiers Json et parquets) Préparation / enrichissement des données : pipelines Dataiku Production des Tableaux de bord : Tableau Server La fréquence de mise à jour des dashboards varie selon les sources (quotidienne, hebdomadaire et mensuelle). Descriptif des Prestations et des Livrables Le prestataire accompagnera l'équipe dans la préparation, la visualisation et l'analyse des données liées au suivi d'adoption et de consommation des offres IA du département (LLM as a service, Raag as a service, Robot automation, Gen AI, etc). Production de dashboards Tableau Exploration des données et mise en place de KPI pertinents, en concertation avec le Top management d'A3I et les offering managers Création de dashboards permettant un suivi de l'adoption, de l'usage et de la performance des offres Optimisation des dashboards existants (lisibilité, structuration) Préparation de données Transformation et enrichissement des données via Dataiku Exploration et manipulation SQL sous PostgreSQL Contribution à la gestion de la qualité des données
Freelance

Mission freelance
Data Engineer Azure Python

Cherry Pick
Publiée le
Azure
Python
SQL

12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
CDI
Freelance
CDD

Offre d'emploi
TECH LEAD IAM, DATA, CHIFFREMENT

KEONI CONSULTING
Publiée le
API
Cloud
Code Review

18 mois
20k-60k €
100-600 €
Paris, France
CONTEXTE: Nous recherchons un tech lead IAM, DATA, CHIFFREMENT Missions : En tant que Tech Lead de la tribe IAM – Data – Chiffrement « IDC » au sein de l’Engineering Platform, vous êtes le garant de la qualité, de la sécurité et de la conformité des solutions délivrées, en respectant les standards IT et les exigences règlementaires. Vous définissez et pilotez la conception technique des produits et solutions IAM, Data et Chiffrement, en proposant des solutions robustes et optimisées pour répondre aux besoins métiers tout en maximisant la valeur générée. Leader technique et coach, vous accompagnez la montée en compétences des équipes, favorisez l’adoption des bonnes pratiques et insufflez une culture d’excellence. Acteur clé de la transformation, vous contribuez à l’intégration des approches Agile, DevSecOps et à l’industrialisation des processus (automatisation, sécurité by design, test & learn) Volet Organisation & Management • Encadrer et animer l’équipe, incluant les collaborateurs internes et les prestataires, en assurant le mentorat et la montée en compétences. • Participer au recrutement et à la sélection des prestataires, garantir l’adéquation des profils avec les besoins techniques et organisationnels. • Définir la roadmap, prioriser les initiatives et garantir leur alignement avec les objectifs stratégiques de la Direction Technique. • Se positionner comme point d’entrée identifié vis-à-vis des directions (DSSI, Fabrication, Communication, RH…), centraliser les demandes, orienter les arbitrages techniques et synchroniser les priorités avec les équipes opérationnelles et projets.. • Piloter les rituels Agile (daily, sprint planning, sprint review, retrospective) dans les cadres Scrum/Kanban et intégrer des approches d’innovation (Design Thinking) lorsque pertinent. • Participer activement aux comités de pilotage et aux ateliers techniques • Assurer la coordination transverse avec les équipes projets, production et sécurité pour garantir la cohérence des livrables. • Identifier les risques, proposer des solutions et veiller à la qualité et la conformité des livrables • Promouvoir les bonnes pratiques techniques et organisationnelles (IAM, Data, Chiffrement, DevSecOps) et la culture d’amélioration continue Volet Technique • Maitrise des sujets liés aux systèmes d'information et aux technologies de l'information. • Connaissances des protocoles d’authentification et de fédération : SAMLv2, OpenID Connect, OAuth2, ainsi que les standards de sécurité avancés (WebAuthn, FIDO2,). • Intégrer et paramétrer les solutions dans les environnements Cloud et conteneurisés (Iaas, Paas, Conteneurisation & Orchestration, CI/CD & Automatisation, Cloud IAM & Sécurité). • Définir les standards et bonnes pratiques pour la mise en œuvre des mécanismes de chiffrement et de hash : Java Crypto, chiffrement symétrique et asymétrique, gestion des clés et certificats. • Orienter les développements applicatifs en Java / Spring Boot / JEE, en veillant à l’application des principes de Clean Code et à l’utilisation des standards d’API (SOAP, REST). • Superviser l’administration et l’optimisation des bases de données PostgreSQL en veillant à la performance et à la sécurité. • Garantir la résilience et la disponibilité des plateformes en intégrant des mécanismes de haute disponibilité et de reprise (PCA/PRA). • Orienter l’intégration des solutions IAM et de chiffrement dans des environnements Cloud IaaS/PaaS (AWS, Azure, GCP) et l’orchestration via Kubernetes, Docker, en collaboration avec les équipes DevOps. • Contrôler la conformité des pipelines CI/CD sécurisés (GitHub Actions, Jenkins) et des déploiements automatisés, sans réaliser directement les opérations. • Superviser la mise en place des outils d’observabilité (Grafana, Prometheus, Loki) pour garantir la disponibilité et la performance des services IAM et Cloud. • Promouvoir l’intégration des pratiques SRE (Site Reliability Engineering) et DevSecOps dans les cycles de développement et d’exploitation. • Valider la configuration et la maintenance des socles techniques en assurant la résilience et la sécurité des flux. • Promouvoir l’intégration des pratiques DevSecOps dans les cycles CI/CD et les développements applicatifs. • Veille technologique active sur les pratiques IAM, Cloud, DevSecOps et SRE afin d’anticiper les évolutions et proposer des solutions innovantes. RÉSULTATS ATTENDUS • Implémenter les besoins IAM des clients internes et contribuer aux livraisons des projets • Communiquer les difficultés rencontrées et être force de proposition pour des solutions et des améliorations continues • Accompagner la résolution des anomalies liées aux livraisons et proposer des actions correctives • Concevoir et documenter des scénarios de tests manuels et automatisés • Analyser, recommander et mettre en œuvre la montée en charge de la solution IAM • Garantir le MCO de la solution IAM via des outils automatisés • Participer à l’amélioration continue en fournissant des feedbacks constructifs • Rédiger et maintenir la documentation technique • Participer activement aux cérémonies Agile et aux réunions projets • Suivre et exécuter les actions projets qui lui sont confiées PROFIL & COMPETENCES. Techniques • Systèmes Linux, RedHat & Réseaux • Loadbalacing (VIP, SLB, HaProxy) • Gestion de la Base de données (PostgréSQL et cluster) • Maitrise des architectures réseaux distribuées et résilientes • Expertise dans les architectures de conteneurisation et les outils d’automatisation et de déploiement continu (Terraform, Ansible, Kubernetes, Docker, CI/CD, GitHub Actions, Jenkins). • Keycloak : administration, installation, tunning , configuration • Solides connaissances des protocoles de sécurité (SAMLv2, OpenIdConnect, OAuth2, WebAuthn, FIDO2), des schémas de sécurité et des enjeux associés. • Maîtrise des outils d’observabilité Grafana et Prometheus pour la supervision et le monitoring des environnements. • Maitrise JAVA / Springboot / JEE, SOAP, API et des principes « Clean Code » • Capacité à appliquer les pratiques Agile (Scrum, Kanban, Design Thinking, Agile@Scale) et à utiliser efficacement les outils de gestion (Jira, Confluence), tout en respectant les standards ITIL pour la qualité et la continuité des services • Accompagner les équipes dans la mise en œuvre des tests unitaires, d’intégration et de performance, et contrôler la conformité des résultats avec les standards de qualité et de sécurité. • Connaissance générale de l’architecture applicative Organisationnelles • Leadership et capacité à fédérer des équipes pluridisciplinaires. • Gestion de projet avec maîtrise des méthodologies Agile/Scrum et des rituels associés. • Communication claire et aptitude à vulgariser des sujets techniques pour des interlocuteurs non techniques. • Force de proposition et esprit d’amélioration continue pour optimiser les processus et les pratiques. • Capacité à travailler en transverse avec les équipes métiers, techniques et les autres directions. • Pilotage de roadmap et alignement stratégique avec les objectifs de la Direction Technique et des parties prenantes. • Coordination inter-directions pour fluidifier les échanges et synchroniser les priorités. • Surveiller les risques et coordonner les actions correctives pour garantir la continuité. • Animation des comités et rituels (Scrum/Kanban, ateliers techniques, comités de pilotage). • Promotion des bonnes pratiques (IAM, DevSecOps, sécurité, qualité) et de la culture d’amélioration continue. Souhaitées : • Expériences bancaires et/ou moyens de paiements • Connaissance de l’écosystème • Anglais professionnel
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Freelance

Mission freelance
ACHETEUR Domaine Market Data/s

WorldWide People
Publiée le
Pilotage

12 mois
Paris, France
ACHETEUR Domaine Market Data . Démarrage ASAP Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
CDI

Offre d'emploi
Senior Data Scientist

LIANEO
Publiée le
ClickHouse
Kubernetes
Python

55k-75k €
75009, Paris, Île-de-France
Au sein d'un acteur à la pointe de l'innovation dans le secteur des médias de détail, en tant que plateforme SaaS pionnière. Votre mission 👇 Vous intégrerez la nouvelle équipe data basée à Paris et serez chargé(e) de concevoir les premiers algorithmes d'apprentissage profond qui rendront les produits plus intelligents. La plateforme traite des milliards de logs par jour et alimente un data mart partagé entre toutes les équipes. Les produits de données sont déployés sur un cluster Kubernetes qui orchestre les tâches Python, en collaboration avec un cluster ClickHouse. Vous aurez l'opportunité de travailler en partant de zéro, sans contraintes ni dépendances vis-à-vis des systèmes existants, dans un environnement dynamique et ouvert où votre contribution sera significative. Vous collaborerez avec un ingénieur de données déterminé à développer les outils et solutions nécessaires au fonctionnement de nos algorithmes. Ce que vous ferez ✏️ Mettre en place les premiers composants d'apprentissage automatique et statistiques de la plateforme de science des données Traduire les problèmes commerciaux et les besoins en fonctionnalités en problèmes d'apprentissage automatique Ont un impact important sur la mise en œuvre des modèles ainsi que sur leur déploiement. Mettre en place des pipelines de formation continus Déployer et surveiller les modèles et mettre en œuvre les bonnes pratiques en matière d'apprentissage automatique
CDI
Freelance

Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD

Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud

5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Freelance

Mission freelance
Governance & Data Management Lead

Intuition IT Solutions Ltd.
Publiée le
IA
Microsoft Power BI
Qlikview

6 mois
500-550 €
Paris, France
La mission principale est : • Piloter et coordonner la collecte, la gestion et le reporting des cas d'utilisation des données de sécurité et de l'IA entre les entités, en garantissant la conformité, l'engagement des parties prenantes et la gouvernance au niveau de la sécurité du groupe. Les activités de service connexes sont : • Piloter le processus de collecte de la posture de sécurité des entités sur une base trimestrielle. Préparer, exécuter et tester les activités en coordination avec l'equipe off shore (en Inde) tout en apportant un soutien aux entités et aux propriétaires de données. • Servir de contact principal pour les parties prenantes de la sécurité afin de suivre et de suivre les exigences liées à la collecte de données et au développement de tableaux de bord, aux cas d'utilisation de l'IA, à coordonner l'exécution avec l'équipe en mode agile • Gérer la communication avec les entités et les équipes de sécurité concernant les délais de reporting et les améliorations • Fournir les rapports nécessaires aux comités et conseils d'administration • Organiser et diriger le conseil de gouvernance des données et de l'IA au niveau de la sécurité du groupe, assurer l'alignement avec le GO Data Office et contribuer aux communautés Data & AI • Améliorer le niveau de maturité de la gestion des données dans les différents départements de la sécurité du groupe, coordonner la revue de la documentation incluant le dictionnaire de données, le glossaire et les cartes d'identification des cas d'utilisation au sein de l'équipe • Coordonner le processus annuel d'examen d'accès pour le champ d'action du Security Data Hub
Freelance

Mission freelance
Chef de projet Data Feed Migration | AML Monitoring

Net technologie
Publiée le
AML (Anti-Money Laundering)
CFT (Cross File Transfer)
Data governance

6 mois
Paris, France
Dans un contexte de renforcement du Global Market AML Monitoring , nous recherchons un Senior Business Analyst AML pour piloter l’ accélération des migrations de flux de données (data ingestion & preprocessing) sur un périmètre international (EMEA, AMER, Asia) . 🎯 Rôle & missions Pilotage des migrations de flux data et de payment engines vers la solution AML Analyse des données et définition des besoins Rédaction des spécifications fonctionnelles et techniques Mise en place des réconciliations , contrôles de qualité et KPI data Suivi de la roadmap paiements , reporting et respect des délais Coordination des équipes IT, métiers et fournisseurs , onshore & offshore Garantie de la qualité des livrables et du respect des processus IT
Freelance

Mission freelance
Proxy PO build - Snowflake + Power BI

FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake

1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Freelance

Mission freelance
Senior Data Engineer AWS

SILAMIR
Publiée le
AWS Cloud

12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
Freelance

Mission freelance
Product Owner CRM – Data Client BtoB & Prospection

SKILLWISE
Publiée le
CRM
Salesforce

1 mois
400-550 €
Paris, France
Notre client, un acteur majeur du secteur des médias et de la publicité, recherche un(e) Product Owner CRM – Data Client BtoB & Prospection pour rejoindre sa Direction des Technologies. Cette direction opère et transforme les systèmes IT et techniques du groupe, en interface avec l’ensemble des métiers (commercial, production, diffusion, etc.). Au sein du Pôle Produits Publicitaires, vous contribuerez à la conception, au développement et à la maintenance d’outils stratégiques, notamment autour de la gestion de la relation client (CRM), de la data BtoB et des processus de prospection. Votre mission : piloter la transformation digitale du référentiel client et des outils de prospection dans un environnement Salesforce. En tant que Product Owner, vous serez responsable de : Définir et piloter la roadmap produit : Construire la vision, prioriser le backlog et garantir la cohérence du système d’information. Recueillir et formaliser les besoins métier : Rédiger les spécifications fonctionnelles et accompagner les équipes commerciales dans l’adoption des solutions. Coordonner les équipes techniques : Assurer le delivery et la qualité des livrables en mode agile. Garantir l’adoption des nouvelles fonctionnalités : Former et mobiliser les utilisateurs pour maximiser l’impact business.
Freelance

Mission freelance
Consultant 6-8 ans Asset management référentiel data / MOA

Mon Consultant Indépendant
Publiée le
MOA

6 mois
520-550 €
Paris, France
Pour le compte de l’un de nos clients dans le secteur de l’ Asset Management , nous recherchons un Consultant MOA spécialisé en référentiel data , disposant de 6 à 8 ans d’expérience . Le consultant interviendra sur la gestion et l’optimisation des référentiels (instruments financiers, tiers, données de marché), la formalisation des besoins métiers, la rédaction des spécifications fonctionnelles et le suivi des évolutions en lien avec les équipes IT. Le poste requiert une solide connaissance des environnements Asset Management, une expertise en data management et une forte capacité de coordination transverse.
Freelance

Mission freelance
PM Data Migration GCP

Mon Consultant Indépendant
Publiée le
Data analysis
Google Cloud Platform (GCP)

12 mois
650-680 €
Paris, France
Pour le compte de l’un de nos clients, nous recherchons un Program Manager – Expert technique et fonctionnel en Data Migration Cloud (GCP) . Le consultant pilotera les migrations de données par département métier , assurera le suivi des jalons, la gestion des risques et l’ orchestration ainsi que la priorisation des tâches . Il sera également garant de la gouvernance du programme et du pilotage des parties prenantes , en supervisant l’ensemble des activités de transformation : études, réalisation, vérification et appropriation par les métiers. Le poste requiert une forte expertise Cloud GCP, une vision transverse et d’excellentes capacités de coordination.
Freelance

Mission freelance
Expert Data Transfer / Intégration SI

Codezys
Publiée le
API
Control-M
Middleware

12 mois
450-500 €
Paris, France
Dans le cadre d’un projet relatif à l’intégration d’une société d’investissement au sein d’une société de gestion d’actifs, nous recherchons un expert en transferts de données et interconnexions entre systèmes d’information. L’objectif est d’accompagner la mise en place des flux de données et des connecteurs nécessaires entre les applications existantes de la premier organisme et celles du second, afin de garantir une transition efficace, sécurisée et maîtrisée. Description de la mission L’expert interviendra sur des sujets liés à l’intégration applicative et à la circulation des données entre SI, en étroite collaboration avec les équipes techniques déjà en place (middleware, ordonnancement, connectivité, applicatifs, etc.). Principales responsabilités Analyser les besoins de transfert de données entre les systèmes d’information des deux entités. Participer à la conception et à la mise en œuvre des connexions et flux nécessaires. Travailler avec les experts internes sur les volets : Middleware Scheduling / Ordonnancement Connectivité réseau Applications et interfaces Définir les modalités techniques de transfert : protocoles, formats, fréquences, sécurisation, monitoring Contribuer à la fiabilisation des échanges (tests, validation, résolution d’incidents). Documenter les solutions mises en place (schémas de flux, procédures, référentiels techniques).

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

465 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous