Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 424 résultats.
Freelance

Mission freelance
Data Scientist sénior traitement du signal acoustique

PARTENOR
Publiée le
Deep Learning
Machine Learning
Python

1 an
500-650 €
Paris, France

Dans le cadre d'une création de poste chez l'un de nos clients grand compte dans l'industrie, nous recherchons un(e) data scientist sénior ayant de l'expérience sur le traitement de signal acoustique. Notre client souhaite moderniser ses pratiques dans le cadre de ses opérations de maintenance de son matériel. Vous aurez comme objectif : Etude du besoin, analyse du système et compréhension des données Rédaction de MEMO retraçant les besoins, l'état de l'art, l'approche utilisée, les performances... Echange avec les métiers pour cadrer le besoin, comprendre le métier, les systèmes... Apporter la vision data science pour permettre aux métiers de comprendre la valeur de la donnée Analyse, mise au point, visualisations et validation de la pertinence des données d'aide à la maintenance issues des équipements embarqués et débarqués Définition et implémentation de modèles statistiques. Simulation des résultats Définition et implémentation de modèles de Machine Learning. Simulation des résultats Rédaction des spécifications fonctionnelles détaillées (code source des modèles et règles de pronostics) Définition et implémentation de réseau neuronaux. Simulation des résultats Définition et implémentation de traitement d'image et acoustique. Simulation des résultats Validation et qualification des données issues des équipements de diagnostics Interface avec les équipes de maitrise d'œuvre pour l'industrialisation des algorithmes Organisation et conduite des réunions dont il a la charge sous le pilotage du chef de projet Supports de présentation destinés à la communication interne sur l'avancement des projets; tenue des tableaux de bord Rédaction des comptes rendus des réunions auxquelles vous participez

Freelance

Mission freelance
Data Migration Lead (SAP S/4HANA Greenfield)

HOXTON PARTNERS
Publiée le
Data management

3 ans
680-900 €
Paris, France

Contexte : Nous recherchons un Data Architect / Data Migration Lead pour rejoindre l’équipe Data & AI d’un acteur majeur de l’industrie des boissons, reconnu pour la qualité de ses produits et sa présence internationale. Missions principales : Piloter et coordonner le stream Data Migration dans le cadre d’un projet SAP S/4HANA Greenfield. Définir la stratégie de migration de données et assurer son alignement avec les autres streams du programme. Planifier, suivre et assurer le reporting des activités de migration. Coordonner les différentes parties prenantes (équipes techniques, fonctionnelles, métiers) sur les phases d’extraction, transformation et chargement des données. Superviser la conception et le développement des programmes de migration. Organiser et suivre les mocks de migration (planning, exécution, reporting). Compétences recherchées : Expertise en migration de données SAP (S/4HANA, Greenfield) . Solides connaissances en Data Architecture, Data Access, Data Taxonomy . Expérience en pilotage transverse avec équipes techniques et métiers. Très bon niveau d’anglais. Modalités : Mission longue durée (21 mois). Localisation : Paris, avec 2 jours de télétravail par semaine. 📩 Si vous êtes intéressé(e), merci de me contacter en partageant votre CV actualisé et vos disponibilités. 📍 Lieu : Paris (2 jours de télétravail par semaine) 🗓 Durée : 25/09/2025 – 30/06/2027 🌐 Langue : Anglais (obligatoire)

Freelance

Mission freelance
CONSULTANT MOA / DATA QUALITY

PARTECK INGENIERIE
Publiée le
Microsoft Excel
Python
SQL

12 mois
400-550 €
Paris, France

Contexte de la mission Dans le cadre d’un programme de mise en conformité réglementaire et d’amélioration de la qualité des données, la mission vise à renforcer la fiabilité du référentiel client et à assurer sa cohérence avec les autres référentiels du groupe. Objectifs principaux Identifier et formaliser les améliorations techniques et opérationnelles à mettre en œuvre pour fiabiliser le référentiel. Définir et piloter les actions fonctionnelles (MOA) en coordination avec les équipes IT et métiers. Intégrer et suivre les indicateurs de qualité produits par les équipes Data et les programmes de gouvernance. Exploiter les outils d’analyse et de reporting (bases de données, Python, Excel, Business Object, Tableau) pour produire les indicateurs de pilotage de la qualité. Participer aux instances de gouvernance : préparation des réunions, rédaction de comptes rendus, synthèses et supports. Produire la documentation fonctionnelle et procédurale (spécifications, procédures, guides utilisateurs). Profil recherché Consultant MOA / Data Quality disposant d’une solide expérience en gestion de référentiels et gouvernance de données. Bonne connaissance des processus de qualité et d’intégrité des données dans un environnement réglementaire (type Bâle III, conformité groupe, etc.). Maîtrise des outils de pilotage et d’analyse de données : SQL, Python, Excel, Business Object, Tableau ou équivalents. Capacité à interagir avec des interlocuteurs variés (IT, métiers, data management) et à formaliser des besoins fonctionnels complexes . Excellentes compétences rédactionnelles (spécifications, procédures, synthèses de réunions). Esprit analytique, rigueur, autonomie et sens de la coordination. ASAP ANGLAIS

Freelance

Mission freelance
Manager Platform Data & Analytics

SQLI
Publiée le
CoreData

6 mois
500-650 €
Paris, France

Bonjour, Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un manager Platform Data et Analytics. Cette mission concerne la gestion transitoire d’un poste de manager Platform Data et Analytics chez le client, en attendant le recrutement d’un successeur. Elle inclut la prise en main, le pilotage des missions ainsi que le transfert des responsabilités : · Handover pour prendre la main sur les missions · Pilotage des missions · Handover pour transférer la mission vers le successeur. Les deux missions principales sont : 1. Assistance au pilotage de la Federated Data Platform 2. Pilotage IT du projet SSOT (Single Source of Truth) En tant que Data Product Manager au sein des équipes Corporate IT, votre mission principale est de piloter les évolutions (via les quaterly releases) via la joint design autorithy & d'être en support eux entités. En travaillant & en étant aligné avec les directeurs Data et travaillant de concert avec le data / solution architect et le Cloud Architect la mission couvre : · Définition et pilotage de la roadmap produit : Élaborer et maintenir la feuille de route stratégique de la plateforme et des services data partagés, en tenant compte des besoins métiers, des priorités et des évolutions des éditeurs (par exemple roadmap MS Fabric). · Identification et valorisation des synergies : Collaborer avec les divisions, les régions et les fonctions Corporate pour détecter les opportunités de mutualisation et maximiser la valeur ajoutée des initiatives data à l’échelle mondiale. · Gestion des évolutions et arbitrages : Piloter les demandes d’évolutions de la plateforme avec les divisions et les régions, coordonner les arbitrages et veiller à l’alignement avec la stratégie data globale. · Garant du Delivery et du Run : Superviser le développement et le bon fonctionnement des produits data (Federated Data Platform), suivre les indicateurs de performance (KPI) et assurer un support continu aux utilisateurs. · Gouvernance des services data : Animer la gouvernance data autour de thèmes clés tels que le Federated Data Platform (avec la joint design authority) en impliquant les parties prenantes des divisions et régions. · Support à la réussite des Use Case : S’assurer que la plateforme répond aux besoins des programmes stratégiques (Programme Hero, ORION, ESG, …) et accompagne efficacement la réalisation des use cases data (des divisions, régions, corporate). · Accompagnement au changement et formation : Être le point de contact privilégié pour le déploiement et l’adoption des solutions, organiser la montée en compétence des équipes et recueillir les feedbacks pour améliorer les services. Remarque: le partenaire de la Federated Data Platform est la société ONEPOINT (En France)

Freelance

Mission freelance
Scrum master Data H/F

Insitoo Freelances
Publiée le
Agile Scrum
Azure Data Factory
Google Cloud Platform (GCP)

2 ans
500-600 €
Paris, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Scrum master Data H/F à Paris, France. Les missions attendues par le Scrum master Data H/F : L’objectif est de mettre en place un cycle agile sur l’ensemble des activités de l'équipe de Dev du département et de piloter le délivery (jalon, budget, RAF fonctionnel, qualificiation des chiffrages, ...) ainsi que d'être le point d'entrée de l'équipe de dev dans les différentes instances. Le savoir être sur ce poste sensible est important puisque ce poste est une vitrine de la qualité du travail fait par l'équipe. Une rigueur d'exécution et une qualité de communication est nécessaire

Offre premium
CDI

Offre d'emploi
Data Architecte Databricks - Paris

KOMEET TECHNOLOGIES
Publiée le
Databricks

65k-80k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
DIRECTEUR DE PROJET INFRASTUCTURES DATA CLOUD

KEONI CONSULTING
Publiée le
Azure
microsoft

18 mois
100-600 €
Paris, France

CONTEXTE : EXPERIENCE : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Directeur de projet Spécialités technologiques : Cloud, Infrastructure, Sécurité informatique, Gestion de la Connaissance, Reporting Le projet Data Cloud est porté par la Branche Grand Public et Numérique Actuellement, Le Groupe possède 8 plateformes Data on-premise. L’objectif du projet Data Cloud est de déployer une plateforme Cloud Lakehouse mutualisé afin de rationaliser les plateformes existantes, optimiser les couts et développer des usages à forte valeur L’infrastructure technique du projet Data Cloud sera à déployer chez Microsoft Azure en utilisantprincipalement le service Azure Databricks Toutefois, tous les services déployés chez Azure seront à homologuer par la direction i-TEAM/STRS afin d’assurer la sécurité de notre SI. Des experts techniques du Cloud issus de la direction i-TEAM/AIDC et des ressources externes de chez Microsoft feront également partie de cette équipe projet afin d’accompagner le projet Data Cloud dans le déploiement de cette infrastructure Cloud L’ensemble de ces travaux d’homologation, de déploiement et d’accompagnement d’expertise Cloud seront à piloter par le Directeur de Projet recherché MISSIONS Un Directeur de projet est donc recherchée afin de piloter les travaux d’Infrastructures demandés par le projet Data Cloud aux directions i-TEAM/AIDC et i-TEAM/STRS Dans ce cadre, les directions i-TEAM/AIDC et i-TEAM/STRS souhaitent être accompagné afin de : • Diriger le projet en : o Garantissant la pertinence et l’opportunité du déploiement des services d’infrastructures o Etant responsable de toutes les décisions importantes o Validant les recettes définitives du projet en lien avec le client o Menant toute action pour mener le projet à bonne fin o Gérant et animant la communication auprès des équipes et des différentes instances o Préparant et pilotant la conduite du changement • Gérer les ressources en : o Conduisant, optimisant et en étant responsable de l'ensemble des ressources du projet (humains et budget) o Etant responsable de la gestion financière du projet ainsi que de toutes les exigences définies (qualité, coût, délai...) Expertise souhaitée 2.4. Livrables attendus • Plan de l'organisation du projet et livrables associés • Reporting sur l'alignement du projet • Livrables de la comitologie projets • Plan de communication / conduite du changement et livrables associés • Plan de gestion des ressources et livrables associés 2.5. Profils/compétences souhaités • Maitrise de l'élaboration et la réalisation des plans relatifs aux produits/services stratégiques pour Le groupe. • Expertise dans la prise en compte des besoins, de leurs évolutions et dans l'accompagnement à la prise de décision raisonnée. • Maitrise de la gestion de la relation client • Expertise dans la gestion de projet et portefeuille de projets. • Très bonne connaissance et capacité à intégrer la dimension développement durable dans les solutions informatiques • Maitrise des risques et du management de la qualité et de la sécurité informatique (normes, bonnes pratiques, gestion de la connaissance, réglementation,...) • Maitrise de la gestion des compétences sur le projet • Capacité à intégrer le contexte et le SI client concerné par le projet • Maitrise de l’Infrastructures SI et bonne connaissance de la technologie Cloud

Freelance
CDI

Offre d'emploi
BA/MOA - Data Quality (7 ans et plus)

Digistrat consulting
Publiée le
Gestion de projet
Méthode Agile

3 ans
45k-70k €
450-620 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre de la réglementation Basle III, le référentiel client CIB doit améliorer son niveau de qualité et s'aligner avec les autres Référentiel de la banque notamment RMPM. En lien avec les équipes IT et Ops, la mission proposée a pour objectifs de lister les améliorations techniques et opérationnelles nécessaires pour spécifier les actions (MOA). 💡 Missions : A l'aide de la documentation et en interviewant les entités, lister les améliorations nécessaires pour améliorer la qualité du référentiel. Spécifier les actions opérationnelles et les besoins de développements pour s'aligner au Référentiel groupe. Analyse et Integration de nouveaux indicateurs de qualité produits par CDO et le programme (CRM KQI) dans le BAU. A l'aide des outils informatiques (Base de données Python, Excel, Business Object, Tableau), extraire et produire les indicateurs et volumétries permettant de piloter les progrès de la qualité. Participer aux réunions et aux groupes de travail, rédiger les minutes et les conclusions. préparer les supports de réunions. En tant que MOA du projet pour Référentiel Ops, rédiger les documentations (spécifications, procédures, ...).

Freelance

Mission freelance
Chef de Projet Delivery IA / Data – Agence Digitale

SKILLWISE
Publiée le
Data science
Preuve de concept (POC)

3 mois
440-600 €
Paris, France

🔹 Contexte : Nous recherchons un Chef de Projet Delivery spécialisé en IA/Data pour accompagner une agence digitale dans le cadrage, le pilotage et la mise en production de projets innovants autour de la data et de l’intelligence artificielle. 🔹 Compétences obligatoires : Ancien Data Scientist (solide compréhension technique) Maîtrise des modèles de données Expérience en POC & prototypes Animation d’ateliers et cadrage fonctionnel Pilotage de delivery (du design à la mise en production) 🔹 Profil recherché : +7 ans d’expérience en Data/IA dont plusieurs en gestion de projet Capacité à traduire les besoins métier en solutions data concrètes Aisance en communication, animation et coordination d’équipes pluridisciplinaires 🔹 Conditions de mission : Lieu : Paris Nord (2 jours de télétravail/semaine) Démarrage : ASAP Durée : longue mission (renouvelable)

Freelance

Mission freelance
PO Data expert

Cherry Pick
Publiée le
Analyse
Méthode Agile
SQL

12 mois
580 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "PO Data expert" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein de la Direction Performance & Data du groupe, la mission s’inscrit dans le cadre d’un programme stratégique de refonte des données Ventes & Client. L’objectif est de fiabiliser et valoriser les données au service des métiers en transformant les jeux de données existants en Data Products clairs, robustes et pérennes — tout en modernisant l’écosystème décisionnel actuel vers une architecture Lakehouse et une approche Data Mesh. Le prestataire évoluera dans un environnement mixte, combinant : 🔹 des composants legacy à maintenir et fiabiliser pour garantir la continuité opérationnelle, 🔹 des projets de refonte et d’industrialisation à mener dans une logique produit. 🧭 Rôle et responsabilités Le Product Owner Data pilote une équipe pluridisciplinaire (Produit, Tech, Data) et aura pour mission de : Définir et piloter la roadmap produit Data sur le périmètre Ventes & Client. Conduire la refonte et la valorisation des données, depuis le cadrage des besoins métiers jusqu’à la livraison des Data Products. Garantir la gouvernance, la qualité et l’exploitabilité des données. Maintenir l’existant (legacy) en assurant la continuité de service et la fiabilité des indicateurs clés. Collaborer avec le Product Manager et les autres PO Data pour aligner la vision et prioriser les besoins. Animer la relation avec les parties prenantes métiers, en mettant l’accent sur la valeur d’usage et les indicateurs de succès. Participer activement à la communauté Produit & Data, pour partager les bonnes pratiques et faire monter en maturité l’organisation. 📦 Livrables attendus 📅 Roadmap produit claire et priorisée (vision, jalons, backlog). 📘 Cadrages et spécifications fonctionnelles (règles de gestion, contrats d’interface, indicateurs de succès). 🧩 Plan de maintien et d’amélioration continue du legacy (cartographie, suivi qualité, documentation). ⚙️ Pilotage agile des développements (ceremonies, reporting, arbitrages). 📚 Documentation consolidée : catalogue, dictionnaire de données, fiches produit, processus de gouvernance. 📊 Reporting régulier sur l’avancement, les risques et les arbitrages.

Freelance

Mission freelance
Ingénierie et Pilotage de Projets de Transformation Data (Assurance)

FINAX Consulting
Publiée le
Data governance

12 mois
400-850 €
Paris, France

Ingénierie et Pilotage de Projets de Transformation Data (Assurance) Nous recherchons des consultants (Ingénieur Data, Analyste Fonctionnel Data ou Directeur de Programme Data) pour le compte d’un de nos clients assurance dans le cadre d’un projet de transformation et de modernisation de son écosystème Data. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un programme stratégique visant à moderniser son paysage applicatif analytique et à optimiser son infrastructure Data. Ce programme inclut l'intégration de données au sein de son datalakehouse et la refonte d'applications orientées client. Dans ce cadre, nous recherchons plusieurs profils Experts et Seniors pour garantir le succès de cette transformation Data. Rôles et Responsabilités Selon votre expertise, vous interviendrez sur l'une des missions suivantes : Pilotage de Programme Data : Diriger la modernisation d'applications analytiques ou assurer la gestion de projet Agile/Product Management pour des applications client. Ingénierie Data & Développement : Assurer la conception, la maintenance et l'industrialisation des applications web et applications orientées client, y compris le développement spécifique. Analyse Fonctionnelle Data : Prendre en charge l'analyse fonctionnelle des besoins en intégration de données vers le datalakehouse ou pour la maintenance d'applications web. Compétences Clés & Techniques Une expertise de niveau Expert ou Senior est exigée sur les points suivants : Expertise Métier : Solide connaissance du secteur de l'Assurance (ou Banque/Finance) et des problématiques de données associées. Compétences Data : Maîtrise des concepts de Data Integration, Data Lakehouse, et des outils ETL (Informatica IDQ, Data Stage, etc.). Technologies : Cloud & DevOps : AWS Cloud (EKS, ArgoCD), Azure, GIT. Langages & Frameworks : JAVA (8, 11, 17), Springboot, NodeJS, ANGULAR, API, REST, SOAP. Bases de Données : DB2, Oracle, Mainframe, NDBX. Outils Complémentaires : IBM WAS, SAS, Microstrategy, OneBI, Power BI, Cobol, JCL, PL/SQL (selon le poste visé). Anglais : Capacité à travailler dans un environnement international, la maîtrise de l'anglais technique étant un prérequis. Détails de la Mission Localisation : Paris (Île-de-France). Date de Démarrage : ASAP. Durée : 12 mois. Taux Journalier Cible (TJM) : Les TJM cibles varient en fonction du rôle et de l'expertise (e.g., Program Director <850€, Data Engineer <950€, Functional Analyst <450€, etc.).

CDI

Offre d'emploi
Data Architect

Inventiv IT
Publiée le
AWS Cloud
Azure
BI

65k-80k €
Paris, France

Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps

Freelance

Mission freelance
Data Engineer DBT

SQLI
Publiée le
DBT

6 mois
400-550 €
Paris, France

Hello, Pour le compte de l'un de mes clients parisiens, je suis à la recherche d'un Data Engineer DBT senior (ou confirmé ++). Dans l'idéal, le DE aura les skills suivants : ○ 5 ans d’expérience minimum en Data Engineering. ○ Une expérience obligatoire sur DBT (au moins 6 mois à 1 an en production). ○ Une expérience sur Daxter est un plus, sinon Airflow. ○ Une capacité à apporter de la méthodologie et des bonnes pratiques à l’équipe. Un prérequis avec Snowflake & une expertise cloud.

Freelance

Mission freelance
Engineering Manager / Manageur DATA/IA (F/H)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Big Data
Data management

12 mois
400-560 €
Paris, France

Contexte Dans un contexte de forte croissance des usages numériques et d’accélération de la transformation digitale , les données et l’intelligence artificielle constituent des leviers stratégiques pour améliorer l’expérience client, optimiser les opérations et soutenir l’innovation. La montée en puissance de nos plateformes data, combinée à l’émergence de nouvelles technologies (cloud data platforms, big data, IA générative, MLOps), exige un pilotage technique et organisationnel solide pour garantir la qualité, la robustesse et la scalabilité de nos solutions. Afin d’accompagner cette dynamique, la société souhaite renforcer son organisation en s’appuyant sur un prestataire disposant d’une forte expertise en management et delivery d’équipes Data & IA, capable de piloter l’ensemble du cycle de vie de nos produits data/IA, de soutenir la montée en compétence des équipes, et d’assurer la cohérence technique et opérationnelle de notre écosystème data. Livrables Activités & responsabilités 1. Constitution & maturité des équipes Data & IA - Recruter, staffer et faire monter en compétence les équipes Data/IA. - Assurer un équilibre entre roadmap produit et ressources Tech Data/IA. - Garantir l’adoption des bonnes pratiques (clean code, sécurité, data quality, éthique de l’IA, observabilité). 2. Management de proximité - Encadrer les développements Data & IA et promouvoir une culture de feedback. - Gérer la motivation, la cohésion et la montée en compétence des équipes. - Définir les objectifs individuels et collectifs, et suivre leur atteinte. 3. Delivery & Production - Piloter la qualité du delivery des solutions Data & IA (délais, coûts, engagements). - Mettre en place des standards et process de delivery adaptés (MLOps, CI/CD pour modèles IA, monitoring des données et modèles). 4. Collaboration avec les équipes Produits & Métier - Aligner les équipes Data/IA avec les enjeux produits et métiers. - Travailler avec les responsables produit, data owners et business stakeholders pour transformer les besoins en solutions concrètes. 5. Contribution technique - Participer à la définition des solutions Data & IA en gardant un rôle de facilitateur technique (sans être sur le chemin critique). - Challenger les choix technologiques (data architecture, frameworks IA, cloud) et favoriser l’innovation. - Développer une vision long terme sur la gouvernance et la stratégie Data & IA. ## Interactions - Avec l’écosystème Tech et Produit : pour le pilotage des équipes et le delivery des projets Data & IA. - Avec les équipes Métier : pour comprendre les besoins et maximiser la valeur business des cas d’usage IA. - Avec les RH / Managers RH : pour le suivi des collaborateurs (formation, évolution, mobilité). Description - Garantir la cohérence technique et la qualité des produits Data & IA en collaboration avec les experts et les équipes de delivery. - Encadrer et faire grandir les équipes de développement Data/IA (DE , travailler avec des DS, MLOps, etc.) pour répondre aux enjeux business et techniques. - Définir et piloter la trajectoire de delivery (qualité, respect des engagements) pour assurer la mise en production fluide et sécurisée des solutions Data & IA. - Maintenir et développer les compétences clés des équipes dans un contexte technologique en forte évolution (cloud data platforms, IA générative, big data, MLOps). - Assurer la qualité de service en production des solutions Data & IA (robustesse, performance, monitoring, observabilité).

Freelance

Mission freelance
Business analyst Data

PARTENOR
Publiée le
Business Analyst
Data quality

1 an
520-580 €
Paris, France

Notre client, filiale bancaire d’un grand groupe industriel international, recherche un(e) Business Analyst Data confirmé(e) pour renforcer ses équipes. Vos missions principales Assurer la qualité des données dans le respect des standards définis Traiter et suivre les tickets liés aux anomalies ou demandes d’évolution des données Travailler en interaction étroite avec les métiers Data (Data Stewards, Data Owners) pour garantir la cohérence et la fiabilité des données Participer aux comités de pilotage et aux ateliers métiers/IT pour la mise en œuvre des actions correctives Suivre et documenter les processus de data quality et les indicateurs de performance associés Contribuer à l’amélioration continue des outils et des process de gouvernance de données

Freelance

Mission freelance
Data engineering GCP

KEONI CONSULTING
Publiée le
Gitlab

18 mois
100-450 €
Paris, France

CONTEXTE Au sein de l’équipe Silver, la prestation se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

424 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous