Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 304 résultats.
Freelance

Mission freelance
Proxy Product Owner Data

SKILLWISE
Publiée le
JIRA
Kanban
Web analytics

2 mois
150-500 €
Paris, France

Nous recherchons un Proxy Product Owner pour accompagner une équipe Data dans un contexte de forte croissance digitale. Vous interviendrez au sein d’une équipe pluridisciplinaire (PM, PO, Analytics Engineer, Data Engineer, QA...) en charge de l’ensemble du cycle de vie de la donnée, de sa création à son activation pour différents usages métiers. Votre rôle consistera à : Recueillir et formaliser les besoins fonctionnels (techniques et métiers) en support du PO. Assurer le suivi des projets et garantir la visibilité des avancées auprès des parties prenantes. Participer au déploiement technique des produits data sur des assets web, applications mobiles, IPTV et TV connectée. Contribuer à la mise en place et au paramétrage des outils tiers (Tag Commander, Piano Analytics, DMP, CMP...).

Freelance

Mission freelance
Product Owner Data

Trait d'Union Consulting
Publiée le
Data governance
Data Lake
SQL

1 an
500-600 €
Paris, France

Dans le cadre d'une mission freelance située à Paris intramuros, nous recherchons un Product Owner Data spécialisé dans la qualité des données pour piloter la mise en place d’un cockpit Data Quality à l’échelle d’un groupe international. Ce cockpit permettra de centraliser les indicateurs de qualité, suivre les seuils critiques et accompagner les entités métiers dans l’amélioration continue de la fiabilité des données. Vous interviendrez sur l’ensemble du cycle de vie du produit : cadrage, définition du MVP, conception des fonctionnalités, animation des comités de suivi, déploiement dans les différentes entités, et accompagnement au changement.

Freelance

Mission freelance
Ingénieur Data GCP

INSYCO
Publiée le
Apache Airflow
BigQuery
CI/CD

6 mois
500-600 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Ingénieur Data GCP répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4875 en objet du message Vos responsabilités Collecte et l’ingestion de différentes sources de données non homogènes Mise en place de pipelines de traitement de données Développement des modèles de données Extraction et l’exposition des données du Lakehouse vers d’autres services Industrialisation des projets sur la GCP Mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données Participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données Participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe Expériences dans un environnement du Cloud Provider Public Google (GCP) Expériences sur des projets intégrant Gitlab CI/CD Maitrise des langages SQL et Python Expériences sur des projets Big Data intégrant PySpark, BigQuery, et Airflow Expériences dans la mise en place de pipeline ETL / ELT

Freelance

Mission freelance
BUSINESS ANALYST DATA MART MUREX

Groupe Aptenia
Publiée le
JIRA
Murex
Méthode Agile

6 mois
400-710 €
Paris, France

• Participer à l'évolution et à la gestion du cycle de vie du produit (rituels méthodes Agile) • Comprendre et spécifier les besoins et processus métiers pour contribuer à la vision produit jusqu'à la génération des CRE vers le SI comptabilité centrale • Réaliser des prestations d'étude, de conception (spécifications générales et détaillées), de réalisation et de recette des changements • Fournir un support analytique, opérationnel et stratégique • Faciliter la construction et le partage de connaissances en interne en contribuant à la base de connaissances SIGMA • Participer à l'homologation et à la validation des patchs de l'éditeur • Aligner les données Datamart avec les besoins métiers Front Office to Back Office to Comptabilité en collaboration avec les métiers et les équipes SI fonctionnelles • Extraire et améliorer les données de la base financière MX.3 vers le Datamart • Réaliser des prestations d'étude, de conception (spécifications générales et détaillées), de réalisation et de recette des changements • Réaliser les spécifications liées à l'ETL et les recetter • Assurer l'intégrité et la qualité des données • Fournir un support analytique et opérationnel • Gérer le backlog et piloter les travaux de l'équipe en appui au lead technique du client • Contribuer à l'activité de release et de post production • Faciliter la construction et le partage de connaissances en interne en contribuant à la base de connaissances SIGMA • Assurer la coordination des différentes recettes avec les applications abonnées Pour chacune de ces activités, le prestataire produira les livrables attendus, validés dans le cadre du processus de gestion de la plateforme SIGMA. Le prestataire sera plus particulièrement en charge d'assister l'équipe sur les aspects suivants : • Construire et gérer le backlog Datamart • Animer la relation avec les applications abonnées à SIGMA • Contribuer aux projets ayant des adhérences avec le Datamart (tels que le projet de refonte du SI clients externes) Les travaux du prestataire seront réalisés en coopération avec les équipes de la filière SI et métiers, ainsi que l'éditeurMurex. Une bonne coordination constituera un élément essentiel de réussite du projet dans un contexte multi-intervenants.

Freelance
CDI

Offre d'emploi
PRODUCT OWNER DATA

UCASE CONSULTING
Publiée le
Python

6 mois
40k-45k €
400-550 €
Paris, France

Contexte du poste Dans le cadre du développement de la plateforme data et de la valorisation des usages BI, nous recherchons un Product Owner confirmé (7-8 ans d’expérience) ayant une expertise approfondie sur Power BI et une bonne compréhension des environnements Data (Databricks, pipelines, gouvernance de la donnée). Le PO sera en charge de piloter et coordonner les activités d’une petite équipe composée d’un développeur Power BI et d’un développeur Databricks, tout en assurant la relation avec les métiers et la priorisation du backlog. Missions principales Pilotage & Coordination Définir et maintenir la roadmap produit en lien avec les besoins métiers. Animer les cérémonies Agile (daily, sprint planning, revue, rétrospective). Prioriser le backlog et arbitrer les demandes métiers. Assurer le suivi d’avancement, la qualité des livrables et le respect des délais. Accompagnement & Leadership Encadrer deux développeurs (Power BI & Databricks) : apporter du support technique, aider à lever les blocages. Garantir la cohérence entre les développements Databricks (traitement de la donnée) et Power BI (restitution). Sensibiliser les parties prenantes à la bonne utilisation de la donnée et des outils. Expertise Power BI Contribuer à la conception et à l’optimisation de tableaux de bord. Apporter une expertise sur la modélisation des données, la DAX et la performance des rapports. Définir les bonnes pratiques et standards d’usage de Power BI. Relation Métiers & Gouvernance Recueillir et challenger les besoins des utilisateurs. Traduire les besoins métiers en user stories claires et actionnables. Garantir la qualité, la fiabilité et la pertinence des indicateurs restitués. Profil recherché Expérience : 7-8 ans minimum dans des projets Data/BI dont une solide expérience sur Power BI. Compétences techniques : Excellente maîtrise de Power BI (DAX, Power Query, modélisation, optimisation). Bonne compréhension d’un environnement Databricks (Spark, Delta Lake, pipelines de données). Connaissance des environnements Cloud (Azure de préférence). Compétences fonctionnelles : Gestion de backlog, priorisation et animation de cérémonies Agile. Capacité à recueillir, formaliser et challenger les besoins métiers. Sensibilité aux enjeux de data quality et gouvernance de la donnée. Soft skills : Leadership et capacité à fédérer une équipe. Excellentes qualités de communication et de pédagogie. Rigueur, autonomie et sens du résultat. Langues : Français courant, anglais professionnel souhaité

CDI

Offre d'emploi
PO DATA

REDSEN
Publiée le
CRM
Data visualisation
Google Analytics

35k-48k €
Paris, France

📝 VOS MISSIONS PRINCIPALES Au sein d’une Direction E-commerce d’un grand compte Retail B2C , en tant que Product Owner / Lead Data , vous êtes l’interlocuteur privilégié des équipes métiers Digital pour co-construire et mettre en œuvre la roadmap Data sur le E-commerce . Vos activités principales : Co-construire avec les équipes métiers la roadmap data inhérente à la roadmap business en priorisant les demandes selon la valeur métier et l’expérience utilisateur Animer des points de priorisation et de synchronisation avec ces métiers Coordonner les actions avec 2 autres Product Owner Data Participer au cadrage des projets majeurs Recueillir les besoins Créer, alimenter et suivre le backlog produit Animer des sessions de validation avec les parties prenantes Etre un « Business Partner » pour les personnes au niveau Groupe Coordonner les équipes data (ingénieurs, analystes, scientists, tracking) afin de mettre sous contrôle la mise en œuvre Suivre et coordonner plusieurs projets en parallèle Contribuer aux phases de recette fonctionnelle Valider la conformité des livrables

Freelance

Mission freelance
Directeur de Programme Data – Migration Databricks

Groupe Aptenia
Publiée le
Databricks
Microsoft Purview
RGPD

3 ans
650-700 €
Paris, France

Le client lance un programme de transformation de sa plateforme data, visant à : Migrer l’environnement legacy vers Databricks Implémenter Unity Catalog pour la gouvernance centralisée Déployer Azure Purview pour la traçabilité, le lineage, et la conformité RGPD Harmoniser les pratiques de gouvernance au sein de plusieurs entités européennes L’environnement est fortement réglementé, avec des interactions régulières avec la direction conformité, sécurité, IT, métiers et DPO. Le directeur de programme sera responsable de : La coordination stratégique de plusieurs chantiers techniques et fonctionnels L’animation des comités de gouvernance La priorisation, l’arbitrage et la gestion des risques Le reporting au COMEX groupe

CDI
Freelance

Offre d'emploi
Data Engineer SQL

Amontech
Publiée le
C#
Data Warehouse
Microsoft Analysis Services (SSAS)

365 jours
40k-45k €
400-550 €
Paris, France

La mission concerne : Le Data Engineer travaillera en proximité avec les Business Analyst Expertises spécifiques : Nous cherchons un consultant Data Engineer T-SQL (Sqlserver 2019) disposant des compétences suivantes : Séniorité : Entre 6 et 9 ans Description : • Participe aux phases d’analyse, de conception, de développement et de tests dans le cadre de la réalisation ou du pilotage de projets informatiques • Analyse et formalise les besoins des utilisateurs • Développe les programmes, les interfaces, les restitutions... • Respecte les normes et les standards • Suit les travaux (développements, tests) • Teste le fonctionnement de la fonction, du module ou du programme • Vérifie l’intégration du développement • Rédige les spécifications techniques

Freelance
CDI

Offre d'emploi
Data Engineer Senior Java/Spark – POC & Industrialisation Data

CAT-AMANIA
Publiée le
Apache Spark
Java
Python

6 mois
56k-70k €
500-650 €
Paris, France

Nous recherchons un Data Engineer Senior (Java/Spark) pour accompagner un acteur majeur du secteur mutualiste dans la transformation et l’industrialisation de ses environnements data, en lien étroit avec les équipes métiers et techniques. Vous aurez pour mission : Accompagnement technique et fonctionnel : Intervenir en tant qu’expert Data pour soutenir les équipes sur des problématiques de performance, d’optimisation et d’expérimentation de cas d’usage à forte volumétrie. POC et industrialisation : Participer à la conception et à la réalisation d’un POC visant à rapprocher les environnements cloud et on-premise, avec une cible finale on-premise. L’existant cloud servira de base pour des projets d’envergure. Animation et méthodologie : Co-animer le codir mensuel avec la direction métier Data/IA, accompagner la direction dans l’exploration des données et la priorisation du backlog, et apporter une expertise méthodo pour le démarrage des cas d’usage. Collaboration transverse : Travailler en étroite collaboration avec les Tech Leads et référents architecture Data pour garantir la cohérence technique et fonctionnelle des solutions proposées. Développement et optimisation : Apporter un soutien actif au développement Python/Java, résoudre les problématiques de performance et contribuer à l’expérimentation de cas d’usage sur des volumes de données importants.

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

BEEZEN
Publiée le
Google Cloud Platform (GCP)

6 mois
40k-75k €
400-550 €
Paris, France

· Compétences solides en data : structures de données, code, architecture · Connaissance de GCP · Expériences professionnelles avec les langages SQL et Python · Références professionnelles sur Pyspark, BigQuery et Airflow · Expertises dans la mise en place de pipeline ETL / ELT · Bonnes connaissances de Gitlab et Gitlab CI/ CD · La collecte et l’ingestion de différentes sources de données non homogènes · La mise en place de pipelines de traitement de données · Le développement des modèles de données · L’extraction et l’exposition des données du Lakehouse vers d’autres services · L’industrialisation des projets sur la GCP · La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données · La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’int égrit é des données · La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Freelance
CDI

Offre d'emploi
CHEF DE PROJET DATA

UCASE CONSULTING
Publiée le
Snowflake
SQL
Tableau software

3 ans
40k-60k €
400-550 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un chef de projet data. Contexte : Assurer le rôle de point de coordination entre les équipes data engineer et data analystes Comprendre et cartographier les flux de données existants Réaliser ponctuellement des développements SQL si nécessaire Assurer le pilotage, suivi et traçabilité des projets data Garantir la bonne application de la méthodologie Agile (Rituels, backlog, priorisation). Compétences attendues Solides capacités d'analyse et de compréhension fonctionnelle Bonne connaissance des environnements data (bases, flux, reporting) Expérience en gestion de projet / PO Compétences techniques en SQL, DBT et Snowflake Connaissance de l'outil Tableau Profil hybride Technico fonctionnel

Freelance

Mission freelance
Chef de projet data

MLMCONSEIL
Publiée le
BI
Big Data

6 mois
320-460 €
Paris, France

Pour le besoin de notre client, nous recherchons un Chef de projet qui évoluera sur un périmètre transverse à toute la chaîne de valeur de la Data. Recueillir le besoin auprès des métiers et les challenger en coordination avec le Leader Equipe client Faire des études de faisabilité (connaissance technique BI ou Big Data nécessaire) ... ... ... ... ... ... ... .... ... ... ... .... .... .... ... .... ... ... .... ... ... ... .... ... ... .... ... ... ... .... ... ... .... ... ... ... .... ... .... ...

Offre premium
CDI

Offre d'emploi
Data Engineer Databricks - Paris

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
Chef de Projet Technique Cloud & Data

Groupe Aptenia
Publiée le
Azure
CI/CD
Databricks

6 mois
350-650 €
Paris, France

Le client déploie un programme stratégique Global Data Platform afin de centraliser, sécuriser et automatiser la gestion de ses données. Le consultant interviendra au sein de la Software Squad pour concevoir, développer et maintenir les solutions logicielles supportant la plateforme. Participer à la conception et au développement des composants logiciels de la Data Platform. Développer et maintenir des applications web et API permettant la gestion des services et des données. Contribuer à la mise en œuvre des bonnes pratiques CI/CD et Cloud Azure . Collaborer avec les équipes Data, Réseau, Sécurité et Produit dans un environnement Agile international . Garantir la qualité, la performance et la sécurité des solutions livrées.

Freelance

Mission freelance
Développeur Big Data

Signe +
Publiée le
.NET
Apache Hive
Apache Spark

3 mois
400-480 €
Paris, France

La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

304 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous