Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 465 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer / Développeur PostgreSQL – Full Remote

STHREE SAS pour COMPUTER FUTURES
Publiée le
PostgreSQL

6 mois
Paris, France
Nous recherchons un Data Engineer / Développeur PostgreSQL confirmé pour intervenir sur un projet stratégique au sein d’une équipe technique dynamique. Missions : Développement et optimisation de procédures stockées Rédaction et amélioration de requêtes complexes PostgreSQL Participation à la structuration et au maintien de l’architecture data Contribution aux bonnes pratiques de développement et à l’amélioration continue Ce que nous offrons : Mission 100 % télétravail Projet long terme possible Contexte technique stimulant à forte valeur ajoutée Intégration au sein d’une équipe experte
Freelance

Mission freelance
Architecte DATA - Paris

SKILL EXPERT
Publiée le
Azure
Big Data
CI/CD

1 an
520-540 €
Paris, France
Mission : Analyser les besoins et usages en données des différents métiers de l’entreprise. Recommander des solutions de stockage et gestion de Big Data. Contribuer à la conception de l’architecture de la plateforme, Contribuer à l’observabilité de la plateforme, Implémenter la plateforme et les outillages associés, Assurer le maintien en condition opérationnelle de la plateforme, Assurer la sécurité des accès et de la plateforme, Mettre en place une stratégie de monitoring des coûts et d'optimisation des ressources Azure
Freelance

Mission freelance
PM / PMO Data & Digital Transformation

Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)

12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer - Databricks

VISIAN
Publiée le
AWS Cloud
Databricks
PostgreSQL

1 an
40k-70k €
400-700 €
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Freelance

Mission freelance
Chef de projet data migration (H/F)

Cherry Pick
Publiée le
Coupa
Gestion de projet
Migration

9 mois
600-650 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Chef de projet data migration(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine pharmaceutique. Description 🏢 Le Contexte : Programme de Transformation "Nexus" Vous rejoignez le programme international, au sein de l'équipe Performance Opérationnelle Finance . Ce programme vise à harmoniser les outils et processus sur l'ensemble du cycle Source-to-Pay (S2P) et Source-to-Settle à l'échelle mondiale. Après le déploiement en France, le projet s'attaque à un morceau d'envergure : le déploiement aux États-Unis , incluant une transition vers SAP S/4HANA et l'harmonisation des outils de CLM ( Sirion ) et d'e-Procurement ( Coupa ). 🎯 Vos Missions : Pilotage et Coordination de la Migration Sous la responsabilité du responsable Data Model et Data Migration, vous portez une stratégie de migration spécifique basée sur l'agilité et l'ajustement tardif des données. Définition du Scope : Mettre autour de la table des acteurs internes ultra-challengeants pour arrêter le périmètre de reprise (attributs, historique, périmètres géographiques). Stratégie de Migration par "Templates" : Contrairement à une migration technique classique, vous pilotez une approche par gabarits permettant d'ajuster et de transformer la donnée manuellement jusqu'au dernier moment pour garantir une fiabilité maximale au Go-Live. Intégration MDM : Assurer la mise en conformité et l'entrée des données dispersées dans le référentiel maître ( Master Data Management ) du groupe. Coordination Internationale : Aligner les besoins de la France et les spécificités du déploiement américain. Gouvernance et Documentation : Documenter les processus de transition pour assurer la continuité du "Run" après la migration.
Freelance
CDI

Offre d'emploi
Administrateur Infrastructures HDP/CDP

VISIAN
Publiée le
Apache Airflow
Apache Spark
Hortonworks Data Platform (HDP)

1 an
40k-45k €
400-540 €
Paris, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters. Les consultants retenus auront pour mission : Administration et optimisation de clusters HDP/CDP Installation, configuration et maintenance des clusters Gestion des mises à jour et des patchs de sécurité Surveillance des performances et optimisation des ressources Gestion/administration de clusters Kubernetes Automatisation des déploiements avec Operators Sécurisation et monitoring des environnements conteneurisés Orchestration des workflows avec Apache Airflow Développement et optimisation des DAGs pour la gestion des pipelines de données Gestion des dépendances et optimisation des temps d'exécution Intégration avec les autres outils de l'écosystème Traitement et analyse des données avec Apache Spark Développement et optimisation des jobs Spark (batch et streaming) Gestion des performances et tuning des jobs Intégration avec les systèmes de stockage distribués Optimisation des requêtes et accès aux données avec Starburst Configuration et administration de Starburst Optimisation des requêtes SQL distribuées Sécurisation et gestion des accès aux différentes sources de données
Freelance

Mission freelance
Data Engineer Azure

Cherry Pick
Publiée le
Azure
Azure Data Factory
Python

12 mois
500-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'assurance Description 📊 Le Contexte : La Data au service de l'Investissement Vous rejoignez le Datahub d'un acteur majeur de l'épargne, une plateforme critique au cœur du système d'information. Ce hub centralise et normalise l'ensemble des données du groupe pour alimenter des processus business à fort impact : calcul des commissions , génération de documents réglementaires, marketing prédictif et pilotage financier. L'enjeu est de transformer une masse de données brutes en informations fiables et exploitables pour l'ensemble de l'écosystème (partenaires, clients, directions métiers). 🎯 Vos Missions : Ingénierie & Industrialisation Intégré(e) à l'équipe Data, vous êtes le garant de la robustesse des flux de données. Design & Delivery : Concevoir, développer et maintenir des pipelines d’intégration complexes via Azure Data Factory (ADF) . Cycle de vie de la donnée : Assurer l'ingestion, la transformation, la normalisation et la mise à disposition des données pour les services consommateurs. Expertise SQL : Réaliser des agrégations et des transformations avancées, avec un souci constant de performance et de qualité. Infrastructure as Code (IaC) : Participer au déploiement et à la gestion des infrastructures via Terraform . Collaboration Métier : Agir en tant que partenaire des équipes finance et marketing pour traduire leurs besoins en solutions techniques robustes. Qualité & CI/CD : Contribuer à l'automatisation des tests et des déploiements (Azure DevOps, SonarCloud).
Freelance

Mission freelance
Data Engineer Talend (habilitation requise)

Signe +
Publiée le
Talend

12 mois
400-610 €
Paris, France
Contexte Dans le cadre du développement du DataLab, le Data Office souhaite renforcer ses équipes afin d’accélérer les projets BI, Data Analytics et Data Management et soutenir les initiatives de valorisation des données métiers. Besoin consultant Talend pour T… Objectifs de la mission Concevoir et développer des pipelines de données performants et évolutifs Participer à l’industrialisation et à l’optimisation des flux data Contribuer à la qualité, la fiabilité et la valorisation des données Responsabilités principales Concevoir, développer et optimiser des flux de données sous Talend Collaborer avec les équipes métiers, Data Analysts et Data Architects pour traduire les besoins fonctionnels en solutions techniques Garantir la qualité et la performance des traitements de données Mettre en place des processus de validation, nettoyage et fiabilisation des données Participer aux revues de code et au partage de compétences avec l’équipe Data Engineering Proposer des améliorations continues des outils, méthodes et processus Compétences requises Maîtrise de Talend (développement de pipelines, intégration de données) Bonne compréhension des architectures Data et des bonnes pratiques de traitement des données Expérience en collaboration avec équipes data et métiers Sens de la qualité de données, performance et industrialisation des flux Contraintes spécifiques Mission basée à Vélizy avec déplacements ponctuels Nationalité française requise (accès site)
CDI

Offre d'emploi
Data Architect ERP Oracle

Enterprise Digital Resources Ltd
Publiée le
Oracle BI Publisher
Oracle Fusion

Paris, France
Data Architect ERP Oracle A ce titre, vous serez chargé(e) de concevoir, gouverner et sécuriser l’architecture des données. Il/Elle garantit la qualité, l’intégration des données, la disponibilité et la gouvernance des données afin de soutenir l’analyse décisionnelle, la performance opérationnelle et les besoins métiers. Rattaché(e) au Responsable équipe Data, vos missions s'articuleront autour des volets suivants : Architecture & modélisation des données Concevoir et maintenir l’architecture des données autour d’Oracle Fusion Définir les modèles de données (conceptuels, logiques et physiques) Garantir la cohérence entre les données ERP et les systèmes satellites (CRM, BI, Data Lake, applications métiers) Intégration & flux de données Concevoir les flux d’intégration (ETL/ELT, API, FBDI, OIC) Superviser les échanges de données entre Oracle Fusion et les systèmes tiers Optimiser les performances et la fiabilité des flux Gouvernance & qualité des données Mettre en place des règles de gouvernance des données (référentiels, MDM) Définir et suivre les indicateurs de qualité des données Garantir la conformité réglementaire (RGPD, audit, traçabilité) Sécurité & conformité Définir les règles d’accès aux données (rôles, profils, sécurité Oracle Fusion) Collaborer avec les équipes sécurité et conformité Assurer la protection et la confidentialité des données sensibles Support & collaboration Travailler avec le prestataire en charge de la TMA, les équipes fonctionnelles, techniques et métiers Accompagner les équipes projet (déploiement, migration, montée de version) Fournir expertise et support sur les problématiques data ERP
Freelance

Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)

SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks

3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Freelance

Mission freelance
Directeur de Programme – Migration Data & Analytics Cloud

Signe +
Publiée le
Snowflake

12 mois
840 €
Paris, France
Contexte Dans le cadre d’un programme stratégique de transformation, le client souhaite piloter la migration complète de son écosystème Analytics vers des solutions cloud modernes. L’objectif est de moderniser des plateformes data vieillissantes et d’améliorer la scalabilité, la performance et la gouvernance des environnements Analytics. Périmètre Migration SAP HANA et Sybase IQ vers le Cloud Cibles potentielles : Snowflake, Microsoft Azure ou autres plateformes cloud modernes Transformation globale des architectures Data / BI / ETL Refonte de la roadmap Data Platform à l’échelle de l’entreprise Responsabilités Pilotage global du programme de migration Data Encadrement de 5 à 6 Chefs de Projet Structuration de la gouvernance programme Définition et suivi de la roadmap Gestion des dépendances, risques et budgets Coordination des équipes IT, Data et Métiers Communication auprès des sponsors et instances de direction Compétences techniques attendues Expérience confirmée en migration de bases de données lourdes (HANA, Sybase IQ) Maîtrise des architectures Analytics modernes (Snowflake, Azure, Data Platform Cloud) Compréhension des environnements BI / ETL / Data Warehouse Vision globale des impacts métiers (Finance, Industrie, R&D, Supply Chain…) Compétences managériales Expérience de direction de programme stratégique Capacité à piloter plusieurs streams en parallèle Forte maîtrise de la gouvernance, des arbitrages et de la gestion budgétaire
Freelance

Mission freelance
Data Engineer Senior GCP

TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery

3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Freelance

Mission freelance
Business Analyst Clinical Operational Data (full remote)

Signe +
Publiée le
ERP

6 mois
600 €
Paris, France
Contexte Support des initiatives liées aux données opérationnelles cliniques Collaboration entre équipes métiers, cliniques et data engineering Environnement pharmaceutique / données cliniques Missions principales Recueil, analyse et formalisation des besoins métiers Traduction des besoins en spécifications fonctionnelles pour les équipes data Contribution aux sujets data quality, data lineage et gouvernance Animation d’ateliers métiers et coordination des parties prenantes Participation à la gestion du backlog (Jira) et documentation (Confluence) Compétences requises Expérience en données cliniques / healthcare Standards : HL7, FHIR, ICD-10, LOINC Compréhension des plateformes data (Snowflake, dbt, IICS appréciés) Rédaction de user stories, spécifications fonctionnelles et critères d’acceptation Environnement Agile Informations mission Localisation : Full remote Durée : 6 mois renouvelables
Freelance

Mission freelance
Consultant Senior Big Data CDP/HDP

Nexius Finance
Publiée le
CI/CD
Dynatrace

1 an
440-510 €
Paris, France
Contexte : Notre client, acteur majeur du secteur bancaire, recherche un Expert CDP (Cloudera Data Platform) avec une solide expérience sur HDP (Hortonworks Data Platform). Le consultant interviendra sur l’amélioration continue des services Big Data, la gestion des incidents et la coordination des équipes techniques situées en France et en Inde. La maîtrise d’Ansible pour l’automatisation est indispensable pour optimiser l’infrastructure et les processus critiques. Responsabilités : Assurer l’amélioration continue des services sur CDP : optimisation des performances et configurations. Gérer les incidents sur HDP et CDP en production. Automatiser les processus via Ansible : mise à jour et création de playbooks pour le déploiement et la gestion des clusters. Coordonner et collaborer avec les équipes techniques en France et en Inde. Livrables attendus : Documentation technique à jour des environnements. Playbooks automatisés et opérationnels.
Freelance

Mission freelance
Data Engineer expert sur Snowflake et DBT

Nicholson SAS
Publiée le
DBT
Snowflake
SQL

6 mois
500 €
Paris, France
Mon client recherche un Data Engineer expert sur Snowflake et DBT pour rejoindre ses équipes basées à Paris , avec une présence impérative de 3 jours par semaine sur site . La mission débutera dès que possible pour une durée initiale allant jusqu’au 30 juin 2026 . Le taux journalier maximum est fixé à 500 euros . Dans un contexte de modernisation et d’optimisation de la plateforme data, l’expert interviendra pour structurer et organiser l’environnement Snowflake , définir et diffuser les bonnes pratiques de développement ainsi que mettre en place les standards de qualité et de performance . Il accompagnera les équipes techniques dans l’ adoption de ces standards et s’assurera de la cohérence des modèles de données et des pipelines existants. Le profil recherché dispose de plus de 6 ans d’expérience en ingénierie data et justifie d’une excellente maîtrise de Snowflake, DBT et SQL . Une aisance en anglais est indispensable pour évoluer dans un environnement international. Ce rôle stratégique allie vision technique, rigueur et pédagogie afin de garantir la robustesse et la scalabilité des solutions data au sein du groupe.
Freelance

Mission freelance
Data Analyst Expert Power BI

Gentis Recruitment SAS
Publiée le
Data analysis
Microsoft Power BI
Power Query

20 jours
Paris, France
Contexte de la mission Dans le cadre d’une démarche d’amélioration continue, un grand groupe du secteur de l’énergie souhaite réaliser un audit complet de son environnement Power BI , afin d’évaluer : La performance des jobs de rafraîchissement La fiabilité des datasets et modèles La qualité de la gouvernance Power BI La conformité aux meilleures pratiques Microsoft La scalabilité et la pérennité de l’architecture existante L’objectif est d’identifier les axes d’optimisation et de proposer une feuille de route claire et priorisée. Périmètre de la mission L’audit couvrira l’ensemble de la chaîne Power BI : Scheduled Refresh (Jobs) Datasets / Semantic Models Sources de données & Gateway Transformations Power Query / Dataflows Modélisation DAX & relations Rapports & dashboards Capacity management / Workspaces / Gouvernance Performance Analyzer & outils de monitoring Travaux attendusAnalyse des jobs Power BI Durées d’exécution Échecs récurrents Dépendances et enchaînements Consommation de ressources Analyse des logs d’erreurs Évaluation des modèles Structure des tables Types de stockage (Import / DirectQuery / Dual) Optimisation des mesures DAX Cardinalité & performance du modèle Analyse des sources de données Performance des requêtes Gouvernance des connexions Sécurité & gestion des credentials Optimisation Power Query (M) Gouvernance & sécurité Organisation des Workspaces Gestion des accès Row-Level Security (RLS) Sensitivity Labels Bonnes pratiques Microsoft Plan d’amélioration Recommandations techniques Quick wins & chantiers structurants Architecture cible Roadmap d’évolution Livrables attendus Rapport d’audit complet et structuré Liste priorisée des points critiques Plan d’optimisation détaillé Documentation des bonnes pratiques adaptées au contexte Présentation de restitution aux équipes

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

465 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous