Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 432 résultats.
Freelance

Mission freelance
DATA ARCHITECT FINANCEMENT

Mon Consultant Indépendant
Publiée le
Big Data

12 mois
670-700 €
Paris, France

Pour l’un de nos clients du secteur bancaire, nous recherchons un(e) Data Architect spécialisé(e) dans les métiers du financement (Corporate Banking, crédits structurés, syndiqués, etc.). Le consultant interviendra dans la définition et la mise en œuvre de l’architecture fonctionnelle et des flux de données liés aux activités de financement. Il contribuera à la conception des modèles de données, à l’optimisation des échanges entre les systèmes front, middle et back-office, ainsi qu’à la gouvernance de la donnée. Le rôle implique une compréhension fine des enjeux métiers du financement et la capacité à traduire ces besoins en solutions data performantes et sécurisées.

Freelance
CDI

Offre d'emploi
Ingenieur de production FINANCIAL MARKET JUNIOR

NSI France
Publiée le
Market data

1 an
40k-45k €
400-550 €
Paris, France

Missions : Apporter son expertise dans la mise en place, l’évolution et le suivi de production des solutions d’accès aux marchés (Fixed Income, Forex) Gérer les incidents, anomalies, et mener des investigations approfondies sur les problèmes fonctionnels complexes Rédiger des procédures et documentations pour assurer la pérennité des connaissances au sein de l’équipe Maintenir un échange constant avec les équipes projet pour rester informé des nouvelles fonctionnalités et évolutions applicatives Stack technique (extraits clés) Systèmes d’exploitation : Linux, Windows Monitoring : Geneos, ZABBIX Ordonnancement : Control-M Transfert de fichiers : CFT Bases de données : SQLServer, Oracle Réseaux : TibcoRV, FIX, Multicast Langages : Python, Shell, Powershell Outils de suivi : Jira, Service Now

CDI

Offre d'emploi
Data Ingénieur.e

TO B SERVICES
Publiée le
Big Data
Kubernetes
SQL

45k-80k €
75309 CEDEX 09, Paris, Île-de-France

Objectifs et missions principales : titulaire du poste sera un.e interlocuteur.rice clé pour l'équipe Produit, en l'accompagnant dans la conception et la mise en œuvre d'architectures optimisées pour fluidifier l'ensemble des flux de données. Ses missions incluront : Concevoir et maintenir une architecture de pipeline de données performante. Assurer la fiabilité et l'évolutivité de l'infrastructure de données. Participer à l'amélioration continue des processus et outils liés à la gestion des données. Mettre en œuvre et maintenir des normes de qualité des données, ainsi que des systèmes de surveillance et d'alerte associés. Garantir la fiabilité des pipelines de données et établir les bonnes pratiques pour la cohérence des données sur l'ensemble de la plateforme. Développer l'infrastructure nécessaire à l'extraction, la transformation et le chargement (ETL) optimaux des données provenant de diverses sources, en utilisant des technologies SQL et Big Data. Collaborer avec les parties prenantes pour résoudre les problèmes techniques liés aux données et répondre aux besoins en infrastructure de données.

Freelance
CDI

Offre d'emploi
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins

Freelance

Mission freelance
BA DATA - Asset management

AVALIANCE
Publiée le
Data Lake
ETL (Extract-transform-load)
Finance

2 ans
400-700 €
Paris, France

Nous recherchons un Business Analyst Data expérimenté pour accompagner un Asset Manager dans la structuration et l’évolution de son écosystème Data. 🎯 Vos missions : Recueillir et formaliser les besoins Data des équipes métier (Front, Risk, Reporting, Compliance). Contribuer à la conception du modèle de données et à la qualité / gouvernance des données. Participer à la mise en place d’outils de data management et data lineage. Collaborer avec les équipes IT, Data Engineers et Métier sur la roadmap Data. 👤 Profil recherché : Expérience en tant que BA Data idéalement dans la gestion d’actifs (sinon finance au sens large) Bonne connaissance des flux de données financières et des architectures Data (ETL, DWH, Data Lake). Excellente communication, rigueur et sens du partenariat avec les métiers.

Freelance

Mission freelance
Tech Manager

Tenth Revolution Group
Publiée le
Big Data
DevOps
FinOps

6 mois
500-750 €
Paris, France

Mon client recherche un manager technique senior avec une forte expérience en data engineering et pilotage d’équipes hybrides (on/offshore) , capable de structurer, améliorer et délivrer des produits data autour des systèmes hôteliers (notamment PMS). Double dimension : technique et managériale , ayant une culture produit et une approche orientée valeur. Data Engineering avancé : maîtrise des architectures modernes (Data Lake, pipelines, orchestration). Technologies demandées : Snowflake, Airflow, dbt, Tableau, AWS . Connaissance des pratiques DevOps / FinOps / RUN . Capacité à proposer des solutions techniques argumentées et à estimer/planifier les chantiers . (Bonus) Connaissance d’un PMS (ex. OPERA Cloud) ou des systèmes de gestion hôteliers.

Freelance
CDI

Offre d'emploi
Consultant Data Gouvernance & Qualité (H/F)

AVA2I
Publiée le
Data quality

3 ans
40k-45k €
400-600 €
Paris, France

Dans le cadre d’un programme de transformation data d’un grand groupe bancaire, nous recherchons un(e) consultant(e) pour accompagner la gouvernance de la donnée, en lien avec les métiers et les fonctions. La mission porte sur l’analyse de la qualité de données tiers critiques , de bout en bout (de l’origination à leur utilisation métier). Missions principales Réaliser le data lineage fonctionnel sur 7 données clés Contribuer à la définition d’un framework de data quality (contrôles, indicateurs, seuils) Mettre en place un dashboard tactique et des contrôles de cohérence Suivre le plan de remédiation avec les parties prenantes Compétences requises Expérience en data management et gouvernance des données Connaissance des référentiels tiers (clients, contreparties...) Maîtrise du lineage fonctionnel et des frameworks data quality Capacité à travailler en transverse avec métiers et IT

CDI

Offre d'emploi
Manager Data / Lead Data

VISIAN
Publiée le
Azure
Azure Data Factory
Python

60k-80k €
Paris, France

Descriptif du poste Une filiale d'un grand groupe recherche une personne pour prendre en charge la responsabilité des activités Data & Intégration au sein de son département IT. Objectif de la mission La mission a pour objectif de couvrir les activités data existantes, en assurant la continuité des activités tout en identifiant les axes d'amélioration potentiels. Missions de Responsabilité des Activités Data Le candidat présenté par le prestataire sera chargé de : Accompagnement Technique "Tech Lead" : Fournir un support technique à l'équipe Data et Intégration, composée d'une dizaine de collaborateurs data engineers et product owners data. Le profil devra encadrer, orienter et développer les compétences techniques de l'équipe. Choix Technologiques et Architecture Transverse : Conseiller sur les choix technologiques et architecturaux pertinents (stockage, exposition de la data, …), et participer activement à la mise en place d'une plateforme data robuste et scalable permettant l'industrialisation des projets d'IA. Participation aux échanges techniques : Participation active aux échanges et choix techniques et organisationnels sur l'industrialisation des produits data, conjointement avec les équipes Data & Analytics. Positionnement Vis-à-Vis des Partenaires : Collaborer étroitement avec les partenaires et se positionner sur les orientations techniques et architecturales pertinentes. Arbitrer sur les synergies éventuelles à envisager. Choix des Fournisseurs : Contribuer au processus de sélection des fournisseurs en veillant à ce que les choix soient alignés avec les objectifs stratégiques et opérationnels. Pilotage et Conception des Produits Structurants : Participer au pilotage et à la conception de produits structurants et la construction d'un middleware. Cela inclut la priorisation et le dimensionnement des activités.

Freelance

Mission freelance
Data scientist /Data engineer

AVALIANCE
Publiée le
Azure
Deep Learning
Docker

3 ans
350-520 €
Paris, France

Nous recrutons pour notre client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles.

Freelance
CDI
CDD

Offre d'emploi
Automaticien de tests confirmé (Java / CI-CD / Linux )- Paris (H/F)

RIDCHA DATA
Publiée le
Elasticsearch
Java
Javascript

1 an
Paris, France

🔍 Contexte de la mission Au sein du pôle Applications, rattaché(e) à la division Dématérialisation, l’Automaticien de Test interviendra en collaboration avec les équipes projets (pilotage et développement). Il participera à la conception, au développement et à l’exécution des tests automatisés afin de garantir la qualité et la performance des solutions livrées. ⚙️ Missions principales Concevoir et développer des scripts de tests automatiques. Construire et maintenir les jeux de données nécessaires aux tests. Intégrer les tests dans la chaîne d’intégration continue (CI/CD). Réaliser et documenter des tests fonctionnels manuels. Suivre et analyser les anomalies détectées avec les équipes de développement. Participer à la planification et à l’estimation des charges de tests. Produire et suivre les indicateurs qualité. Participer à la capitalisation des bonnes pratiques et à l’amélioration continue. Apporter un support technique et fonctionnel aux équipes internes. 🧩 Compétences techniques recherchées Certification ISTQB (Fondation minimum) – impératif Langages : Java / JavaScript – confirmé, impératif Environnements : Linux et Windows – confirmé, impératif Requêtes : SQL / ElasticSearch / MongoDB – confirmé, impératif Outils : Postman, SoapUI – souhaité Outil de gestion de test : SQUASH – souhaité Connaissance des technologies REST/SOAP et des méthodologies Agile – souhaité Sensibilisation à la sécurité applicative appréciée

Freelance

Mission freelance
DATA QUALITY Project Manager H/F

HAYS France
Publiée le
Data quality
DataGalaxy

6 mois
650-750 €
Paris, France

Contexte : Une initiative mondiale sur la qualité des données a récemment été lancée. Elle vise à sensibiliser les entités du groupe à la qualité des données et à leur permettre de corriger les données de mauvaise qualité dans leurs systèmes sources. En 2025, l’accent est mis sur l’expansion d’un tableau de bord central regroupant des règles de qualité des données mises en œuvre dans la plupart des entités du groupe, offrant une vue globale de la qualité des données. Dans un premier temps, l’attention a été portée sur les règles de qualité des données ayant un impact sur la livraison à temps (OTD – On-Time Delivery).

Freelance

Mission freelance
Consultant Data Engineering & Support Reporting Réglementaire

PARTECK INGENIERIE
Publiée le
Data quality
DevOps
Finance

12 mois
Paris, France

Le bénéficiaire recherche un(e) consultant(e) pour accompagner ses équipes en charge du reporting réglementaire et de la supervision des chaînes de production de données . L’objectif : garantir la fiabilité, la qualité et la conformité des flux de données réglementaires, dans un environnement complexe et fortement orienté Big Data . Volet Data Engineering Assurer le bon acheminement quotidien des données dans les applications et systèmes de contrôle (Datawarehouse). Suivre et améliorer la qualité des données : complétude, exactitude, ponctualité (accuracy, timeliness, completeness). Concevoir et implémenter des pipelines de données inter-applications et inter-environnements, afin d’améliorer la qualité et la fiabilité du reporting réglementaire. Volet Support et Supervision Fournir un support technique et fonctionnel transverse , couvrant différents métiers, applications et technologies. Assurer le monitoring des chaînes de reporting et le traitement des anomalies (flux d’opérations, data quality, etc.). Suivre la performance et l’efficacité des chaînes réglementaires (timeliness, complétude…). Participer aux task forces de reprise ou de traitement de stock (scripting, SQL, automatisation). Réaliser des analyses fonctionnelles et techniques sur les rejets liés aux opérations ou aux flux métiers.

Freelance

Mission freelance
Data Designer

Gentis Recruitment SAS
Publiée le
AWS Cloud

6 mois
Paris, France

Contexte de la mission: Dans le cadre d’un programme de transformation data au sein d’un grand acteur du secteur bancaire, nous recherchons un Data Designer afin de renforcer les équipes en charge de la modélisation et de la structuration des données. Le poste s’inscrit dans un contexte de refonte des processus data et de standardisation des pratiques au sein des équipes métiers et IT. L’objectif principal est d’assurer la cohérence, la qualité et la lisibilité du modèle de données tout en accompagnant les utilisateurs dans la définition et la mise en œuvre des bonnes pratiques de gestion et de gouvernance. Responsabilités principales: · Concevoir et maintenir les modèles de données conceptuels et logiques . · Rédiger la documentation fonctionnelle et technique liée à la modélisation des données. · Définir et formaliser les processus de gestion, de configuration et de paramétrage liés à la donnée. · Contribuer à la mise en place des règles de gouvernance , de qualité et de sécurité des données. · Participer à la coordination fonctionnelle entre les équipes techniques et les utilisateurs métiers. · Identifier les améliorations possibles des flux et processus existants afin d’optimiser la circulation et la valorisation de la donnée. Stack et environnement technique: · Outils de modélisation : PowerDesigner, Erwin Data Modeler, UML, Merise · Gouvernance & documentation : DataGalaxy, Collibra, Alation (ou équivalent) · Bases de données : SQL, Oracle, Snowflake (souhaité) · Cloud : AWS · BI / Data Tools : Tableau, Dataiku (en support) Profil recherché: · Minimum 4 à 6 ans d’expérience dans la conception et la modélisation de données (Data Designer, Data Architect, Data Modeler ou équivalent). · Excellente compréhension des modèles de données relationnels et dimensionnels . · Capacité à traduire les besoins métiers en structures de données claires et exploitables. · Expérience dans la définition de processus fonctionnels et la coordination inter-équipes . · Sens du détail, rigueur documentaire et bonne compréhension des enjeux de gouvernance data. · Une première expérience dans le secteur bancaire ou financier est un atout significatif. Informations complémentaires: · Localisation : Île-de-France (hybride possible) · Démarrage : ASAP

Freelance

Mission freelance
Data Engineer confirmé(e) – Projet Référentiel Valeurs / MDM (H/F)

CELAD
Publiée le
Data Lake
DevOps
Master Data Management (MDM)

12 mois
450-500 €
Paris, France

Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Vos principales missions : Dans le cadre du projet Référentiel Valeurs, visant à centraliser, fiabiliser et gouverner l’ensemble des données relatives aux instruments financiers, vous intégrerez une squad Data composée d’un Architecte technique, d’un Product Owner, d’un Business Analyst et de développeurs. Vos principales missions seront : - Concevoir et implémenter le socle data du Référentiel Valeurs - Développer et industrialiser les pipelines de données (ETL / Datalake) - Intégrer et exposer les données de référence (MDM) - Mettre en œuvre et suivre la qualité et la cohérence des données - Contribuer aux pratiques DevOps / CI-CD et au déploiement des flux - Collaborer avec les équipes métier et data governance TJM : 450€ - 500€

Freelance
CDI

Offre d'emploi
Expertise Denodo

KLETA
Publiée le
Big Data
Virtualisation

2 ans
Paris, France

Missions principales Concevoir et mettre en œuvre des architectures de virtualisation de données avec Denodo . Définir les bonnes pratiques de modélisation logique et de consommation des données. Participer à l’intégration de Denodo dans l’écosystème existant (ETL, data warehouse, data lake, API, outils BI, etc.). Optimiser les performances (tuning, caching, monitoring) et assurer la haute disponibilité de la plateforme. Garantir la sécurité, la gouvernance et la conformité des données (politiques d’accès, masquage, traçabilité). Former et accompagner les équipes (Data Engineers, Data Analysts, BI, métiers) à l’usage de Denodo. Assurer la veille technologique autour de la data virtualization et proposer des améliorations continues.

Offre premium
CDI

Offre d'emploi
Chef de projet Data

VISIAN
Publiée le
ETL (Extract-transform-load)
Master Data Management (MDM)
Talend

Paris, France

Contexte : Dans le cadre d’un projet de transformation, notre client souhaite migrer les flux ETL Talend liés à un MDM legacy vers une nouvelle plateforme MDM. Le chef de projet assurera la coordination des équipes et le pilotage des différentes étapes de migration. Missions : • Piloter le projet de migration ETL (planification, coordination, suivi, reporting) • Analyser et documenter les flux existants • Superviser la refonte et la réécriture des jobs Talend vers le nouveau MDM • Organiser et suivre les phases de tests fonctionnels et techniques en coordination avec les différentes équipes • Préparer la mise en production et accompagner la transition vers le RUN • Assurer la communication entre les équipes data, techniques et métiers

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

432 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous