Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 541 résultats.
Freelance

Mission freelance
Consultant senior data governance

Mon Consultant Indépendant
Publiée le
Data quality

3 mois
600-640 €
Paris, France
Pour un client bancaire : 1 ETP Consultant Senior Data Gouvernance Mission : Appuyer le responsable de service sur la refonte du cadre de gouvernance des données dans un contexte de réponse aux constats BCE. Livrables attendus : • Refonte de la politique de gouvernance des données (périmètre élargi au groupe et aux filiales) • Scénarios de déploiement de la gouvernance auprès des 5 filiales critiques • Stratégie de lignage fonctionnel des données prioritaires (BCBS / données critiques) Principaux interlocuteurs : équipe Data interne, programme réglementaire data, 5 filiales (2 ateliers par filiale). Profil recherché : • Senior, solide expérience en gouvernance des données (stratégie, construction de politiques, gouvernance fédérée) • À l'aise avec les notions de data domain et de lignage fonctionnel • Capacité à démarrer très rapidement et à produire des livrables de cadrage de qualité 1 ETP Consultant Senior Data Quality Mission : Accompagner les équipes sur la montée en maturité Data Quality dans un contexte réglementaire (réponse aux constats BCE). Activités principales : • Accompagnement des filières réglementaires (Risques, Finance) sur la Data Quality : identification des interlocuteurs, animation d'ateliers, formation • Mise à jour du cadre de contrôle Data Quality : gap analysis entre l'existant et les exigences BCE, révision des seuils d'acceptabilité, définition des exigences pour les objets métiers "or" (données prioritaires des reportings réglementaires) • Étude de convergence des outils ticketing : analyse Jira vs Redmine et recommandation sur l'outil à pérenniser Profil recherché : • Senior, expérience confirmée en Data Quality et gouvernance des données • Capacité à produire et à faire avancer les chantiers (pas uniquement un animateur d'ateliers) • Bonne connaissance des enjeux réglementaires bancaires (BCBS, BCE) appréciée
Freelance
CDI

Offre d'emploi
Data Ingénierie DBT

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k ¤
400-480 ¤
Niort, Nouvelle-Aquitaine
Contexte de la mission : Au sein d’une équipe chez notre client, le consultant interviendra sur des sujets de Data Build Tools. Tâches à réaliser : Assurer la conception, le développement et la maintenance de pipelines de données efficaces et conformes aux standards du projet. Compétences recherchées : Obligatoires : Fortes compétences en ingénierie des données, avec maîtrise approfondie de DBT Capacité à analyser les besoins métier et à concevoir des solutions techniques adaptées Compétences en modélisation de données, transformation et orchestration de pipelines Bonne connaissance des bonnes pratiques en matière de gestion de données Autonomie, rigueur et capacité à travailler en équipe Expérience nécessaire : 4 ans minimum sur la fonction, dont un an sur DBT Méthodologie : Agile Langues : Français
Alternance
CDI

Offre d'emploi
Data manager / Data designer programme sous-marin F/H - Création (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
Microsoft Office
SQL

Cherbourg-en-Cotentin, Normandie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
CDD

Offre d'emploi
Data Analyst fonctionnel

OCTOGONE
Publiée le
Modélisation
Recette

2 ans
Île-de-France, France
Contexte V1 d’un grand projet dont la finalité est l’enregistrement et la publication des actes et déclarations, GESFIE a pour objectif de remplacer une application existante, mais obsolète : FIDJI Le palier 1 de GESFIE dont la mise en production est fixée en T1 2029 propose 3 modules : un module d’enregistrement, un module de comptabilité et un module pilote. Par la suite, d’autres modules seront accueillis au sein de GESFIE. Description Rédaction de spécifications fonctionnelles détaillées en cycle en V : CU, IHM, Contrat de services , modélisation fonctionnelle Rédaction de compte rendu suite à ateliers fonctionnels avec des partenaires Rédaction de guides utilisateurs Rédaction de notes de problématique, de notes de déploiement (…) Elaboration de cahiers de tests fonctionnels dans le cadre de la recette Sélection des jeux d’essai Conception de matrices de couverture Livrables spécifications fonctionnelles détaillées compte rendu guides utilisateurs notes de problématique, de notes de déploiement (…) Préparation à la recette fonctionnelle : cahiers de tests fonctionnels avec jeux d’essais, Matrice de couverture
Freelance

Mission freelance
Data analyst SENIOR

MLMCONSEIL
Publiée le
Python

6 mois
100-470 €
Nantes, Pays de la Loire
Recherche d'un data analyst SENIOR : Tâches Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning
Freelance

Mission freelance
Consultant(e) Senior Data Migration SAP (Alteryx)

Signe +
Publiée le
Alteryx
Data management
Migration

6 mois
500-570 €
Toulouse, Occitanie
Bonjour, Nous recherchons un(e) Consultant(e) SAP Data Migration (Senior) pour un client basé à Toulouse : Contexte : Intervention dans le cadre de programmes de transformation SAP S/4HANA avec reprise de données issues d’environnements ECC. Les enjeux portent sur la migration de données, leur qualité, leur transformation ainsi que l’industrialisation des traitements. Profil : Expertise en data migration SAP (S/4HANA / ECC) 5 à 10 ans d’expérience minimum sur des projets de migration de données Maîtrise des problématiques de reprise de données (Master Data et données transactionnelles), qualité et transformation des données Environnement : SAP S/4HANA, ECC, outils de migration (Migration Cockpit, LTMOM ou équivalent), Alteryx apprécié ou outils ETL équivalents Autonomie, capacité à intervenir en hands-on, à structurer les travaux et à encadrer ponctuellement des profils juniors, bon relationnel, anglais professionnel requis Démarrage : Mai / Juin 2026 (flexible) Durée : 6 mois minimum (prolongation probable) Couverture : Temps plein Hybride : Toulouse + télétravail (1 à 2 jours sur site / semaine, déplacements ponctuels à Paris) TJM : Selon profils (max 570€) Vous êtes intéressé(e), merci de m’adresser votre CV à Cordialement Célian Mahieu Signe + 07 50 75 68 53
Freelance

Mission freelance
Data Engineer / Data Platform Engineer (H/F)

INFOGENE
Publiée le
Data Engineering
Finance
Python

6 mois
Paris, France
Contexte Dans un environnement financier exigeant, CFM souhaite moderniser et fiabiliser son système de gestion des prix de marché (equities, futures, bonds, IRS…). Le système actuel, basé sur des infrastructures legacy, manque de visibilité, de performance et de robustesse, rendant les opérations complexes et peu fiables pour les équipes support et data. Objectif de la mission Concevoir et développer une plateforme centralisée de gestion et de visualisation des prix , permettant de suivre l’ensemble du cycle de vie des données et d’améliorer les opérations quotidiennes. Missions principales Concevoir une architecture cible scalable et robuste Développer une API Python exposant les données de prix et leur cycle de traitement Implémenter des services backend pour : suivi des statuts des prix gestion des événements et anomalies opérations en masse (validation, rejet, reprocessing) Mettre en place des interfaces utilisateurs : dashboard opérateur interface d’administration visualisation des workflows et historiques Améliorer la traçabilité des données (origine, transformation, blocages) Optimiser les performances et la gestion des volumes Documenter les solutions et accompagner les équipes
CDI

Offre d'emploi
Alternant(e) - Data Engineer (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
Java
Python

Lestrem, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Alternance
CDI
Freelance

Offre d'emploi
Data Analyst F/H

AIS
Publiée le

1 mois
39k-46k €
230-460 €
Nantes, Pays de la Loire
Intégré(e) aux équipes d'une de nos clients grand compte, le projet concerné est une plateforme digitale transversale. Le projet permet une capacité de type "Talk to your data" : une interface en langage naturel permettant aux collaborateurs de poser des questions et d'obtenir des réponses sans expertise technique. La mission porte principalement sur le backend et la couche sémantique, afin de permettre à l'agent IA (LLM) de générer des requêtes SQL fiables à partir des demandes utilisateurs. Le détail de vos missions sera le suivant : Compréhension Fonctionnelle & Cohérence Produit - Assurer l'alignement entre les besoins métier et les capacités de la solution - Maintenir la cohérence fonctionnelle et la qualité du produit Coordination & Gestion des Exigences - Collaborer avec les fournisseurs de données pour clarifier les besoins et garantir la disponibilité des données - Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités Contribution aux User Stories & au Backlog - Participer à la rédaction des user stories - Définir les fonctionnalités du produit et contribuer à la planification des releases - Prioriser les fonctionnalités et ajuster le périmètre à chaque itération - Garantir la préparation des user stories pour le développement - Accepter ou rejeter les résultats livrés selon les critères définis Assurance Qualité - Contribuer à la création et à l'exécution des cas de test - Valider les modèles de données et leur adéquation aux besoins analytiques - Participer aux contrôles de qualité des données et aux tests fonctionnels Environnement technique : - SQL avancé - Snowflake AI Cortex (niveau confirmé) - Modélisation de données - Data quality, testing et validation - Concepts IA / GenAI - Méthodologie : Agile - Langues : Anglais (Courant - Niveau C1)
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
Freelance

Mission freelance
Data analyst SENIOR

MLMCONSEIL
Publiée le
Python

6 mois
100-470 €
Nantes, Pays de la Loire
Recherche d'un data analyst SENIOR : Tâches Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning
Freelance

Mission freelance
Lead data engineer Databricks

LeHibou
Publiée le
Amazon S3
Collibra
Databricks

36 mois
650-800 €
Colombes, Île-de-France
Dans le cadre d’un programme de replatforming B2C, une organisation internationale construit une Data Platform centralisée à l’échelle mondiale, aujourd’hui fragmentée. L’objectif est de mettre en place une plateforme cloud-native, data-centric et scalable, au service des équipes data de plusieurs géographies, notamment la France, la Belgique et l’Australie. Le Core Model du programme repose sur un modèle de données unifié couvrant notamment les données clients, contrats et facturation. Le Lead Data Engineer intervient comme référent technique de la data platform, avec une responsabilité complète sur l’architecture, le delivery et la qualité des données. Stack technique • Data Platform : Databricks (lakehouse), Amazon S3, Amazon Managed Apache Flink • Gouvernance des données : Unity Catalogue, Collibra • Visualisation : Power BI • Cloud : AWS • Streaming : Confluent Kafka • Langages : Python, SQL • IA & coding : GitHub Copilot, Claude Code, outils LLM • Collaboration : Jira, Confluence, SonarQube Missions principales Stratégie & Architecture Data • Définir l’architecture de la data platform greenfield (lakehouse, zones bronze/silver/gold, data contracts) • Co-construire le Core Data Model commun aux différentes géographies tout en intégrant les spécificités locales • Mettre en place la gouvernance des données, la qualité et l’observabilité • Répondre aux besoins analytiques et fonctionnels des équipes métier via une approche de type catalogue as a service Leadership & Delivery • Être le référent technique data du programme • Choisir les partenaires et structurer une feature team de 5 à 6 personnes • Assurer la responsabilité end-to-end des pipelines, de l’ingestion à la restitution • Gérer le monitoring, la performance et l’optimisation FinOps des workloads data • Mettre en place les pratiques DataOps : automatisation des tests, CI/CD data, infrastructure as code IA & Vélocité • Exploiter GitHub Copilot, Claude Code ou équivalents pour accélérer le développement des pipelines et modèles • Intégrer des cas d’usage IA/ML dans la data platform, incluant data science, feature store et jeux de données prêts pour les LLM • Automatiser la génération de code, les tests de qualité des données et la documentation • Conserver la maîtrise technique tout en augmentant la vélocité grâce à l’IA
CDI

Offre d'emploi
Architecte Solution Data

CHARLI GROUP
Publiée le
Exadata
IBM DataStage
Java

Paris, France
Avec la livraison récente de la toute nouvelle Data Factory, qui consiste en un datawharehouse transversal à l’entreprise ainsi qu’une multitude de services et clients associés, en production ou en devenir Compétences clefs : • Maitrise des technologies data plateformes avec un atout majeur sur les solutions IBM (ETL Datastage PX) • Modélisation des données, data linéage, Data qualité… • Vision : capacité à prendre de la hauteur et référent/garant sur les choix d’architecture • Capacité d’influencer les choix d’architecture et traduire les besoins métier en choix d’architecture fonctionnelle et technique • Faciliter et accompagner les équipes de dev dans le cycle de développement.
Freelance
CDI

Offre d'emploi
Data Ingenieur Python

CHARLI GROUP
Publiée le
Apache Kafka
ELK
Python

3 ans
Paris, France
Ingénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
CDI

Offre d'emploi
Senior Data Analyst & Data Scientist Snowflake H/F

JEMS
Publiée le

40k-55k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) Senior Data Analyst & Data Scientist spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Missions : • Être responsable de la couche analytique des métriques End-to-End : calculer et suivre les KPI incluant le temps de cycle, le lead time, le débit (throughput) et les encours (work-in-progress) à travers les étapes de production, • Construire des modèles de données granulaires pour un suivi complet des lots, en enrichissant la visibilité avec un niveau de détail par étape et une cartographie des dépendances entre tâches, • Mettre en place un contrôle statistique des processus appliqué aux métriques de flux : détecter les dérives des KPI par rapport aux limites de variabilité et développer des modèles prédictifs pour optimiser les temps de cycle, • Concevoir et maintenir des dashboards de suivi des flux ainsi que des visualisations d'analyse des goulets d'étranglement pour les équipes de production et les relecteurs de dossiers de lots, • Collaborer avec les data engineers pour intégrer les données SAP et les systèmes MES, en garantissant la qualité des données pour le suivi des lots et l'analyse des flux, • Travailler avec les équipes site pour cartographier finement les tâches de production et valider les dépendances, afin de soutenir la transition vers une séquence de lots optimisée, • Contribuer à l'intégration future de capacités de process mining et de workflows agentiques pour un ordonnancement intelligent des files de production. Référence de l'offre : 68gfaidg6x

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1541 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous