Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 464 résultats.
Freelance
CDI

Offre d'emploi
AMOA / Business Analyst Data - H/F

K-Lagan
Publiée le
AMOA
Cloudera
Informatica

1 an
45k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique , proximité et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Consultant AMOA Data (F/H) pour rejoindre l’un de nos clients des secteurs Assurances basé entre à Niort . Missions principales : Accompagner les équipes métiers dans leurs usages autour de la data Réaliser des analyses et apporter du conseil sur les sujets data Assurer le support fonctionnel auprès des utilisateurs Participer à la production des livrables fonctionnels Concrètement : Recueillir et analyser les besoins métiers Conseiller les équipes sur l’exploitation des données Participer au cadrage et aux études de faisabilité des projets data Garantir la cohérence des solutions mises en place Réaliser les recettes fonctionnelles et suivre les anomalies Produire la documentation (spécifications, modélisation de données) Assurer le suivi de la qualité et la satisfaction des utilisateurs
Freelance

Mission freelance
Data engineer orienté back end (Python) PostgreSQL - AWS - Airflow

Celexio
Publiée le
AWS Cloud
Bash
CI/CD

6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Freelance

Mission freelance
Data Analyst – Data produit & trafic web - Paris (H/F)

EASY PARTNER
Publiée le
Apache Spark
Microsoft Power BI
PL/SQL

1 an
400-430 €
Paris, France
Dans le cadre de projets liés à l’analyse de la performance digitale (web et mobile), un acteur du secteur digital recherche un Data Analyst . Les missions portent sur l’analyse des données de trafic et des usages utilisateurs. Missions Analyser les données d’usage (web / mobile / trafic) Construire et maintenir des dashboards métiers (Power BI, Tableau) Suivre les KPIs produits et business Collaborer avec les équipes produit et techniques Participer au reporting et à la prise de décision Power BI tracking web outils analytics (type GA, dataLayer…) SQL avancé Power BI / Tableau Python
CDI

Offre d'emploi
Data Designer

CAT-AMANIA
Publiée le
Confluence

Île-de-France, France
Le Data Designer : • sera rattaché au Shared service Data Office • interviendra dans les trains SAFe, pour représenter la composante Data dans le rôle System Architect du train ; Il travaillera avec deux autres architectes (technique & fonctionnel) pour accompagner les équipes agiles. • pourra intervenir sur des sujets transverses, dans le Shared service Data Office Requis • Connaissance des principes de modélisation (UML, Merise, etc) • Connaissance de la gouvernance des données • Connaissance architecture Datacentric • Connaissance Event Driven Architecture • Bonne connaissance du monde bancaire • Capacité à mener des interviews, et à coordonner des contributeurs • Capacité à travailler en mode agile Souhaité : • Connaissance de la modélisation des processus
Freelance

Mission freelance
Data Analyst Power BI

Groupe Aptenia
Publiée le
Azure
Microsoft Power BI
Python

8 mois
400 €
Strasbourg, Grand Est
🔍 Nous recherchons un Data Analyst Power BI pour renforcer une équipe Data dans un contexte industriel international 🎯 Vos missions principales ✅ Concevoir et développer des dashboards Power BI pour les métiers (reporting, analyse) ✅ Interagir avec les équipes business pour comprendre et traduire les besoins ✅ Contribuer à la valorisation des données dans un environnement Azure / Databricks ✅ Collaborer avec les équipes Data Engineering en France et en Allemagne 🧩 Contexte Environnement industriel Interaction directe avec le siège en Allemagne Enjeux Data à l’échelle européenne et internationale Volonté de renforcer l’expertise Data côté France
Freelance
CDI

Offre d'emploi
Data Engineer - SPARK/SCALA/DATABRICKS

UCASE CONSULTING
Publiée le
Apache Spark
Azure
Databricks

1 an
40k-66k €
400-600 €
Île-de-France, France
📢 Data Engineer Scala Spark – Environnement Cloud (H/F) 🧩 Contexte Dans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements. Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée. 🚀 Missions principales Développement de pipelines data en Scala / Spark (batch principalement) Optimisation des traitements et gestion de volumétries importantes Mise en place et amélioration des bonnes pratiques de développement Participation à l’architecture et aux choix techniques Collaboration avec les équipes métiers et techniques Contribution au mentoring et partage de connaissances 🧰 Stack technique Scala / Spark Maven Environnement Cloud (AWS ou Azure) Databricks (selon contexte) API HTTP Stack ELK (optionnel) ✅ Must have Solide expérience en Scala / Spark (batch) Maîtrise des optimisations Spark Expérience sur fortes volumétries de données Bonnes pratiques de développement (clean code, build, versioning) Expérience en environnement Cloud (AWS ou Azure) Minimum 5 ans d’expérience en Data Engineering ➕ Nice to have Expérience avec Databricks Développement d’ API HTTP Connaissance de la stack ELK Expérience en environnement multi-projets 🤝 Soft skills Esprit d’analyse et rigueur Autonomie et force de proposition Bon relationnel et esprit d’équipe Capacité à comprendre les enjeux métiers Sens des priorités et gestion des délais 🎓 Profil Formation Bac+3 à Bac+5 en informatique Anglais technique requis 8 ans d'expériences MINIMUM ! 📍 Modalités Télétravail partiel (jusqu’à 3 jours / semaine) Mission longue Démarrage : ASAP
Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop

1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Freelance

Mission freelance
Consultant Senior – Data Migration SAP / Talend (H/F)

KN CONSULTING
Publiée le
Legacy System Migration Workbench (LSMW)
SAP MM
SAP PP

6 mois
400-700 €
Corbeil, Grand Est
Contexte mission Dans un environnement industriel critique, nous recherchons un consultant senior pour intervenir sur une migration de données complexe en difficulté . Le projet nécessite une forte capacité de structuration, de remise à plat et de sécurisation des flux de données. Missions Mise en œuvre de flux de migration via Talend (ETL) Mapping, transformation et réconciliation de données Contrôle des écarts et data quality Mise en place de protocoles de migration Contribution à une approche structurée de type migration factory
Freelance

Mission freelance
Data Scientist / GenAI /LLM

Pickmeup
Publiée le
Machine Learning
Python
Pytorch

2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
CDI
Freelance

Offre d'emploi
data engineer AWS, Snowflake, SAP

LEVUP
Publiée le
AWS Glue
MySQL
Python

1 an
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Participer à une intégration d'SAP Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) SAP Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Freelance

Mission freelance
AMOA IA

Codezys
Publiée le
Data science
Formation
IA Générative

12 mois
Nantes, Pays de la Loire
Contexte de la mission Ce profil senior jouera un rôle stratégique et opérationnel en tant que pont entre l’ Intelligence Artificielle (IA) Fet et les Directions métiers , afin d’assurer une coordination efficace avec les Services Support concernés. Détection et Cadrage Accélérer l’identification des besoins métiers et repérer les opportunités de projets IA à forte valeur ajoutée, en vue de les relayer à l’ IA Factory . Acculturation Sensibiliser et former les Chefs de Projet (CP) et Product Owners (PO) des directions opérationnelles aux enjeux et aux capacités de l’IA. Accompagnement Opérationnel Soutenir et sécuriser le développement ainsi que le déploiement des solutions IA au sein des équipes concernées. Levée de Freins Identifier les obstacles à l’appropriation des outils IA par les utilisateurs finaux et proposer des plans d’action correctifs adaptés. Synergies et Collaboration Favoriser le développement de synergies efficaces entre l’ IA Factory et les directions opérationnelles afin de maximiser la performance collective. Production de Documents Rédiger des études d’opportunités, élaborer des schémas fonctionnels, concevoir des solutions technologiques, rédiger des cahiers des charges, et préparer des comptes rendus synthétiques.
CDI
Freelance

Offre d'emploi
Data Analyst Dataiku/Tableau/SAS

OBJECTWARE
Publiée le
Dataiku
SAS
Tableau software

3 ans
40k-83k €
400-610 €
Île-de-France, France
La mission consistera à fournir des analyses & reportings sur la qualité des données du client, sur les outils Dataiku et Tableau. Recueillir les expressions de besoin des Directions et organiser / animer les ateliers de cadrage avec les métiers • Réaliser la préparation des données sous Dataiku • Mettre à jour le dictionnaire de données/ Documentation • Développer en mode agile (sprint de 2 semaines, daily meeting, sprint planning, sprint review, retrospective, démonstrations,…) • Créer les dashboards sous Tableau • Organiser la recette avec les métiers • Appliquer les bonnes pratiques de l’équipe en matière de datapreparation/ datavisualisation • Effectuer la migration des projets sous SAS vers Dataiku
Freelance

Mission freelance
Data Engineer (H/F)

Trust IT
Publiée le
Bash
Cloudera
DevOps

1 an
450-510 €
Charenton-le-Pont, Île-de-France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Data Engineer (H/F) Contexte : Des tâches quotidiennes liées au maintien de la production en condition opérationnelle. Vos interlocuteurs privilégiés seront les équipes de production applicative, les équipes infrastructures, les plateformes internationales, mais également les équipes métiers pour lesquelles vous apporterez votre support et votre expertise technique. Missions : Conception et mise en œuvre de l'ingestion et du stockage de données : Identifier et formaliser les besoins des métiers en matière de collecte et de stockage de données. Développer des solutions d'acquisition de données via API. Concevoir et implémenter des architectures de stockage de données robustes (Ex: Ozone, Hadoop, Druid, Clickhouse…). Valider la qualité des développements par des tests unitaires et d'intégration. Automatiser les traitements de données via la mise en place et la maintenance de batch. Valorisation et sécurisation des données : Industrialiser les processus de nettoyage et de transformation des données. Gérer et documenter des bases de données hétérogènes, en intégrant diverses sources de données. Veiller à la conformité RGPD dans la gestion du cycle de vie des données. Superviser l'exploitation et assurer la maintenance corrective et évolutive des systèmes de données. Intégration et suivi des modèles prédictifs : Industrialiser le déploiement de modèles statistiques et de machine learning. Mettre en place des dispositifs de validation et de monitoring des modèles. Assurer le suivi opérationnel et la maintenance des modèles intégrés aux applications. Contribution au pilotage projet : Définir les spécifications techniques précises en appui de l'analyse des besoins. Environnement technique : Les composants basés sur le logiciel de l’éditeur Cloudera CDP 7.1 :Hbase, Hive, Kafka, Solr, Knox, Spark,Ranger, Zookeeper, Kerberos LDAP... •Être force de proposition sur les évolutions techniques du périmètre Data avec la nouvelle offre containérisée : Cloudera Data Services (Infra Openshift K8s) •Contribuer à l'élaboration et à l'exécution des stratégies de migration des clusters Hadoop Cloudera. •Aisance avec l’écosystème Apache (Outils OpenSource),Build (Java, Maven, Gradle...), Automatisation avec Ansible •Connaissance Trino/Starburst, AirFlow, Flink •Participer à la résolution de problèmes complexes sur les plateformes Data (Capacité d’analysedes incidents applicatif de type Hive, Yarn, Spark...) •Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge. •Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation .Couverture horaire de l’équipe : 8h/19h
Freelance

Mission freelance
POT9104 - Un Senior Data Engineer Talend sur Vélizy-Villacoublay.

Almatek
Publiée le
SQL

6 mois
Vélizy-Villacoublay, Île-de-France
Almatek recherche pour l'un de ses clients Un Senior Data Engineer Talend sur Vélizy-Villacoublay. Contexte de la mission Dans le cadre du programme de Digital and Data Transformation du Groupe, a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Senior Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data, la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales. Environnement Technique Data Engineering & Architecture • ETL : Talend, SSIS, Azure Data Factory (ADF) • Bases de données & requêtage : Microsoft SQL Server, SQL avancé • Modélisation : Data Warehouses, Data Marts, Data Cubes • Transformation data : dbt • Architecture moderne : Medallion Architecture • Moteurs distribués : Trino (ou équivalent) • Stockage objet : MinIO (ou équivalent) • Data Lake & ingestion via APIs, fichiers, flux batch Microsoft Stack • SQL Server Database Engine • SSIS, SSAS • Power BI Reporting Services (PBIRS) • Langages : SQL, DAX, MDX • Optimisation des performances et tuning avancé Cloud & Bonus • Nice to have : GCP (BigQuery, GCS, Dataproc) CI/CD & Industrialisation • Pipelines CI/CD automatisés • Azure DevOps, GitLab • Déploiement, intégration continue, tests automatisés • Qualité de code, orchestration, build & release automation
Freelance

Mission freelance
Développeur Salesforce - projet Agentforce - Data Cloud

KUBE Partners S.L. / Pixie Services
Publiée le
Agent IA
Salesforce

6 mois
Hauts-de-Seine, France
Dans le cadre du développement de ses activités autour de Salesforce et des solutions d’IA, notre client est à la recherche de Développeurs Salesforce expérimentés pour intervenir sur des projets innovants intégrant Agentforce, la data et le CRM 360 . Vous participerez à la conception et à la réalisation de solutions couvrant : Les processus métiers : vente, service client, marketing La gestion, transformation et exploitation des données L’intégration de cas d’usage liés à l’ intelligence artificielle (Agentforce / IA Salesforce) Développement en Apex, Lightning Web Components (LWC) et Flows Configuration des clouds Salesforce : Sales Cloud Service Cloud Mise en place d’automatisations et de logiques métiers avancées Garantir la qualité du code : tests, revue de code, bonnes pratiques
Freelance

Mission freelance
Data Analyst

PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance

1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1464 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous