Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 493 résultats.
Freelance

Mission freelance
Power BI : construction et exploitation de tableaux de bord MOA

INSYCO
Publiée le
API
Data governance
DAX

24 mois
500-620 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Expert Power BI Senior pour la construction de tableaux de bord MOA et industrialisation Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/PBI/5292 dans l'objet de votre message La direction MOA d'un grand groupe audiovisuel français travaille à la réalisation de tableaux de bord sous Power BI pour plusieurs domaines fonctionnels : contrôle interne, achats, immobilier et services généraux. Ces tableaux comportent des indicateurs opérationnels et des indicateurs stratégiques. Le processus en place consiste à réaliser des prototypes non industrialisés côté MOA, avant de les confier à l'équipe IT pour industrialisation. La prestation a pour objectif de réaliser ces prototypes pour le compte des chefs de projets fonctionnels concernés, avec un double objectif : qu'ils soient opérationnels pour les équipes métier et prêts à être industrialisés par l'équipe IT. Missions principales Développement Power BI Modéliser les données : création de modèles relationnels, gestion des relations, optimisation des performances Écrire des mesures et colonnes calculées complexes en DAX, optimiser les formules Extraire, transformer et charger les données via Power Query (ETL) Créer des rapports interactifs avec drill-down et filtres dynamiques Calculer des indicateurs (KPI) et réaliser des agrégations temporelles Connecter les rapports à différentes sources de données : SQL Server, Excel, APIs, bases de données Architecture et industrialisation Respecter les bonnes pratiques de développement : nommage, documentation, modularité Concevoir des modèles modulaires facilitant la reprise par l'équipe IT Gérer les versions et assurer le contrôle de source Produire une documentation technique complète des modèles et requêtes Analyse métier et collaboration Traduire les besoins métier en spécifications techniques Distinguer et modéliser les indicateurs opérationnels versus stratégiques Identifier les données pertinentes et leurs sources Collaborer avec les chefs de projets fonctionnels sur les domaines suivants : contrôle interne (conformité, risques, audits), achats (commandes, fournisseurs, budgets, délais), immobilier (patrimoine, occupations, coûts), services généraux (ressources, maintenance, coûts d'exploitation) Respecter les délais de livraison des prototypes Restituer et présenter les livrables aux équipes métier Livrables attendus Prototypes Power BI fonctionnels et testés Documentation technique : modèles de données, dictionnaire des mesures Guide d'utilisation pour les utilisateurs métier Dossier de transfert pour industrialisation par l'équipe IT
Freelance
CDI

Offre d'emploi
Data Analyst Paiement / Monétique (H/F)

STORM GROUP
Publiée le
Azure
Google Cloud Platform (GCP)
Monétique

3 ans
50k-55k €
450-470 €
Île-de-France, France
Les missions du data analyst sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst du SI Paiement et les membres de la squad Monétique (data viz, data engineer, business analyst) • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs.
CDI

Offre d'emploi
Actuaire - Data Scientist - Prévoyance H/F

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

42k-75k €
Strasbourg, Grand Est

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Chef de Projet Documentation & Gouvernance Data H/F

█ █ █ █ █ █ █
Publiée le
Google Drive

40k-50k €
Blagnac, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Manager / Senior Manager Data & IA

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Engineering - DBT / SQL Junior (350€ MAX)

BEEZEN
Publiée le
DBT

6 mois
28k-35k €
280-350 €
Île-de-France, France
La prestation s’inscrit au sein de l’équipe technique et participe à l’industrialisation des flux de données. Ses missions principales sont : ● Ingestion Multi-sources : Développer des connecteurs et des scripts pour collecter des données via API (SaaS, partenaires) ou extractions de bases de données. ● Transformation (ETL/ELT) : Nettoyer, enrichir et structurer les données brutes dans BigQuery pour les rendre exploitables par les analystes et Data Scientists. ● Automatisation & Orchestration : Déployer et monitorer les chaînes de traitement (DAGs) pour garantir la disponibilité et la qualité des données au quotidien. Livrables : ● Pipelines de données opérationnels et documentés. ● Scripts de transformation SQL et Python. ● Confi guration des orchestrateurs (Composer/Airfl ow). ● Documentation des schémas de données cibles." ● Maîtriser DBT pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DBT pour structurer les pipelines data
Freelance
CDI

Offre d'emploi
Data Analyst MSBI

UCASE CONSULTING
Publiée le
Cognos
Microsoft SSIS

12 mois
40k-45k €
400-550 €
Paris, France
Le data Analyst BI a pour mission de consolider les données clients à des fins analytiques et statistiques. Il intervient sur les projets stratégiques : lancement de produit, consolidation financière, étude de risques, suivi d’activité. Dans le cadre de ses missions, il échange avec l’ensemble de l’équipe data et travaille en collaboration étroite avec les experts métiers de la finance, du risque et du marketing pour fournir des données consolidées de qualité. Il sait vulgariser ses travaux pour les partager et comprendre les priorités du métier. Le développement, l’industrialisation et le déploiement de flux de données font partie de ses missions principales. Il est également amené à suivre et à améliorer continuellement la qualité de nos livrables et de notre run. Il travaille dans un contexte agile au sein d’une équipe pluridisciplinaire (Architect, Analyst, Scientist) et d’experts passionnés par la data et les nouveaux usages. Il partage efficacement sur ses travaux en maintenant la documentation de l’équipe à jour et en réalisant des présentations. Enfin il veille en permanence sur les ruptures technologiques et réalise des POC pour mieux les appréhender. Missions : • Challenge, cadrage, chiffrage et priorisation des besoins métiers • Exploration et fouille de données • Industrialisation de traitement • Suivi du RUN • Documentation
Freelance

Mission freelance
Data Engineer – Tracking & Analytics

Nicholson SAS
Publiée le
BigQuery
Google Tag Manager
Looker Studio

7 mois
340 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d'une refonte majeure des outils de mesure d'audience, nous recherchons un Data Engineer pour accompagner la migration de l'écosystème analytics (transition de Adobe Analytics vers Piano Analytics ). Intégré(e) au département Solutions Digitales au sein d’une équipe agile, vous serez le garant de la collecte, de la transformation et de la restitution des données issues des canaux digitaux. La mission repose sur une exploitation avancée de la suite Google Data (GTM, BigQuery, Looker Studio). Missions principales 1. Implémentation & Tracking Accompagner les métiers dans la définition des besoins en tracking et des KPI associés. Assurer le paramétrage via Google Tag Manager (GTM) . Réaliser la recette des données lors des phases de test et après mise en production des features. 2. Engineering & Data Pipeline Concevoir et maintenir les flux d'ingestion de données vers BigQuery . Développer des scripts de transformation et d'ingestion (principalement en Node.js et Python ). Assurer le monitoring quotidien des flux (interventions et correctifs si nécessaire). Intégrer de nouvelles sources de données pour enrichir le pilotage global du projet. 3. Restitution & Analyse Fiabiliser et mettre à disposition les données dans Looker Studio . Analyser les données produites pour en extraire des enseignements actionnables. Contribuer à l'amélioration continue des processus et des méthodes de l'équipe. 4. Collaboration Agile Interagir étroitement avec les différents corps de métier (PO, UX, Architectes, Développeurs, Testeurs) pour la co-construction des fonctionnalités. Participer activement aux rituels du train Agile. Modalités pratiques Lieu : Niort (79) – Présence sur site obligatoire 3 jours/semaine . Démarrage : ASAP. Durée : Jusqu'au 31/12/2026. Budget d'achat max : 340 € HT / jour.
Freelance

Mission freelance
Expert Infrastructure IBM MQ – Support N3 & Solutionning Data Platform

Deodis
Publiée le
IBM i

1 an
570 €
Île-de-France, France
Poste d’expert infrastructure senior chargé d’assurer le maintien en condition opérationnelle et le support de niveau 3 d’infrastructures critiques de transfert de données basées sur la technologie IBM MQ, au sein d’un environnement orienté Data Platform. La mission implique également une forte contribution au solutionning technique dans le cadre de projets métiers, avec la conception et l’optimisation d’architectures d’échange de flux complexes. Elle nécessite une expertise avancée en scripting, une bonne maîtrise des environnements Windows et Unix, ainsi qu’une capacité à intervenir dans un contexte international, avec un haut niveau d’autonomie et de communication en anglais.
Freelance
CDI
CDD

Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python

IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks

8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Freelance
CDI

Offre d'emploi
Data Engineer TERADATA ET BIGDATA

WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)

12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
Freelance

Mission freelance
Ingénieur Infra Data / Database – DevOps minded (Expert L3)

HAYS France
Publiée le
Ansible
Cassandra
Linux

3 ans
400-650 €
Île-de-France, France
Nous recherchons pour un de nos clients basés en IDF, un pour une mission freelance (longue visibilité) Objectif de la mission: Dans le cadre du renforcement de ses équipes techniques, notre client recherche un Ingénieur Infra Data / Database senior , disposant d’une double casquette Infra & DevOps , capable d’intervenir sur des environnements critiques en support expert niveau 3 (L3) et sur des projets orientés services et plateformes data . L’objectif est de garantir la fiabilité, la performance, la résilience et l’industrialisation des environnements bases de données, tout en apportant une forte valeur ajoutée en automation et bonnes pratiques DevOps .
Freelance
CDI

Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)

OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage

3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance • Capacité à interagir avec des équipes techniques et métiers
Freelance
CDI

Offre d'emploi
Data Architect

ONSPARK
Publiée le
Cloudera
Hadoop

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Architect pour accompagner nos clients grands comptes. Responsabilités Concevoir et faire évoluer l'architecture globale de la plateforme de données Définir les standards et bonnes pratiques de modélisation Accompagner les équipes techniques dans leur mise en œuvre Assurer la cohérence entre les besoins métier et les choix techniques Veiller à la sécurité et à la conformité des architectures (RGPD, ISO 27001)
Freelance

Mission freelance
Consultant Senior Data — Migration SAS → Python | Assurance | La Défense

SETELIA
Publiée le
Numpy
Pandas
Python

3 mois
430-550 €
La Défense, Île-de-France
Notre client, acteur majeur du secteur de l'assurance, engage la décommission complète de sa plateforme SAS. L'objectif : migrer l'intégralité des requêtes, programmes et traitements data vers Python, à isorésultat. Le consultant intègre une équipe data en place et travaille en interface directe avec les métiers assurance (actuariat, reporting, conformité). Périmètre : Audit et recensement de l'ensemble des requêtes SAS (KPIs, règles métier, fréquences) - Rétro-analyse fonctionnelle de chaque programme SAS - Ateliers de validation avec les utilisateurs métiers - Développement Python (pandas, numpy, SQL) en miroir exact de l'existant SAS - Tests de non-régression systématiques (comparaison outputs SAS vs Python) - Documentation technique et fonctionnelle du nouveau code Stack & compétences : Python — expertise confirmée (pandas, numpy, scripting data, automatisation) - SAS — lecture, compréhension et rétro-analyse de code - SQL — requêtage avancé, optimisation - Migration SAS → Python — au moins une référence mission similaire - Secteur assurance — connaissance des produits, du reporting réglementaire ou de l'actuariat (un secteur régulé équivalent type banque/mutuelle est accepté) - Interface métier — à l'aise en atelier, recueil de besoin, vulgarisation technique Conditions : Séniorité : 7 ans minimum - TJM : 600€ – 650€ - Démarrage : ASAP - Durée : 3 mois / 60 jours — renouvelable - Lieu : Paris La Défense — 100% sur site - Remote : non - Astreinte / HNO : non Merci d'envoyer CV + TJM + dispo. Réf. : DATA-SAS-PY-2026-05
CDI
CDD

Offre d'emploi
Data Engineer Big Data / BI 

adbi
Publiée le
Apache Hive
Apache Spark
Cloudera

12 mois
38k-46k €
Paris, France
Data Engineer Big Data / BI – Scala, Spark, SQL, Hive, Cloudera (H/F) 💼 Contrat : CDI 🏢 Entreprise : ADBI – Expert en Data Management et transformation digitaleContexte du poste Dans le cadre de l’évolution de ses plateformes Big Data et décisionnelles, ADBI recherche un(e) Data Engineer pour intervenir sur des projets d’intégration, de transformation et d’industrialisation de données. Vous participerez à la migration et à l’optimisation d’environnements Big Data (Cloudera, Spark, Hive, Scala) et contribuerez à la mise en place de solutions BI performantes et scalables.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1493 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous