Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 490 résultats.
Freelance

Mission freelance
Architecte Data Fonctionnel – Spécialiste Data Product

Ipanema Technology
Publiée le
Azure Data Factory

1 an
600-700 €
Île-de-France, France
Au sein d’une direction data en pleine transformation pour un acteur majeur du conseil et de l’audit, vous rejoignez une équipe stratégique dont l'objectif est de passer d'une gestion de la donnée "support" à une vision "Data as a Product" . En tant qu' Architecte Data Fonctionnel , vous êtes le chef d'orchestre de la valeur. Votre mission consiste à concevoir les fondations des premiers produits data de l'organisation. Vous ne vous contentez pas de dessiner des flux ; vous concevez des actifs de données réutilisables, fiables et à forte valeur ajoutée pour les métiers. Vos principales missions : Conception & Stratégie : Définir l'architecture fonctionnelle des Data Products (modélisation, lignage, interopérabilité) en cohérence avec la stratégie globale. Binôme Product : Travailler main dans la main avec les Product Owners (PO) et Product Managers (PM) pour traduire les besoins business en spécifications techniques actionnables. Gouvernance & Qualité : Garantir que chaque produit respecte les standards de qualité, de sécurité et de conformité, tout en facilitant son adoption par les utilisateurs finaux. Acculturation : Porter la vision "Data Product" auprès des équipes techniques et métiers pour favoriser une culture orientée résultat et efficacité.
CDI

Offre d'emploi
ALTERNANCE - Chef de projet junior Gouvernance Data (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Microsoft Excel

Pantin, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Senior IT PMO – Trading / Data Platform Migration – Zurich (Remote)

Avanda
Publiée le

Zurich, Suisse
Avanda is a Swiss IT Consultancy. We are currently looking for a Senior IT PMO to join our international team at our global end client in the Zurich area. This is a long term opportunity (project goes into 2028) and you can work remotely and come once a month for meetings. THE ROLE You will join a multi-year Market Data to Data & Analytics Platform Migration programme in the Trading sector. As the PMO, you will support the workstream leads and the Project Manager on planning, coordination, and the day-to-day running of the programme across multiple workstreams. YOUR RESPONSIBILITIES Support workstream leads on planning, status tracking, and cross-workstream coordination Prepare and run project meetings: agenda, minutes, actions and decision logs, follow-up Maintain project documentation, status reports, and management updates Track open points, risks, issues, and dependencies across workstreams and escalate to the PM where needed Help with preparation of documents for the steering bodies Support onboarding of new project members and general project administration YOUR PROFILE 8+ years' classical PMO / project management support background Experience in IT and development team environments, ideally on larger migration or platform projects Strong organisational skills – structured, reliable, detail-oriented, and a self-starter Confident and experienced in stakeholder communication at working level Fluent in JIRA and standard PMO tooling Fluent English (mandatory); German is a plus Experience in Risk Management or Trading environments is a strong plus If this sounds like your next challenge and you would like to know more please send us your updated cv and we will call you shortly to discuss it in more details.
Freelance

Mission freelance
Data Analyst expert Dataiku

Nicholson SAS
Publiée le
Dataiku
MySQL
Salesforce

6 mois
600 €
Paris, France
Entité : Banque Site : Paris ; 50% TT Prix d’achat max : 600 euros Date de démarrage : ASAP Date de fin : 31/12/2026 Mission : Au sein de la direction Data Office & RPA / Reporting&Analytics nouvellement créée chez mon client, nous recrutons pour un poste d’analyste Data et Reporting dédié à la direction marketing. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein de la banque. Vos activités principales consisteront à accompagner les métiers marketing - dans 30 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité du groupe (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU.
Freelance

Mission freelance
Data Engineer confirmé (H/F) - 92

Mindquest
Publiée le
Apache Spark
Azure DevOps
Databricks

3 mois
400-550 €
Hauts-de-Seine, France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. - Analyse des traitements existants dans le cadre de projets de migration - Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake - Développement de notebooks Databricks pour des traitements avancés de données - Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) - Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) - Réalisation de revues de code dans une logique de qualité et de bonnes pratiques - Conception et exécution de tests unitaires - Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Freelance
CDI

Offre d'emploi
Data Analyst Qlik Sens - Rennes

Argain Consulting Innovation
Publiée le
Qlik
Qlik Sense
Qlikview

2 ans
40k-45k €
450-470 €
Rennes, Bretagne
Dans le cadre du renforcement de l’équipe décisionnelle, nous recherchons une prestation spécialisée dans la restitution et l’analyse de données sous Qlik afin d’accompagner les métiers dans la construction, l’évolution et l’optimisation de leurs tableaux de bord. Principales missions Accompagnement des métiers dans l’expression des besoins et participation aux phases de recette fonctionnelle. Analyse des sources, modélisation décisionnelle et conception des applications Qlik. Développement, évolution et maintenance de tableaux de bord QlikView et/ou Qlik Sense . Mise en forme, datavisualisation et valorisation des données pour faciliter l’aide à la décision. Contribution à l’optimisation des performances : modèles de données, scripts de chargement, organisation des applications. Documentation fonctionnelle et technique, participation aux travaux d’industrialisation. Support, diagnostic et résolution d’incidents sur les applications de restitution.
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM

3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Freelance

Mission freelance
Chef de projet Data - Lille

ICSIS
Publiée le
Méthode Agile

1 an
450-550 €
Lille, Hauts-de-France
La mission consiste à : Accompagner les interlocuteurs métier Piloter les projets de mise en place de flux Data Produire l'ensemble des livrables en accord avec la méthodologie Documenter et industrialiser Compétences attendues : Expériences significatives en chefferie de projet autour de la DATA Bonne maitrise technologique Pilotage de plusieurs projets simultanés Animation de réunions projets et suivi de plan d'action Animation d'acteurs internes et externes Mission basée sur la métropole lilloise avec télétravail partiel
Freelance
CDI

Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE

SMILE
Publiée le
Data science
IA Générative
RAG

6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Freelance
CDI
CDD

Offre d'emploi
Data Engineer / Data Ops (H/F)

QODEXIA
Publiée le
Apache Spark
AWS Cloud
Azure

10 jours
46k-48k €
430-450 €
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Contexte Notre client est un groupe qui constitue un majeur de la transition énergétique, engagé à atteindre la neutralité carbone d’ici 2045. Présent dans plus de 30 pays et fort de plus de 90000 collaborateurs, le Groupe intervient sur l’ensemble de la chaîne de valeur de l’énergie : production renouvelable, infrastructures gazières et services énergétiques. Le COE Data Groupe accompagne les entités du Groupe dans l’industrialisation de leurs usages data, en s’appuyant sur un écosystème moderne construit autour de Databricks. Dans ce cadre, le poste de Data Engineer / Data Ops contribue à concevoir, optimiser et exploiter des pipelines et architectures data fiables, scalables et alignés avec les besoins métiers.
Freelance

Mission freelance
🔷 Mission de DSI à temps partagé — 2 jours / semaine

Tenth Revolution Group
Publiée le
Data Lake
Microsoft Fabric

12 mois
Lyon, Auvergne-Rhône-Alpes
Groupe industriel en croissance cherche un DSI à temps partagé. Lyon / multi-sites France + Pays-Bas — 8 entités — 50 M€ de CA — Contexte LBO. Les fondations SI sont posées : ✅ Sage X3 en production depuis 2024 ✅ OroCommerce déployé début 2025 ✅ Power BI avec Fabric et data lake en cours de structuration Le chantier reste ouvert : ▶ Migration M365 ▶ Réseau WAN groupe ▶ Consolidation des filiales encore sous Sage 100 / Cegid ▶ Facture électronique avant fin 2026 ▶ Cybersécurité ▶ Plan de continuité d'activité Le tout dans un contexte de build-up actif. Ce groupe a besoin d'un DSI qui sait travailler sans armée, qui parle aux DG comme aux équipes terrain, qui pilote des prestataires sans en dépendre, et qui rend l'IT lisible pour des décideurs non techniques.
Freelance
CDI

Offre d'emploi
Data Engineering DBT / SQL (430€)

BEEZEN
Publiée le
DBT

6 mois
40k-81k €
340-430 €
Lyon, Auvergne-Rhône-Alpes
● Maîtriser DataForm pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DataForm pour structurer les pipelines data. ● Gérer des fl ux temps réel avec Pub/Sub. ● Automatiser les workfl ows data via GitLab CI/CD et Docker Compose. ● Travailler sous Linux et en ligne de commande. ● Versionner le code avec Git. ● Collaborer en environnement agile (Scrum). - Expériences (au moins 2 ans) sur des projets intégrant DBT 1 JOUR SUR SITE
Freelance
CDI

Offre d'emploi
Expert Data Engineering / DevOps AWS sur Plaisir

EterniTech
Publiée le
AWS Glue
DevSecOps
ETL (Extract-transform-load)

3 mois
Plaisir, Île-de-France
Je cherche pour un de mes client un Expert Data Engineering / DevOps AWS sur Plaisir Démarrage souhaité : ASAP Localisation : Plaisir Rythme : 3 jours sur site / semaine, 2 jours en télétravail Expérience requise : minimum 10 ans Langues : Français : échanges DSI / métiers Anglais : documentation et communication avec les filiales Contexte de la mission Dans le cadre de la mise en place de la dataplateforme SAO , un grand groupe industriel du secteur aéronautique recherche un expert Data Engineering / DevOps AWS capable de : Finaliser un premier use case d’ingestion de données ERP vers la dataplateforme. Industrialiser l’ingestion d’environ 120 tables. Automatiser les flux entre les couches Raw Data et Standardized . Accompagner la montée en compétence des équipes internes juniors. Documenter les travaux réalisés et sécuriser l’exploitabilité de la solution Attendus de la mission : Le profil devra intervenir sur la conception, l’industrialisation et l’accompagnement des équipes . 1. Volet Data Engineering AWS Analyse des besoins métiers autour des produits data Contribution aux spécifications fonctionnelles et techniques Conception d’architectures data adaptées à AWS Mise en place de pipelines d’ingestion robustes et automatisés Ingestion de données structurées, semi-structurées et non structurées Industrialisation des flux ERP / datalake vers la dataplateforme Automatisation du passage Raw Data → Standardized Production ou validation des data products Mise en place des bonnes pratiques de sécurité, scalabilité et conformité 2. Volet DevOps / industrialisation Mise en place ou optimisation des processus CI/CD Gestion des environnements DEV / PREPROD / PROD Déploiements non régressifs de data products Versioning du code, des schémas et de la data Supervision technique des traitements Pilotage des tests techniques, métiers, performance et sécurité Assistance au démarrage et suivi post-mise en production 3. Volet documentation / transfert de compétences Rédaction de la documentation projet, technique et utilisateur Rédaction des modes opératoires et cahiers de recette Transfert de compétences auprès des équipes internes Accompagnement des équipes juniors Digit SAO et Data Engineering Reporting hebdomadaire et remontée des risques / points d’avancement
Freelance
CDI

Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration

Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance

6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
CDI

Offre d'emploi
Product Owner Data H/F

JEMS
Publiée le

48k-60k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : k170vt48pi

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1490 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous