Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 301 résultats.
Freelance

Mission freelance
Product Owner DATA

Cherry Pick
Publiée le
Agile Scrum
AWS Cloud
CRM

24 mois
550-600 €
Paris, France

Dans le cadre d’une transformation majeure côté data , le département Data de notre client recherche un Product Owner Data pour piloter la roadmap produit du CRM Lakehouse . Le poste implique la coordination entre les équipes techniques et métiers afin d’assurer la convergence des données CRM vers un modèle harmonisé . Le contexte technique est exigeant et repose sur une stack moderne full AWS (multi-tenant) , associée à des pratiques d’infrastructure as code, d’industrialisation et de gouvernance data avancée. Environnement technique : AWS (multi-tenant), Terraform, GitLab CI/CD, Serverless, FastAPI, batch Python, Snowflake, Spark, Lambda, Kinesis, MSR Gouvernance : Data Steward, DataOps, DataFlops Collaboration internationale et en anglais courant impératif Projet long terme, démarrage immédiat ou début septembre Missions Définir la vision produit et les objectifs alignés sur la stratégie data globale du groupe. Prioriser et gérer le backlog , assurer le suivi et la bonne exécution des sprints. Contrôler la qualité et la cohérence des données CRM intégrées dans le Lakehouse. Animer des ateliers avec les filiales et recueillir les besoins métiers. Coordonner la communication entre équipes techniques, data et métiers pour fluidifier la mise en œuvre des évolutions produit.

Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Cloud

24 mois
200-400 €
Paris, France

Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel

Freelance

Mission freelance
Protection des données personnelles Opérationnel

Mon Consultant Indépendant
Publiée le
Data management

12 mois
490-510 €
Paris, France

La mission consiste à intervenir de façon opérationnelle sur les enjeux liés à la protection des données personnelles : RGPD, construire et mettre à jour un registre des traitements, faire les analyses de risques, assurer les entretiens. Compétences INDISPENSABLES attendues : METIER : - Expériences significatives et maitrise de RGPD et capacité à construire un registre des traitements. - Capacité à faire les analyses de risques, assurer les entretiens. - Fortes compétences en data management. Excellent niveau d’anglais.

Freelance

Mission freelance
CP DATA

SQLI
Publiée le
Pilotage

12 mois
500-650 €
Paris, France

Bonjour, Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un CP DATA. Objectif du poste : Piloter les projets Data liés aux référentiels produit et fournisseur du siège. Le Chef de Projet Data travaillera en binôme avec un Chef de Projet Fonctionnel, assurera le pilotage de l’équipe nearshore au Maroc, et la coordination des Business Analysts basés à Paris. Contexte fonctionnel : Le projet principal porte sur la gestion des référentiels de données produit et fournisseur. Une appétence forte pour les problématiques de référentiel est donc attendue.

Freelance

Mission freelance
Testeur Data

MLMCONSEIL
Publiée le
Confluence
Databricks
JIRA

6 mois
300-400 €
Paris, France

Pour le besoin de mon client, je suis à la recherche d'un Testeur Data Être le testeur référent de l’équipe Big Data Porter les chantiers d’automatisation de test, cahier de recette, TNR sur Squash... ... .... ... .... ... .... ... ... ... ... .. ... .. .. ... .. ... ... ... ... ... ... .. .. ... ... ... ... ... ... .. . . .. ... .. .. .. .. .. .. .. .. .. .. .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... . ...

Freelance
CDI

Offre d'emploi
Data Engineer Azure / Python

VISIAN
Publiée le
Azure
Azure Data Factory
Azure DevOps

1 an
Paris, France

Le rôle consiste à piloter des projets d’intégration temps réel et de data (big data & insights) , en assurant la conception et le déploiement de pipelines de données robustes pour les data scientists et data analysts. Il implique de proposer des solutions techniques adaptées , d’apporter une expertise sur les architectures Cloud , de garantir la qualité et la gouvernance des données (préparation, traçabilité, conformité) et d’optimiser les processus internes. Le poste demande également une collaboration internationale pour partager les bonnes pratiques et améliorer le data-sharing et la protection des données .

Freelance

Mission freelance
Business Data Analyst Finance - TM1 / Power BI (F/H)

Mindquest
Publiée le
Cognos
Microsoft Power BI

30 jours
110-560 €
Paris, France

Le/la consultant(e) interviendra en étroite collaboration avec les équipes métiers (commerce, direction) et la DSI. Les principales responsabilités seront : Analyser les tableaux de bord existants et recueillir les attentes auprès des utilisateurs, Repenser et développer des dashboards sous Power BI, en privilégiant lisibilité, interactivité et pertinence, Être force de proposition sur les KPI, les axes d’analyse et les formats visuels, Challenger la pertinence des indicateurs existants et proposer des alternatives plus efficaces, Réaliser les développements dans Power BI à partir des datasets fournis (et les faire évoluer si nécessaire), Accompagner les utilisateurs dans la prise en main des nouveaux outils (documentation, transfert de compétences), Mettre en place l’automatisation de l’envoi des KPI auprès de la force de vente.

Freelance
CDI

Offre d'emploi
Développeur MSBI - AZURE DATA FACTORY

BEEZEN
Publiée le
MSBI

3 mois
40k-45k €
310-500 €
Paris, France

La mission s’inscrit principalement dans les évolutions de la plateforme Data utilisant principalement les outils SSIS , ADF et python Dans ce cadre, les taches qui seront proposées sont les suivantes : • Participation au cadrage de la solution à implémenter • Développement des US • Suite de la recette, de l’UAT et de la production. • Maintenance ; • Rédactions de documentation • Amélioration continue du modèle de développement • Veille au respect des standards de développement. Profil recherché Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Stack Technique : • Très bonne connaissance des outils BI de Microsoft SQL SERVER 2019/2022 (SSIS,SSRS), • Très bonne connaissance en base de données relationnelles et SQL, • Très bonne connaissance de la plateforme Azure BI Data Factory • Compétences Python , librairie Pandas appréciés. • Bon niveau de connaissance sur Azure DevOps NATIONALITE FRANCAISE EXIGEE

Freelance
CDI

Offre d'emploi
Data Analyst / Data Scientist / Ingénieur IA (H/F)

Accelite
Publiée le
AI
Alteryx
Apache Spark

1 an
Paris, France

En tant que Data Analyst ou Data Scientist ou AI Ingineer , vous contribuez aux projets stratégiques de grands comptes bancaires en intervenant sur l’analyse, le traitement et la valorisation des données bancaires et financières. Vos principales missions : Recueillir et analyser les besoins métiers Collecter, structurer et traiter les données chiffrées issues de différentes sources Nettoyer les données (suppression des doublons, gestion des valeurs manquantes, etc.) Développer des algorithmes pour l’exploitation des données (analyse statistique, machine learning) Concevoir et construire des actifs informatiques dédiés à la préparation et à la visualisation des données Développer du code ou des scripts s’appuyant sur des données structurées et non structurées Participer aux phases de tests, recettes et validation des solutions déployées Installer et configurer les outils requis dans le respect du cadre de référence technique Assurer la maintenance évolutive et corrective des solutions déployées, intervenir en support si nécessaire Rédiger la documentation associée (use cases, développements, procédures) Lieu : Paris – Client : Grand établissement bancaire – Type de mission : CDI / Freelance / Portage Démarrage : ASAP – Durée : 3 ans

CDI

Offre d'emploi
CHEF(FE) DE PROJET FLUX DATA AZURE DATABRICKS

GROUPE ALLIANCE
Publiée le
Azure Data Factory
Databricks

55k-60k €
Paris, Île-de-France

ACCROCHE SI TU ADORES TRAITER DES TERRITOIRES DE DONNÉES XXL, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la gestion de données massives et distribuées Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras : Les pipelines Big Data, tu concevras et développeras Les traitements batch et temps réel, tu industrialiseras La qualité et la fiabilité des données, tu sécuriseras L’architecture des flux de données, tu mettras en œuvre Les performances et la scalabilité, tu optimiseras Les solutions cloud ou on-premise, tu intégreras Ton équipe projet, tu accompagneras Aux instances data et techniques, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de ans minimum en ingénierie Big Data Expert(e) en Habile avec AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !

Freelance

Mission freelance
Data Architecte AWS

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
AWS Cloud

24 mois
600-650 €
Paris, France

Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle. L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme. L’environnement technique inclut : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Définir l’ architecture cible du data layer convergé dans un environnement AWS. Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles. Sélectionner les outils et normes d’intégration adaptés aux besoins. Participer au développement et à l’automatisation des pipelines et transformations de données. Superviser la convergence des données multi-source et garantir leur cohérence. Contribuer aux déploiements via Terraform et GitLab CI/CD. Documenter l’architecture et les référentiels techniques. Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.

CDI

Offre d'emploi
Data Architecte Databricks - Paris

KOMEET TECHNOLOGIES
Publiée le
Databricks

65k-80k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
Data Ops

ALLEGIS GROUP
Publiée le
Apache Kafka
DevOps
Linux

3 mois
210-700 €
Paris, France

Fiche de Poste : Ingénieur DevOps Contexte Notre technologie répond aux défis persistants du monde des paiements. Nous concevons et exploitons des solutions de paiement numérique et transactionnelles de pointe, favorisant une croissance économique durable tout en renforçant la confiance et la sécurité dans nos sociétés. Le poste En tant qu’ Ingénieur DevOps , vous jouerez un rôle clé dans l’intégration, le déploiement et la validation de solutions logicielles et matérielles. Vous interviendrez sur l’ensemble du cycle de vie des projets, de la préparation des environnements à la validation finale, en passant par les tests automatisés et le support client.

Freelance

Mission freelance
Chef de projet Data Gouvernance

CAT-AMANIA
Publiée le
Apache Kafka
Google Cloud Platform (GCP)

1 an
510-700 €
Paris, France

Je suis à la recherche pour un de nos clients d'un Chef de projet Data Gouvernance. Bonne maîtrise technique et fonctionnelle des solutions modernes d’intégration de données. Il devra s’assurer de la bonne application des lignes directrices d’implémentation. Il devra assurer le déroulé projet dans le respect des engagements et des livrables, participer à l’élaboration des choix techniques ou d’architecture, orienter les développements pour garantir l’adéquation entre le besoin fonctionnel et les bonnes pratiques du marché en termes d’intégration et de gestion des pivots. Environnement technique basé sur GCP et articulé autour de Kafka

Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

CDI

Offre d'emploi
Ingénieur Data Senior - Azure

Focus Cloud Group
Publiée le
Azure
Azure Data Factory
Databricks

Paris, France

Ingénieur Data Senior – Azure | Spark | Microsoft Fabric Localisation : Paris (hybride) Nous sommes un partenaire de référence de Microsoft , spécialisé dans la mise en œuvre de solutions cloud et data pour des clients grands comptes en Europe. Grâce à notre expertise approfondie de l’écosystème Microsoft, nous accompagnons nos clients dans leur transformation digitale, en concevant des plateformes de données modernes, scalables et sécurisées. Dans le cadre de notre développement, nous recherchons un(e) Ingénieur(e) Data Senior expérimenté(e) sur Apache Spark, Azure Synapse Analytics, Databricks et Microsoft Fabric. Ce rôle technique et orienté client vous amènera à piloter la conception et la mise en œuvre de solutions data de bout en bout dans un environnement cloud Azure. Vos missions Concevoir et développer des plateformes data modernes sur le cloud Azure, avec Databricks, Synapse et Microsoft Fabric. Développer des pipelines de données performants et scalables avec Apache Spark (PySpark, SQL ou Scala). Mettre en œuvre des processus d’ingestion de données structurées, semi-structurées et non structurées. Définir des modèles de données robustes et des logiques de transformation pour les cas d’usage analytiques. Orchestrer les flux de données via Azure Data Factory ou Microsoft Fabric Pipelines. Garantir la qualité, la gouvernance, la sécurité et la traçabilité des données via les services natifs d’Azure. Collaborer avec les architectes, les analystes et les parties prenantes pour aligner les solutions techniques sur les enjeux métiers. Encadrer des profils plus juniors et participer activement au partage de connaissances internes. Contribuer aux avant-ventes, aux réponses à appels d’offres et aux ateliers clients. Assurer une veille constante sur les nouvelles technologies du domaine data & cloud. Compétences techniques requises Maîtrise avancée d’Apache Spark (idéalement PySpark) et optimisation de performances. Expérience pratique sur Microsoft Fabric (Lakehouse, Pipelines, Notebooks...). Expertise sur Databricks (workflows de développement, Delta Lake, Unity Catalog…). Compétence en orchestration avec Azure Data Factory et/ou Fabric Data Pipelines. Bonne connaissance des architectures Lakehouse, modélisation dimensionnelle, et bonnes pratiques ELT/ETL. Connaissance des pratiques DevOps dans Azure (CI/CD, Azure DevOps). Compréhension des enjeux de gouvernance des données, sécurité et gestion des accès (RBAC) dans Azure. Atouts supplémentaires Expérience préalable dans un cabinet de conseil ou un environnement de services professionnels. Maîtrise de Power BI, notamment dans un contexte Microsoft Fabric. Familiarité avec les outils d’Infrastructure as Code (Bicep, Terraform). Connaissances des technologies temps réel : Azure Event Hub, Stream Analytics ou équivalents. Expérience de collaboration avec des équipes Data Science ou sur des pipelines de Machine Learning. Profil recherché Excellente communication, à l’aise pour vulgariser des concepts techniques auprès d’un public non technique. Approche orientée conseil, avec une capacité à identifier les besoins métiers et proposer des solutions data sur mesure. Esprit d’équipe, proactivité, rigueur et autonomie. Expérience en environnement agile ou orienté livraison. Maîtrise du français et de l’anglais (à l’écrit comme à l’oral).

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

301 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous