Find your next tech and IT Job or contract Big Data

What you need to know about Big Data

Big Data refers to the massive and complex data generated at high speed by various sources, such as social networks, IoT sensors, online transactions, or mobile applications. This data, often voluminous, heterogeneous, and continuously growing, exceeds the capabilities of traditional management and analysis tools. Big Data relies on the 3Vs: Volume (quantity of data), Velocity (speed of generation and processing), and Variety (diversity of formats, structured or not). It is often associated with a fourth V: Veracity (data reliability). Big Data technologies, such as Hadoop, Spark, or NoSQL, enable storing, processing, and analyzing this data to extract valuable insights. These analyses are used in various fields, such as personalized marketing, finance, healthcare, or industrial optimization. Big Data plays a key role in innovation, decision-making, and digital transformation of businesses.

Your search returns 123 results.
Permanent

Job Vacancy
Data Architect

Inventiv IT
Published on
AWS Cloud
Azure
BI

65k-80k €
Paris, France

Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps

Permanent

Job Vacancy
Product Owner Data CDI

Hexateam
Published on
Amazon S3
AWS Cloud
AWS Glue

40k-65k €
Ile-de-France, France

Contexte du projet Notre client met en place et fait évoluer une Data Platform permettant l’intégration, la mise en qualité et la mise à disposition de données (brutes ou retravaillées) issues de plusieurs producteurs, afin de répondre à des besoins opérationnels et analytiques à grande échelle. Missions principales Recueillir, challenger et prioriser les besoins métiers Construire et maintenir le backlog produit (rédaction de user stories et critères d’acceptance) Collaborer avec les Data Engineers, développeurs et QA pour livrer les fonctionnalités attendues Garantir la qualité fonctionnelle des livrables et leur adéquation aux besoins Animer les cérémonies agiles (daily, sprint planning, reviews, rétrospectives) Interagir avec des interlocuteurs internationaux (anglais opérationnel requis)

Fixed term

Job Vacancy
AI Assurance Specialist - Mission Systems & Edge Deployments SME

VIQU IT
Published on
Architecture
Big Data
Business Intelligence

1 month
London, England, United Kingdom

AI Assurance Specialist - Mission Systems & Edge Deployments Morela is partnering with one of the UK's fastest-growing AI consultancies to hire an AI Assurance SME with deep expertise in mission systems, edge deployments, and operational AI environments . This is a unique opportunity to influence how AI is deployed safely and responsibly in high-stakes, mission-critical contexts . Contract: Long-term (3+ years) IR35: Inside IR35 Clearance: Active SC or DV clearance required About the Role You'll act as a trusted subject matter expert on the assurance of AI used in complex operational systems. From autonomous platforms to edge-deployed AI , you'll shape assurance criteria, manage risks, and ensure solutions are robust, ethical, and aligned with defence and government standards . Key Responsibilities Provide technical assurance across mission systems, edge AI deployments, and operational rollouts. Translate operational needs into practical assurance criteria based on leading frameworks and regulations. Support test, evaluation, verification, and validation (TEV&V) methods for edge-based AI. Advise projects on safety, resilience, and human factors in AI adoption. Guide assurance of autonomous/

Contractor

Contractor job
Data engineer

ODHCOM - FREELANCEREPUBLIK
Published on
Apache Spark
AWS Cloud
Big Data

12 months
510-550 €
Paris, France

Description Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables • Définition et analyse des structures de données. • Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données. • Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données). • Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.). • Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire). • Développement et maintien du continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés). • Présentation et explication des réalisations à des publics métiers et techniques.

Permanent

Job Vacancy
Data Analyst – BigQuery & Power BI (5-7 ans d’expérience)

SILAMIR
Published on
Agile Method
Big Data
BigQuery

40k-60k €
Suresnes, Ile-de-France

Dans le cadre du renforcement d’un programme Data & IA à l’échelle internationale, nous recherchons un Développeur Confirmé Power BI . Vous serez intégré(e) au Centre d’Excellence BI et interviendrez sur la mise en œuvre de la roadmap Analytics & IA couvrant différents périmètres : Marketing, Sales, R&I for Growth, Supply Chain, Manufacturing et Purchasing for Operations . Vos responsabilités : Développement & innovation Concevoir et développer des rapports, dashboards et visualisations interactives dans Power BI , à partir de données BigQuery (GCP) manipulées en SQL . Industrialiser et fiabiliser la production des reportings à forte valeur métier (pilotage commercial, performance supply chain, achats stratégiques, etc.). Réaliser des MVP et POC sur des sujets IA & analytics avancés. Capitaliser sur les nouveautés Power BI pour améliorer l’expérience utilisateur. Architecture & gouvernance Définir les architectures cibles adaptées aux besoins métiers. Administrer le tenant Power BI, les capacités Premium, et assurer une gouvernance technique robuste. Diffuser les bonnes pratiques de datavisualisation (ergonomie, storytelling, UX). Collaboration & animation Accompagner les Product Owners sur l’usage optimal des outils. Animer la communauté DataViz interne (Teams, Yammer), favoriser l’adoption et partager les best practices. Suivre l’adoption des solutions via KPIs et feedback utilisateurs.

Contractor
Permanent

Job Vacancy
Business Analyst Data

VISIAN
Published on
Agile Scrum
Big Data
ETL (Extract-transform-load)

1 year
Paris, France

Rattaché(e) à la Direction Digital, Data & IS, la Data Factory œuvre pour rendre les données accessibles, les valoriser à travers des produits data métiers à base d’IA et d’Advanced Analytics, et transformer le client en un groupe orientée data (« Data-driven ») où tous les collaborateurs connaissent les enjeux de la data. La création des produits Data s’appuie sur une « plateforme Data» centrale, cloud-native, sécurisée et performante avec les technologies les plus avancées. Le client a établi un partenariat stratégique de cinq années avec Google Cloud, lui donnant accès à des technologies innovantes et des liens privilégiés avec ses experts, et permettant de disposer d’une puissance de calcul augmentée, d’accélérer l’analyse et de développer l’innovation sur de nombreux défis business et technologiques.

Contractor

Contractor job
Data Engineer Big Data & API – Spark/PySpark/Scala, Hadoop / Starburst, CI/CD, Control-M

CAT-AMANIA
Published on
Control-M
Hadoop
JIRA

2 years
400-490 €
Ile-de-France, France

Contexte Équipe IT Data Management & BI – Squad Big Data & API. Le data lake “ESG” sert de plateforme de données pour des équipes IT et métiers. La mission peut évoluer vers d’autres squads Data selon les besoins. Missions Assurer le rôle de Data Engineer et développeur d’API au sein de la squad. Exploitation/production : supervision des traitements, corrections, optimisation des performances. Gestion de la dette technique : refactor, qualité, sécurité. Architecture : revue de l’existant et propositions d’évolutions . Développements projets : pipelines de données et APIs d’exposition.

Contractor

Contractor job
Data Engineer - Azure

VISIAN
Published on
Architecture
Azure
Azure Data Factory

1 year
400-570 €
Ile-de-France, France

Missions principales : Contribuer à l’évolution de l’offre de service de la plateforme Big Data & ML. Définir et maintenir le cadre de référence des principes d’architecture. Accompagner les développeurs dans l’appropriation de ce cadre. Définir les solutions d’exposition, de consommation et d’export des données métiers. Accompagner les équipes dans la mise en œuvre des solutions proposées. Participer à la mise en place d’API LLM dans le cadre du socle LLMOPS. Expertise technique attendue : Architecture & Cloud Azure Définition d’architectures cloud et Big Data distribuées. Automatisation des ressources Azure via Terraform et PowerShell. Connaissance avancée d’Azure Databricks, Azure Data Lake Storage, Azure Data Factory. Administration réseau : vNet Spoke, Subnets Databricks. Sécurité : RBAC, ACLs. Data & IA Platform Maîtrise de la chaîne d’ingestion de données : pipelines ADF (Collecte, Routage, Préparation, Refine…). Études d’architecture en lien avec l’évolution de la plateforme. Administration ADF : Link Services, Integration Runtime. Administration Databricks : Tokens, Debug, Clusters, Points de montage. Administration Azure Machine Learning : Datastores, accès, debug. CI/CD & DevOps Configuration Azure DevOps : droits, connexions de service. Développement de pipelines CI/CD avec Azure Pipelines. Gestion des artefacts avec Azure Artifact et Nexus. Automatisation des déploiements. Pratiques FinOps et optimisation des coûts cloud. Agilité & Delivery Utilisation de Jira : création d’US/MMF, configuration de filtres, Kanban. Participation active aux cérémonies Agile : Sprint, Revue, Démo. Développement & Collaboration Développement Python : modules socle, code optimisé, tests unitaires. Développement PowerShell : déploiement de ressources Azure. Maîtrise de Git : push, pull, rebase, stash, gestion des branches. Pratiques de développement : qualité, tests unitaires, documentation.

Contractor

Contractor job
Data Engineer / DevOps Big Data – CIB Données Client (Hadoop/Spark, Jenkins, DevSecOps)

CAT-AMANIA
Published on
API
Control-M
DevOps

1 year
400-490 €
Ile-de-France, France

Contexte & mission Grand groupe bancaire – pôle IT Data Management & BI . Au sein de la squad Big Data & API (domaine CIB / Données Client ), vous renforcez l’équipe pour tenir la production , résorber la dette technique , faire évoluer l’architecture et livrer les développements projets. Vos responsabilités Moderniser : upgrades ( Spring Boot , Spark 2→3 ), optimisation du code (APIs & traitements). Industrialiser : CI/CD Jenkins (migration depuis TFS , création de pipelines from scratch), pratiques DevSecOps . Automatiser : déploiements via XLDeploy/XLRelease , orchestrations Control-M . Exploiter : Hadoop on-prem , Spark/PySpark , Hive/SQL/HQL , Unix/Bash . Développer : APIs et traitements data en Python/Java/.NET .

Contractor

Contractor job
Développeur SEMARCHY XDM – Projet Stratégique de Transformation Digitale – Nantes (H/F)

EASY PARTNER
Published on
Big Data
ETL (Extract-transform-load)
JSON

3 months
460-510 €
Nantes, Pays de la Loire

Localisée à Nantes, notre entreprise s'emploie à intégrer et à optimiser une solution de Master Data Management de pointe. Au sein de notre Business Unit "Service", composée d'une vingtaine de collaborateurs, vous travaillerez sur des projets de grande envergure. Ce poste est créé dans le cadre de notre transformation numérique continue et de l'évolution de nos projets de gouvernance de données. Missions Missions principales Concevoir, configurer et déployer des modèles de données dans SEMARCHY XDM. Développer et maintenir des règles de gestion, workflows et interfaces utilisateur. Intégrer SEMARCHY XDM avec les autres systèmes de l’entreprise (ERP, CRM, etc.). Missions annexes Collaborer étroitement avec les équipes métiers pour traduire leurs besoins en solutions efficaces. Documenter techniquement et fonctionnellement les processus en place. Offrir le support nécessaire et résoudre les incidents liés aux solutions mises en place. Stack technique À maîtriser SEMARCHY XDM. Compétences avancées en scripting Python. Bases de données (SQL, NoSQL) et formats de données (XML, JSON). Outils d’intégration de données (ETL/ELT). Environnement technique global Environnements cloud (AWS, Azure, GCP) appréciés. Connaissance des standards de données (ISO, GS1, etc.).

Contractor

Contractor job
Data engineering

Keypeople Consulting
Published on
Agile Method
Amazon S3
Ansible

12 months
400-470 €
Ile-de-France, France

Data engineering (2 profils identiques), pour concevoir, construire et gérer l’infrastructure AWS · Minimum de 4 ans d’expériences significative dans le type d’expertise demandé · Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT · Connaisse de l’ingénierie de traitement de la donnée non structurée : CONFIRME · Connaissance en architecture micro-service et l’utilisation d’API externe : CONFIRME · Connaissance des langages de programmation et de Génie Logiciel (Python) : · Programmation Orientée Objet : MAITRISE · Connaissance et utilisation des Design Patterns standard : MAITRISE · Frameworks/Librairies de tests : MAITRISE · Observabilité applicative : CONFIRME · Mesures de performances : CONFIRME Expérience avec les bases de données SQL et Graph : CONFIRME · Connaissance des technologies de conteneurisation : o Utilisation de la CLI Docker : MAITRISE o Création et optimisation des images : MAITRISE o Utilisation de docker-compose : CONFIRME o Utilisation de la CLI Kubernetes : MAITRISE o Création et utilisation des déploiements Kubernetes : CONFIRME o Résolution de problèmes sur environnement Kubernetes : CONFIRME o Utilisation de Helm pour le déploiement de workload sur Kubernetes : CONFIRME Compétence des technologies de CI/CD et Infra as Code : Expérience du process GitFlow : MAITRISE Utilisation des commits sémantiques/feature branches : MAITRISE Mise en place de pipelines/jobs : CONFIRME Mise en place de process GitOps : CONFIRME Utilisation des concepts, modules et templates Teraform : MAITRISE Utilisation de Ansible : CONNAISSANCE Capacité à travailler en équipe et à communiquer efficacement (Agile, JIRA) : MAITRISE Expérience des services AWS suivants : IAM : mise en place de rôles/policies (CLI et Terraform) : CONFIRME S3 : gestion des buckets/cycle de vie des objets : MAITRISE Lambda : Déploiement de lambda utilisant des conteneurs sur ECR via Terraform. Déclenchement via Triggers S3/EventBridge. Optimisation de l’utilisation des ressources et du scaling : MAITRISE Secret Manager : Création et accès via Terraform. Gestion du cycle de vie : CONFIRME VPC & Security Groups : Compréhension des concepts réseaux et de sécurité : CONFIRME Une connaissance du service publique et des Médias est souhaitée .

Contractor

Contractor job
Data Engineer - Spark Hadoop - 2 jours TT - Service Public

Intuition IT Solutions Ltd.
Published on
Apache Spark
Hadoop

6 months
450-500 €
La Défense, Ile-de-France

Concevoir, développer et maintenir des pipelines de données robustes et scalables (batch et streaming). Participer à la mise en place et à l’optimisation de la plateforme Big Data (Hadoop/Spark). Intégrer, transformer et nettoyer des données issues de différentes sources (API, bases relationnelles, fichiers plats, etc.). Collaborer étroitement avec les Data Scientists et Data Analysts pour la préparation et la mise à disposition des datasets. Contribuer aux bonnes pratiques de développement, d’automatisation (CI/CD), et de gestion de la qualité des données. Assurer la documentation technique et la maintenance des flux existants. Participer à la montée en compétences de l’équipe interne sur les outils Big Data.

Contractor

Contractor job
Data analyst-Data Engineer (H/P)

Freelance.com
Published on
Pandas
PySpark
Tableau software

3 years
100-600 €
Meudon, Ile-de-France

Description du poste : Nous recherchons un(e) Data Analyst pour intervenir au sein de la Cellule Qualité Fixe (CQF) de Bouygues Telecom. Le rôle consiste à produire des analyses à partir de datasets constitués sur les plateformes Big Data, préparer et nettoyer les données, et les rendre disponibles pour les datascientists. Vous développerez également des tableaux de bord de suivi des KPI via Tableau. Missions principales : Exploiter et superviser la plateforme Big Data (monitoring Wifi des Box). Assurer le suivi des KPI et mettre en œuvre de nouveaux indicateurs. Investiguer les incidents et coordonner les actions avec les fournisseurs et les équipes internes. Développer des scripts Scala / Spark pour préparer et nettoyer les données. Gérer la sécurité, les sauvegardes et le déploiement des correctifs. Piloter les évolutions de la plateforme (hardware, applicatifs, architecture réseau). Superviser et maintenir la plateforme Data en microservices (Kubernetes/OpenShift). Déployer et gérer les applicatifs via Helm et GitLab. Administrer les utilisateurs, les buckets et les règles de gestion du datalake. Développer des dashboards Tableau et générer des KPI pour l’équipe.

Permanent

Job Vacancy
Chef de Projet Data - H/F

DAVRICOURT
Published on
Chef

40k-45k €
Nanterre, Ile-de-France

Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Chef de Projet Data pour l'un de nos clients du secteur automobile. Vous interviendrez sur le site client situé dans la région Île-de-France. À ce titre, vos missions quotidiennes seront les suivantes : - Effectuer la recette métier sur les datasets nouvellement intégrés à la plateforme Big Data ; - Identifier, analyser et expliquer les écarts de données et communiquer ces éléments aux métiers pour validation ; - Piloter avec les équipes data les corrections à apporter et en suivre la réalisation ; - Mettre à jour la documentation technico-fonctionnelle ; - Proposer et mettre en œuvre des plans d'amélioration de la data quality ; - Travailler sur la plateforme Big Data et concevoir des visuels de suivi et d'analyse ; - Préparer et accompagner le change management auprès des métiers. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.

Permanent

Job Vacancy
CHEF(FE) DE PROJET FLUX DATA AZURE DATABRICKS (H/F)

GROUPE ALLIANCE
Published on
Azure Data Factory
Databricks

50k-55k €
Paris

ACCROCHE SI TU SAIS QUE LES DONNÉES BRUTES NE DEMANDENT QU’À ÊTRE AFFINÉES, VIENS SAISIR CETTE OPPORTUNITE ... CE QUE TU RECHERCHES : Piloter des projets data et big data ambitieux Travailler sur des architectures innovantes et des volumes de données massifs Relever des défis techniques et fonctionnels pour transformer les données en valeur Accompagner les métiers dans leur transformation Rejoins une équipe où ton expertise en gestion de projets data sera un atout Au sein d’un acteur majeur du secteur , tu participeras : Recueil et analyse des besoins métiers, tu réaliseras Conception et pilotage des architectures data et big data, tu assureras Gestion des phases de développement et d’intégration, tu coordonneras Mise en place de pipelines de données performants, tu garantiras Industrialisation et sécurisation des traitements, tu superviseras Accompagnement des équipes techniques et métiers, tu animeras Veille technologique et anticipation des évolutions, tu effectueras QUI TU ES : Diplômé(e) en informatique, data science ou équivalent Tu justifies d’une expérience de ans minimum en gestion de projets data et big data Maîtrise des plateformes Expertise en outils de gestion et traitement des données AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Analytique, tu sais exploiter les données pour prendre des décisions éclairées Méthodique, tu structures et pilotes les projets avec rigueur Pragmatique, tu proposes des solutions adaptées aux enjeux métier Communicant(e), tu sais vulgariser les concepts data auprès des différentes équipes Autonome, tu es capable de gérer plusieurs projets en parallèle Visionnaire, tu anticipes les évolutions des technologies big data Orienté(e) performance, tu optimises les infrastructures pour garantir efficacité et scalabilité

Permanent
Contractor

Job Vacancy
Direction Solutions Data - Chef de projet MOE

Signe +
Published on
Chef
Direction
MOE

24 months
50k-55k €
358-550 €
Niort, Nouvelle-Aquitaine

La société devra fournir les prestations suivantes : - Animation des équipes projets - Formalisation des planning des projets Data et pilotage / suivi de leur avancement - Planification dans ITBM - Suivi des consommés et des restes à faire - Coordination des acteurs MOE - Préparation et présentation dans les instances de la gouvernance projets - Reporting et alertes projets - Expérience dans le management de projets - Expérience dans le monde de l'assurance - Expérience dans le domaine de la Data (en particulier sur les systèmes d'informations décisionnel et sur le big data) - Connaissances fonctionnelles du domaine IARD

Contract roles and jobs for Big Data

Data Scientist

The Data Scientist uses Big Data tools and techniques to analyze large datasets, develop predictive models, and extract useful insights from complex data.

Data Developer (BI / Big Data / Data Engineer)

The Data Developer (Decision Support / BI / Big Data / Data Engineer) designs and develops Big Data solutions to store, process, and analyze large amounts of data from various sources.

Architecture Consultant

The Architecture Consultant advises businesses on Big Data architecture, designing solutions to manage and analyze large data quantities while optimizing performance and scalability.

Data Analyst

The Data Analyst uses Big Data techniques to collect, analyze, and interpret complex data to provide insights and recommendations that help businesses make informed decisions.

123 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us