Find your next tech and IT Job or contract Big Data

What you need to know about Big Data

Big Data refers to the massive and complex data generated at high speed by various sources, such as social networks, IoT sensors, online transactions, or mobile applications. This data, often voluminous, heterogeneous, and continuously growing, exceeds the capabilities of traditional management and analysis tools. Big Data relies on the 3Vs: Volume (quantity of data), Velocity (speed of generation and processing), and Variety (diversity of formats, structured or not). It is often associated with a fourth V: Veracity (data reliability). Big Data technologies, such as Hadoop, Spark, or NoSQL, enable storing, processing, and analyzing this data to extract valuable insights. These analyses are used in various fields, such as personalized marketing, finance, healthcare, or industrial optimization. Big Data plays a key role in innovation, decision-making, and digital transformation of businesses.

Your search returns 117 results.
Contractor

Contractor job
Data Analyst

Nicholson SAS
Published on
Data Lake
Data visualisation
Dataiku

2 months
250 €
Nantes, Pays de la Loire

Compétences techniques indispensables : Maîtrise de SQL et Dataiku (indispensable). Bonne connaissance des environnements Big Data (type Data Lake, Hive, Impala, Spark…). Maitrise des bases du web marketing Connaissance des outils de dataviz : Digdash, Qlik Sense, Power BI, etc. Maîtrise de Piano Analytics ou d’un outil équivalent de web analytics est un plus. Compréhension des enjeux liés à la qualité, à la structuration et à la gouvernance de la donnée. Compétences fonctionnelles : Capacité à analyser, synthétiser et vulgariser des résultats complexes. Sens de la rigueur, de l’autonomie et de la curiosité. Excellentes aptitudes à travailler en équipe et à interagir avec des interlocuteurs variés (techniques et métiers).

Contractor
Permanent

Job Vacancy
Architecte Infrastructure / Expertise Kafka Elastic Logstash Kibana Beats Opensearch

VISIAN
Published on
Elasticsearch
Kibana

1 year
40k-45k €
400-630 €
Ile-de-France, France

Architecte Infrastructure / Architecte Infrastructure Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l'entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Technologies Principales • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) Technologies d'Automation • Ansible • Git/Bitbucket • Développement Python et REST APIs Environnement • Environnement anglophone

Contractor

Contractor job
Data Engineer

Nicholson SAS
Published on
Agile Method
Apache Spark
Data visualisation

12 months
460-500 €
Toulouse, Occitania

Entité : Industrie Location : Toulouse ou full-remote Date de démarrage : 17/11/2025 English possible Durée mission : 12 mois (date de fin : 09/10/2026) Mission: we are looking for a data engineer with Spark, Java, real-time processes and MongoDB skills He/She will have to help on the current project backlog ( corrections & new features ) Within a 3 people team for this domain but included in a larger team. Maintenance and evolutions of CCO projects (Big Data processing and real time processing). Project team of 2 developers and a project manager for coordination. Included in a larger team of approx. 8 to 10 peoples.

Contractor

Contractor job
Data Engineer (PySpark)

KEONI CONSULTING
Published on
PySpark

18 months
100-400 €
Paris, France

CONTEXTE Métiers Fonctions : Data Management, Data Engineer Spécialités technologiques : Big Data Compétences Technologies et Outils : HadoopPyspark (2 ans) Dans le cadre d’un projet stratégique autour du recouvrement et de la lutte contre la fraude, nous recherchons un Data Engineer confirmé spécialisé en PySpark, pour rejoindre une équipe technique pilotée par un Tech Lead expérimenté. Le projet s’appuie sur des volumes massifs de données critiques (plusieurs milliards d’événements par jour) et vise à développer des cas d’usages à fort impact dans la détection d’anomalies et l’optimisation des processus de recouvrement. MISSIONS Missions principales - Participer à la construction et l’optimisation des pipelines de données sous PySpark. - Contribuer à la mise en place d’architectures Big Data sur un environnement Hadoop (bonus). - Assurer la qualité, la fiabilité et la performance des flux de données. - Collaborer étroitement avec les équipes data science et métier pour industrialiser les cas d’usage (fraude, scoring, recouvrement automatisé…). - Intervenir sur des problématiques de scalabilité et de traitement en temps réel / batch. - Garantir la sécurité et la conformité des traitements sur des données sensibles.

Contractor

Contractor job
Consultant Data Engineering & Support Reporting Réglementaire

PARTECK INGENIERIE
Published on
Data quality
DevOps
Finance

12 months
Paris, France

Le bénéficiaire recherche un(e) consultant(e) pour accompagner ses équipes en charge du reporting réglementaire et de la supervision des chaînes de production de données . L’objectif : garantir la fiabilité, la qualité et la conformité des flux de données réglementaires, dans un environnement complexe et fortement orienté Big Data . Volet Data Engineering Assurer le bon acheminement quotidien des données dans les applications et systèmes de contrôle (Datawarehouse). Suivre et améliorer la qualité des données : complétude, exactitude, ponctualité (accuracy, timeliness, completeness). Concevoir et implémenter des pipelines de données inter-applications et inter-environnements, afin d’améliorer la qualité et la fiabilité du reporting réglementaire. Volet Support et Supervision Fournir un support technique et fonctionnel transverse , couvrant différents métiers, applications et technologies. Assurer le monitoring des chaînes de reporting et le traitement des anomalies (flux d’opérations, data quality, etc.). Suivre la performance et l’efficacité des chaînes réglementaires (timeliness, complétude…). Participer aux task forces de reprise ou de traitement de stock (scripting, SQL, automatisation). Réaliser des analyses fonctionnelles et techniques sur les rejets liés aux opérations ou aux flux métiers.

Permanent

Job Vacancy
INGENIEUR DE PRODUCTION DEVOPS

ACENSI Ile de France
Published on
Ansible
Bash
Control-M

38k-64k €
Ile-de-France, France

ACENSI c’est 210 M€ et 1800 collaborateurs qui s’impliquent dans la transformation des SI de nos clients grâce à notre expertise multisectorielle. Transformation numérique, Digital, Big Data, Mobilité, Cloud, Sécurité… n’auront plus de secret pour vous. Classée parmi les 100 plus belles entreprises de France depuis 2013, ACENSI est une championne de la croissance et intervient activement sur vos projets stratégiques en France, Belgique et Canada. Contexte du poste Au sein d’un grand groupe bancaire français, la Direction des Infrastructures gère plus de 80 % de la production informatique du groupe. Le poste est rattaché à la division Paiements , qui assure la gestion et le maintien en condition opérationnelle des applications pilotant les distributeurs et automates bancaires. L’équipe dispose d’un laboratoire complet regroupant plus de 80 modèles d’automates pour la réalisation des tests et des opérations de préproduction. Ce poste intervient dans un environnement critique et sensible.

Contractor
Permanent

Job Vacancy
Data Engineer Senior - Tours

OBJECTWARE MANAGEMENT GROUP
Published on
Java
Microsoft Power BI
Python

12 months
40k-45k €
400-640 €
Tours, Centre-Val de Loire

Vos principales responsabilitésComitologie, documentation & cartographie data Préparer et animer les instances transverses DSIM (League Design Data, Guildes Data, etc.) Documenter les assets Data de la plateforme DSIM (SimDoc, Datahub, Datalab) Réaliser la cartographie des données et concevoir/développer les outils associés Expertise Data Apporter un accompagnement technique et un rôle de conseil sur les projets Data / Big Data (Datahub & Datalab) Participer à l’analyse, la conception et la refonte d’assets Data transverses Contribuer au suivi des évolutions et migrations de la stack technique DSIM Facilitation et coordination Jouer un rôle de médiation entre projets transverses Accompagner l’expression des besoins et la rédaction de spécifications technico-fonctionnelles Compétences obligatoires Minimum 10 ans d’expérience dans le domaine Data / Big Data Maîtrise de la modélisation et cartographie Data Maîtrise des environnements : Spark/Java, Kafka Entreprise, Starburst, OpenShift, SQL Excellentes qualités relationnelles : coordination, écoute, pédagogie Compétences optionnelles Power BI SAS Python

Contractor

Contractor job
Mission Freelance – Data Steward / Chef de projet Data Gouvernance

Comet
Published on
Market data

1 year
400-670 €
Ile-de-France, France

Vos missions Déployer la stratégie de gouvernance Data au sein d’un domaine fonctionnel clé (comportements utilisateurs). Garantir la qualité, la traçabilité et la conformité des données collectées et exposées. Mettre en place et suivre les règles de Data Quality (contrôles automatiques, reporting, remédiation). Alimenter et maintenir le glossaire métier et le catalogue de données (métadonnées, définitions, propriétaires). Appliquer les politiques RGPD et sécurité des données du groupe. Coordonner les acteurs Data : Data Owners, Data Engineers, Métiers. Animer le domaine Data (ateliers, comités, sensibilisation). 🛠️ Environnement technique Cloud / Big Data : GCP (BigQuery), Hadoop, Spark, Hive Outils de gouvernance : Collibra, Alation, Talend Data Catalog (ou équivalent) Langages & outils : SQL, Jira, Confluence, Power BI (reporting) Méthodologie : Agile / DataOps

Contractor

Contractor job
Ingénieur DBA & DevOps (h/f)

emagine Consulting SARL
Published on

1 month
570-600 €
92200, Neuilly-sur-Seine, Île-de-France

Résumé Ce poste vise à moderniser et optimiser nos systèmes de données en intégrant une expertise en administration de bases de données et en culture DevOps/Cloud. Responsabilités : Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité, le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD. Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’évolution des schémas BDD via des outils de migration comme Liquibase. Compétences : Bases OnPrem : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c. Cloud : AWS (RDS, Aurora MySQL, Glue, Redshift) – Maîtrise AWS = pré-requis. ETL / Data pipelines : Airflow, Dollar Universe ou équivalent. Langages : SQL avancé, Python, Shell. IaC & DevOps : Terraform, Ansible, Git, Docker, CI/CD – pré-requis. Gestion de schémas BDD : Liquibase (pré-requis). Détails : Localisation: Neuilly sur Seine (92) Télétravail: 2 jours par semaine

Contractor

Contractor job
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Published on
Azure
BI
Cloud

24 months
200-400 €
Paris, France

Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel

Contractor

Contractor job
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT
Published on
Azure
Cloud

24 months
325-650 €
Paris, France

Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess

Contractor

Contractor job
Ingénieur Production Data

Tenth Revolution Group
Published on
Agile Scrum
AWS Cloud
Data analysis

12 months
400-550 €
Paris, France

Le Data Office a pour mission de consolider, manager et valoriser le patrimoine de données, qui est un capital stratégique pour mon client, via le développement de produits et services data transverses à l’entreprise et au service du business. Au sein du Data Office, la mission de l’équipe Core Data est de développer et maintenir une plateforme centralisée, sécurisée, fiable et performante au service des usages data de l’ensemble des directions métier de mon client. Elle est notamment responsable d’un datalake opérationnel sur le cloud AWS et d’un patrimoine applicatif de jobs de transformation et production de données (Scala Spark). Elle assure également la maintenance de la plateforme Dataiku. Dans le cadre de son activité, mon client recherche un(e) Ingénieur de Production Data, qui sera amené(e) à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers.

Contractor

Contractor job
Administrateur(trice) Dataiku DSS - LUXEMBOURG

FUZYO FRANCE
Published on
Dataiku
Python
Scripting

6 months
400-550 €
Luxembourg

Mission au Luxembourg. Il est impératif et obligatoire de résider proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée

Permanent

Job Vacancy
Ingénieur BI H/F

GROUPE ARTEMYS
Published on
Generative AI
Oracle SQL Developer

33k-35k €
Rouen, Normandy

ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Votre mission (si vous l’acceptez) : Analyser les besoins métiers et proposer les meilleures solutions techniques Rédiger les dossiers d’architecture technique Modéliser des datawarehouses, datamarts et datalakes Concevoir et développer des flux d’alimentation (batch ou streaming) Réaliser les tests unitaires et accompagner la recette client Déployer les solutions en production et assurer leur évolution et maintenance Rédiger la documentation technique et assurer les transferts de compétences

Permanent

Job Vacancy
Data Engineer - Expert Cloudera (F/H)

Savane Consulting
Published on

60k-70k €
Gennevilliers, Ile-de-France

Data Engineer & Expert Cloudera – CDI – Gennevilliers (92) – 60/70 K€ Contexte du poste Dans le cadre d’un projet Groupe couvrant 5 divisions métiers, la DSI renforce son équipe Data avec le recrutement d’un Data Engineer. L’objectif est de concevoir et mettre en place un Data Layer commun et de développer une série d’indicateurs métiers structurants pour le pilotage des activités. Le Data Engineer interviendra également sur l’ implémentation des user stories issues du backlog défini par le PPO. L’équipe actuelle se compose de 4 Chefs de projet BI et 1 Architecte Big Data . À terme, elle intégrera 2 Consultants BI , 2 PPO et 1 autre Data Engineer . Missions principales Participer à la spécification et au développement au sein de la nouvelle infrastructure Cloudera Réaliser les scripts d’intégration et de transformation des données en Scala / Spark Concevoir et préparer les jeux de données nécessaires au reporting dans Power BI Concevoir, documenter et optimiser les modèles de données pour la performance et la maintenabilité Être force de proposition pour l’évolution de la plateforme et l’amélioration des performances globales

Contractor
Permanent

Job Vacancy
Ingénieur Prod Data / DataOps Engineer (Pas de profils Data Engineer / Data Scientist)

LOMEGARD
Published on
Azure DevOps
Dataiku

3 years
40k-60k €
400-600 €
Ile-de-France, France

Pour l'un de nos clients nous recherchons un(e) Ingénieur de Prod Data, qui sera amené à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers. Les principales missions sont les suivantes : Administration de la plateforme Data et de ses outils Administrer les composants Dataiku et CloudBeaver de la plateforme (installation, configuration, monitoring, backup, montées de version…) Faire évoluer et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagner les utilisateurs sur les best practices et l’industrialisation des projets métiers Support et expertise technique Résoudre les incidents impactant les plateformes Conseiller les équipes du Data Office (Data engineers / Data scientists / Data analysts / BI engineer) sur les choix d’implémentation (architecture et technologie) Réaliser des audits techniques, des analyses de performance (requêtes SQL, jobs Spark, fonctions Lambda, entraînement modèles ML, …) ou des PoC. Evolution de l’infrastructure : Evaluer l'infrastructure actuelle et proposer si besoin une stratégie de modernisation progressive des composants legacy (IaaS) vers des solutions cloudnatives (PaaS/SaaS/Serverless), en intégrant les pratiques DevOps (IaC, CI/CD, automatisation) et FinOps Développer et implémenter les nouveaux patterns d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel)

Contract roles and jobs for Big Data

Data Scientist

The Data Scientist uses Big Data tools and techniques to analyze large datasets, develop predictive models, and extract useful insights from complex data.

Data Developer (BI / Big Data / Data Engineer)

The Data Developer (Decision Support / BI / Big Data / Data Engineer) designs and develops Big Data solutions to store, process, and analyze large amounts of data from various sources.

Architecture Consultant

The Architecture Consultant advises businesses on Big Data architecture, designing solutions to manage and analyze large data quantities while optimizing performance and scalability.

Data Analyst

The Data Analyst uses Big Data techniques to collect, analyze, and interpret complex data to provide insights and recommendations that help businesses make informed decisions.

117 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us