Find your next tech and IT Job or contract Big Data

What you need to know about Big Data

Big Data refers to the massive and complex data generated at high speed by various sources, such as social networks, IoT sensors, online transactions, or mobile applications. This data, often voluminous, heterogeneous, and continuously growing, exceeds the capabilities of traditional management and analysis tools. Big Data relies on the 3Vs: Volume (quantity of data), Velocity (speed of generation and processing), and Variety (diversity of formats, structured or not). It is often associated with a fourth V: Veracity (data reliability). Big Data technologies, such as Hadoop, Spark, or NoSQL, enable storing, processing, and analyzing this data to extract valuable insights. These analyses are used in various fields, such as personalized marketing, finance, healthcare, or industrial optimization. Big Data plays a key role in innovation, decision-making, and digital transformation of businesses.

Your search returns 121 results.
Contractor
Permanent

Job Vacancy
Ingénieur Big Data DevOps

OBJECTWARE MANAGEMENT GROUP
Published on
Apache NiFi

3 years
Ile-de-France, France

Attentes principales du client RUN & Support avancé Assurer le MCO (Maintien en Condition Opérationnelle) des plateformes Big Data. Résoudre les incidents N2/N3 et analyser les root causes pour fiabiliser la production. Accompagnement et relation client Être capable d’ expliquer et de guider les utilisateurs dans l’usage des plateformes. Jouer un rôle de référent technique sur NiFi / Kafka / ingestion de données. Build & industrialisation Concevoir et automatiser les offres d’ingestion de données. Participer aux déploiements NiFi , à l’ industrialisation des flux , et à la mise en place de CI/CD. Administration & Sécurisation Gérer et sécuriser les clusters Big Data et les environnements applicatifs (on-prem et cloud). Gérer le cycle de vie des technologies : upgrades, patchs, migrations. Contribution aux projets Travailler dans un cadre Agile (Scrum/Kanban) . Développer (Java/Spring, React, CSS/JS) et intégrer les solutions nécessaires. Apporter une veille technologique et être force de proposition pour améliorer les plateformes. Compétences clés recherchées Big Data : Apache NiFi (le plus attendu), Kafka, HDFS, Hive, Hue, IBM COS, Oracle DB. CI/CD & automatisation : Ansible, GitLab CI, ArgoCD, Vault. Systèmes & infra : Linux RHEL, Kubernetes, OpenShift, environnements stateful. Dev : Java (Spring Boot / Security), React, CSS3, JS, frameworks UI (Ant Design, Bootstrap, Material). Méthodes : Scrum, Kanban.

Contractor

Contractor job
Tech Lead Big Data (H/F)

LeHibou
Published on
Apache Spark
Big Data
Google Cloud Platform (GCP)

12 months
400-470 €
Toulouse, Occitania

Notre client dans le secteur Aérospatial et défense recherche un/une Tech Lead Big Data (H/F) Description de la mission : Dans le cadre d'un remplacement au sein de ses équipes, notre client va rechercher un Freelance expérimenté sur la partie Big Data. Vous interviendrez en tant que Technical Leader sur l'activité d'une application sensible de maintenance prédictive de notre client, vous serez en charge des activités suivantes : - Accompagner l’évolution du produit en relation en avec le métier - Pilotage technique de l’équipe composée d'environ 15 personnes - Coordination et échanges avec les Product Owners et quelques Key Users. Environnement technique : Java, Spark, SQL, Cloud GCP

Contractor
Permanent

Job Vacancy
Cybersécurité gouvernance / Cybersecurity Officer

VISIAN
Published on
Big Data
Cybersecurity

1 year
40k-45k €
400-600 €
Ile-de-France, France

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre du Group Data CISO vis à vis de l'évolution de la stratégie relative à la sécurité de la DATA en étant l'interlocuteur privilégié des différentes fonctions ayant des responsabilités vis à vis de Data. Il est un élément clé dans la préparation et l'organisation des "Group Data Steering Committee" Missions principales Interaction avec l'ensemble des parties prenantes pour définir les priorités en termes d'exigences cyber autour de la Data

Permanent

Job Vacancy
Snowflake Data Engineer

VIQU IT
Published on
Big Data

Birmingham, United Kingdom

Snowflake Data Engineer Up to £60,000 per annum 1 day a fortnight in Birmingham. VIQU have partnered with a consultancy looking to expand their data teams, so are seeking a Data Engineer with prior experience using the Snowflake platform. You will play a key role in building and maintaining data environments, with a particular focus on Snowflake and Azure. Duties of the Snowflake Data Engineer: Develop data pipelines into and in Snowflake. Manipulate data using SQL and Python. Maintain data security throughout. Contribute to the development of a scalable data warehouse. Contribute to data governance and quality projects. Strong client facing communication skills. Experience required of the Snowflake Data Engineer: Hands on experience with Python development. SQL optimisation skills. Previously worked on greenfield projects, helping to build data platforms. Experience with large scale data pipeline creation/optimisation. Previously used Snowflake tool like Snowpark, Snow pipe, and SnowSQL. Experience of working with cloud services (Azure, AWS, GCP). Previous work in a consultancy would be beneficial. To discuss this exciting opportunity in more detail, please APPLY NOW for a no obligation chat with your VIQU Consultant. Additionally, you can contact Jack McManus on -hidden email-. If you know someone who would be ideal for this role, by way of showing our appreciation, VIQU is offering an introduction fee up to £1,000 once your referral has successfully started work with our client (terms apply). To be the first to hear about other exciting opportunities, technology, and recruitment news, please also follow us at ‘VIQU IT Recruitment’ on LinkedIn, and Twitter: @VIQU_UK

Contractor
Fixed term
Permanent

Job Vacancy
Chef de projet coordination audits / contrôle interne

FIRST CONSEIL
Published on
Agile Scrum
Big Data
Cloud

6 months
40k-45k €
400-600 €
Ile-de-France, France

La mission s’inscrit dans un environnement en forte transformation autour de la donnée et de la conformité réglementaire. Dans ce contexte, la direction de mon client cherche un Chef de projet dédié à la coordination des audits et à la gestion des preuves de conformité . En ce sens, les objectifs de la mission sont les suivants : Analyser les demandes des auditeurs (internes ou externes) relatives aux contrôles de gestion, aux processus data, ou à la conformité IT. Identifier les interlocuteurs concernés dans les différentes équipes (référentiel, Big Data, décisionnel, conformité) et assurer la collecte des éléments de preuve. Consolider et structurer les preuves d’audit (procédures, extractions, logs, comptes rendus techniques, documents de conformité, etc.). Suivre les échanges entre les auditeurs et les équipes opérationnelles, en veillant à la complétude et la qualité des livrables. Produire un reporting régulier sur l’avancement des audits, les points de blocage et les risques de non-conformité. Contribuer à l’amélioration continue du processus de gestion d’audit et de capitalisation documentaire. Livrable attendus : Tableau de suivi des demandes et des preuves. Dossier de preuves complet pour chaque audit. Reporting hebdomadaire sur l’avancement et les points de vigilance. Proposition d’amélioration du processus d’audit (capitalisation, automatisation, traçabilité).

Contractor

Contractor job
Oracle Data Migration Consultant

VIQU IT
Published on
Big Data

1 month
Leicester, England, United Kingdom

Oracle Data Migration Consultant (Fusion / Financials) - 6 Months initial - Hybrid (Midlands) - Outside IR35 VIQU have partnered with a leading enterprise organisation undergoing a complex Oracle Fusion Finance Transformation. As part of this journey, they are seeking a highly experienced Oracle Data Migration Consultant to take ownership of data migration delivery across key Finance modules. The Role: The successful Oracle Data Migration Consultant will play a pivotal role in delivering data migration for Oracle Fusion Financials, covering GL, AP, AR, P2P and PO. This is not a hands-on technical role - it requires a consultant who can combine strong functional knowledge of Oracle Finance with project management capability to direct and coordinate data migration end-to-end. The Oracle Data Migration Consultant will shape the migration strategy, manage sequencing and dependencies, and ensure that technical PMs and delivery teams working under you are aligned. At the same time, you'll engage directly with business stakeholders to drive cleansing, validation, and reconciliation, ensuring accurate and reconciled data is delivered into Fusion. Key Responsibilities: · Own planning and delivery of data migration across GL, AP, AR, P2P and PO. · Define and oversee data extraction, transformation, load and reconciliation processes. · Provide direction to technical PMs and data migration teams, ensuring delivery is consistent and aligned with programme milestones. · Work with business stakeholders to drive data cleansing, validation and reconciliation cycles. · Provide functional expertise on supplier, customer and invoice data models, subledger accounting and integration with the General Ledger. · Develop and maintain migration strategies that integrate with the wider project plan and test schedules. · Communicate effectively with senior stakeholders, ensuring expectations are managed and deliverables achieved. Key Skills & Experience: · Proven experience leading data migration within large-scale Oracle Fusion / EBS Finance transformation programmes. · Strong functional knowledge of AP, AR, PO, GL and P2P processes and data models. · Solid understanding of subledger to GL accounting and reconciliation processes. · Experience defining and driving end-to-end data migration (extract, transform, load, reconcile). · Demonstrable project management skills, including sequencing, dependency management and integration with wider programme test cycles. · Experience working with and directing technical PMs and delivery t

Contractor
Permanent

Job Vacancy
Data Engineer

CELAD
Published on
Azure Data Factory
Big Data

1 year
49k-55k €
400-550 €
Ile-de-France, France

Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.

Permanent
Contractor

Job Vacancy
Product Owner DATA / IA

K-Lagan
Published on
Big Data
Generative AI

1 year
Niort, Nouvelle-Aquitaine

🚀 K-LAGAN FRANCE recrute : Product Owner (PO) – Big Data | Secteur Assurance | Niort (Nouvelle-Aquitaine) Chez K-LAGAN FRANCE , nous renforçons notre équipe de consultants et recherchons un Product Owner (PO) – Big Data pour accompagner l’un de nos clients majeurs du secteur assurance , basé à Niort . ⚙️ Votre rôle Vous interviendrez auprès de nos clients du secteur de l’assurance en tant que Product Owner sur des projets Big Data & Intelligence Artificielle . Votre mission : définir la vision produit et maximiser la valeur métier en identifiant les fonctionnalités à plus fort impact pour les utilisateurs, tout en intégrant les enjeux et priorités de l’entreprise. Véritable chef d’orchestre , vous garantissez la livraison d’un produit de qualité , en faisant le lien entre les équipes techniques, les métiers et les utilisateurs finaux. 🦾 Vos principales missions Définir et concevoir le produit en lien avec la stratégie de l’entreprise. Cadrer, challenger et prioriser les projets Data dès leur lancement. Faire l’interface entre les utilisateurs, les équipes de développement et les métiers. Piloter la priorisation et l’organisation du backlog (produit, sprint). Rédiger ou contribuer à la rédaction des user stories .

Permanent

Job Vacancy
Architecte Data Expérimenté

HN SERVICES
Published on
Big Data
Cloudera
Teradata

3 years
Ile-de-France, France

Dans le cadre du renforcement de l'équipe Socles Data pour un grand acteur bancaire, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plateformes DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux réflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modernisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....).

Permanent
Contractor

Job Vacancy
Architecte Solutions Data

1G-LINK CONSULTING
Published on
Big Data
CI/CD
SAS

2 years
Ile-de-France, France

1G-Link est une entreprise innovante en pleine croissance, au cœur de la transformation numérique. Nous accompagnons les organisations dans la valorisation de leurs données à travers des architectures scalables, modernes et performantes. Dans le cadre de notre développement, nous recherchons un(e) Architecte Solutions Data avec une expertise forte sur Snowflake et Microsoft Azure. Vos missions En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront : Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture) Les + de l’offre Projets innovants à fort impact Culture d’entreprise basée sur la collaboration, la montée en compétence et la bienveillance Environnement de travail flexible (télétravail possible : 2 jours par semaine) Accès à un programme de certification et de formation continue

Contractor

Contractor job
[TPR] Architecte Data et IA - Big Data (8/12 XP)

ISUPPLIER
Published on
Big Data
GDPR
Strategy

3 months
400-730 €
Paris, France

Dans le cadre du plan stratégique du Groupe pour le secteur bancaire du Groupe, ce dernier joue un rôle clé dans la modernisation des Systèmes d'Information et l'accélération de la digitalisation. Pour répondre aux défis de l'innovation et de la sécurité, ils sont créés un département département, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. L'équipe est composée de six équipes : Innovation Exposition, Innovation Factory, APEX, Smart Auto Factory, Data Analytics and Management Platforms et le Centre de Compétence en IA. Ce dernier est chargé de développer et de maintenir les compétences en Intelligence Artificielle au sein du département A3I. L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC. Compétences clés : • Expertise en gouvernance IA, ML Ops, auditabilité et traçabilité des modèles • Maîtrise des enjeux réglementaires et éthiques (AI Act, CNIL, RGPD). • Capacité à structurer des dispositifs de veille IA et à animer des communautés d’experts • Leadership, esprit critique, rigueur, capacité à influencer et à collaborer en environnement complexe Livrables : - Conseil et orientation sur les décisions stratégiques à prendre sur le plan stratégique de la banque en matière d'IA - Conseil sur l'organisation, le positionnement et le dimensionnement de l'équipe AICC vis à vis des besoins Métiers - Structuration et formalisation de la roadmap 2026 de l"AICC

Contractor
Permanent

Job Vacancy
Développeur Big Data Scientist (F/H)

CELAD
Published on
PySpark
Python
Scala

1 year
50k-55k €
470-490 €
Lyon, Auvergne-Rhône-Alpes

A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ DEMARRAGE : Janvier 2026 -📑 CDI (50-55K€) OU Freelance OU Portage salarial - 🏠 Télétravail - 50% / début de semaine - 📍 Lyon - 🛠 Expérience de 8 ans minimum Envie de rejoindre une équipe Data où l’innovation, la performance et la qualité technique sont au cœur des projets ? 🚀 Nous recherchons un.e Développeur Big Data pour intervenir sur des projets d’envergure autour du traitement et de la valorisation de données massives. Vous participerez à la conception et au développement de solutions data destinées à accompagner les métiers dans leur transformation numérique 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Participer aux ateliers métiers pour comprendre les besoins et les jeux de données - Concevoir, développer et maintenir des traitements de données complexes - Réaliser des études statistiques et présenter les résultats sous forme de rapports ou de tableaux de bord - Développer des outils de visualisation facilitant l’analyse et la prise de décision - Documenter et industrialiser les traitements développés - Mettre en production les pipelines data et assurer leur suivi - Participer aux rituels agiles et aux échanges techniques de l’équipe

Contractor

Contractor job
Data & IA - Migration des données

ISUPPLIER
Published on
Big Data
SAP

23 months
400-580 €
Paris, France

Le projet est destiné à une entreprise leader de l’industrie des boissons, connue pour ses produits de haute qualité et sa présence mondiale Objectifs : Responsable du domaine de migration de données SAP Responsable de la mise en œuvre de E2E SAP S4H Missions : Planifier, coordonner et suivre l’avancement du flux de migration des données pour un S4 Greenfield. Suivi avec plusieurs équipes (équipe technique, équipe fonctionnelle, équipe commerciale) des extractions, des transformations et des activités de chargement. Suivi de la conception et de la construction des programmes de migration et rapports sur l’avancement des travaux. Définition de la stratégie de migration des données en alignement avec les autres flux, la mise en place de la planification des simulations, le suivi et le rapport sur l’exécution des simulations. Compétences : Accès aux données, Processus Data & AI, Stratégie Data & IA, Principes d’architecture des données, Taxonomie des données

Contractor
Permanent

Job Vacancy
Développeur Java & DevOps (H/F)

Accelite
Published on
Apache Kafka
Big Data
DevOps

1 year
40k-50k €
400-500 €
Paris, France

Contexte : Dans le cadre d’un projet stratégique porté par une grande institution publique européenne, nous recherchons un développeur confirmé pour intervenir sur le développement et les tests unitaires d’un composant critique d’une plateforme de règlement de transactions . Ce projet s’inscrit dans une initiative innovante liée à la mise en œuvre d’une monnaie numérique de banque centrale . Objectif de la mission : L’intervenant participera à la conception, au développement et aux tests unitaires d’un composant de règlement intégré dans une plateforme de services destinée aux prestataires de paiement. Activités principales : Conception et développement du composant de règlement de la plateforme Implémentation des tests unitaires des modules développés Respect des normes de qualité, d’analyse de code (Sonar), et des exigences non fonctionnelles (performance, montée en charge, résilience…) Prototypage et participation aux revues de code Rédaction de la documentation technique (en anglais) Collaboration avec une équipe internationale dans un cadre agile (SAFe)

Contractor
Permanent

Job Vacancy
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Published on
Apache Spark
Hadoop
Python

3 years
38k-43k €
300-400 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

Contractor
Permanent

Job Vacancy
Data engineer

Ipanema Technology
Published on
Big Data
BigQuery
DBT

1 year
40k-50k €
400-550 €
Ile-de-France, France

Intégré(e) au sein des équipes de la Digital Factory Supply Chain, le/la Data Engineer contribuera ou pilotera la conception, le développement, la maintenance et l'optimisation de solutions de traitement de données massives. La Digital Factory Supply Chain développe l'ensemble des assets digitaux pour une expérience omnicanale, au service de l'approvisionnement des magasins, de la commande automatique à la livraison. Missions et Responsabilités Principales : Conception et Développement : Concevoir, développer et maintenir des solutions Big Data en utilisant les technologies Cloud (GCP). Pour les profils Sénior, cela inclut la mise en place et l'optimisation des pipelines de données. Contribution aux Projets : Participer activement à la réalisation de projets métier, notamment autour de solutions ELT in-house (BigLoader) et DBT. Opérations et Maintenance : Assurer la prise en charge des demandes de corrections issues d'incidents ou d'anomalies. Pour les profils Sénior, cela inclut l'analyse des performances et l'amélioration continue des solutions existantes. DevOps et Automatisation : Contribuer aux pratiques Devops , à l'automatisation du delivery , et à l'application des bonnes pratiques et normes de développement. Participer aux chiffrages des usages et à la constitution des releases . Expertise et Mentoring : Participer à l'auto-formation et à la montée en compétences de l'équipe de développement.

Contract roles and jobs for Big Data

Data Scientist

The Data Scientist uses Big Data tools and techniques to analyze large datasets, develop predictive models, and extract useful insights from complex data.

Data Developer (BI / Big Data / Data Engineer)

The Data Developer (Decision Support / BI / Big Data / Data Engineer) designs and develops Big Data solutions to store, process, and analyze large amounts of data from various sources.

Architecture Consultant

The Architecture Consultant advises businesses on Big Data architecture, designing solutions to manage and analyze large data quantities while optimizing performance and scalability.

Data Analyst

The Data Analyst uses Big Data techniques to collect, analyze, and interpret complex data to provide insights and recommendations that help businesses make informed decisions.

121 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us