Find your next tech and IT Job or contract Big Data
What you need to know about Big Data
Big Data refers to the massive and complex data generated at high speed by various sources, such as social networks, IoT sensors, online transactions, or mobile applications. This data, often voluminous, heterogeneous, and continuously growing, exceeds the capabilities of traditional management and analysis tools. Big Data relies on the 3Vs: Volume (quantity of data), Velocity (speed of generation and processing), and Variety (diversity of formats, structured or not). It is often associated with a fourth V: Veracity (data reliability). Big Data technologies, such as Hadoop, Spark, or NoSQL, enable storing, processing, and analyzing this data to extract valuable insights. These analyses are used in various fields, such as personalized marketing, finance, healthcare, or industrial optimization. Big Data plays a key role in innovation, decision-making, and digital transformation of businesses.
Contractor job
Data Analyst
Compétences techniques indispensables : Maîtrise de SQL et Dataiku (indispensable). Bonne connaissance des environnements Big Data (type Data Lake, Hive, Impala, Spark…). Maitrise des bases du web marketing Connaissance des outils de dataviz : Digdash, Qlik Sense, Power BI, etc. Maîtrise de Piano Analytics ou d’un outil équivalent de web analytics est un plus. Compréhension des enjeux liés à la qualité, à la structuration et à la gouvernance de la donnée. Compétences fonctionnelles : Capacité à analyser, synthétiser et vulgariser des résultats complexes. Sens de la rigueur, de l’autonomie et de la curiosité. Excellentes aptitudes à travailler en équipe et à interagir avec des interlocuteurs variés (techniques et métiers).
Job Vacancy
Architecte Infrastructure / Expertise Kafka Elastic Logstash Kibana Beats Opensearch
Architecte Infrastructure / Architecte Infrastructure Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l'entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Technologies Principales • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) Technologies d'Automation • Ansible • Git/Bitbucket • Développement Python et REST APIs Environnement • Environnement anglophone
Contractor job
Data Engineer
Entité : Industrie Location : Toulouse ou full-remote Date de démarrage : 17/11/2025 English possible Durée mission : 12 mois (date de fin : 09/10/2026) Mission: we are looking for a data engineer with Spark, Java, real-time processes and MongoDB skills He/She will have to help on the current project backlog ( corrections & new features ) Within a 3 people team for this domain but included in a larger team. Maintenance and evolutions of CCO projects (Big Data processing and real time processing). Project team of 2 developers and a project manager for coordination. Included in a larger team of approx. 8 to 10 peoples.
Contractor job
Data Engineer (PySpark)
CONTEXTE Métiers Fonctions : Data Management, Data Engineer Spécialités technologiques : Big Data Compétences Technologies et Outils : HadoopPyspark (2 ans) Dans le cadre d’un projet stratégique autour du recouvrement et de la lutte contre la fraude, nous recherchons un Data Engineer confirmé spécialisé en PySpark, pour rejoindre une équipe technique pilotée par un Tech Lead expérimenté. Le projet s’appuie sur des volumes massifs de données critiques (plusieurs milliards d’événements par jour) et vise à développer des cas d’usages à fort impact dans la détection d’anomalies et l’optimisation des processus de recouvrement. MISSIONS Missions principales - Participer à la construction et l’optimisation des pipelines de données sous PySpark. - Contribuer à la mise en place d’architectures Big Data sur un environnement Hadoop (bonus). - Assurer la qualité, la fiabilité et la performance des flux de données. - Collaborer étroitement avec les équipes data science et métier pour industrialiser les cas d’usage (fraude, scoring, recouvrement automatisé…). - Intervenir sur des problématiques de scalabilité et de traitement en temps réel / batch. - Garantir la sécurité et la conformité des traitements sur des données sensibles.
Contractor job
Consultant Data Engineering & Support Reporting Réglementaire
Le bénéficiaire recherche un(e) consultant(e) pour accompagner ses équipes en charge du reporting réglementaire et de la supervision des chaînes de production de données . L’objectif : garantir la fiabilité, la qualité et la conformité des flux de données réglementaires, dans un environnement complexe et fortement orienté Big Data . Volet Data Engineering Assurer le bon acheminement quotidien des données dans les applications et systèmes de contrôle (Datawarehouse). Suivre et améliorer la qualité des données : complétude, exactitude, ponctualité (accuracy, timeliness, completeness). Concevoir et implémenter des pipelines de données inter-applications et inter-environnements, afin d’améliorer la qualité et la fiabilité du reporting réglementaire. Volet Support et Supervision Fournir un support technique et fonctionnel transverse , couvrant différents métiers, applications et technologies. Assurer le monitoring des chaînes de reporting et le traitement des anomalies (flux d’opérations, data quality, etc.). Suivre la performance et l’efficacité des chaînes réglementaires (timeliness, complétude…). Participer aux task forces de reprise ou de traitement de stock (scripting, SQL, automatisation). Réaliser des analyses fonctionnelles et techniques sur les rejets liés aux opérations ou aux flux métiers.
Job Vacancy
INGENIEUR DE PRODUCTION DEVOPS
ACENSI c’est 210 M€ et 1800 collaborateurs qui s’impliquent dans la transformation des SI de nos clients grâce à notre expertise multisectorielle. Transformation numérique, Digital, Big Data, Mobilité, Cloud, Sécurité… n’auront plus de secret pour vous. Classée parmi les 100 plus belles entreprises de France depuis 2013, ACENSI est une championne de la croissance et intervient activement sur vos projets stratégiques en France, Belgique et Canada. Contexte du poste Au sein d’un grand groupe bancaire français, la Direction des Infrastructures gère plus de 80 % de la production informatique du groupe. Le poste est rattaché à la division Paiements , qui assure la gestion et le maintien en condition opérationnelle des applications pilotant les distributeurs et automates bancaires. L’équipe dispose d’un laboratoire complet regroupant plus de 80 modèles d’automates pour la réalisation des tests et des opérations de préproduction. Ce poste intervient dans un environnement critique et sensible.
Job Vacancy
Data Engineer Senior - Tours
Vos principales responsabilitésComitologie, documentation & cartographie data Préparer et animer les instances transverses DSIM (League Design Data, Guildes Data, etc.) Documenter les assets Data de la plateforme DSIM (SimDoc, Datahub, Datalab) Réaliser la cartographie des données et concevoir/développer les outils associés Expertise Data Apporter un accompagnement technique et un rôle de conseil sur les projets Data / Big Data (Datahub & Datalab) Participer à l’analyse, la conception et la refonte d’assets Data transverses Contribuer au suivi des évolutions et migrations de la stack technique DSIM Facilitation et coordination Jouer un rôle de médiation entre projets transverses Accompagner l’expression des besoins et la rédaction de spécifications technico-fonctionnelles Compétences obligatoires Minimum 10 ans d’expérience dans le domaine Data / Big Data Maîtrise de la modélisation et cartographie Data Maîtrise des environnements : Spark/Java, Kafka Entreprise, Starburst, OpenShift, SQL Excellentes qualités relationnelles : coordination, écoute, pédagogie Compétences optionnelles Power BI SAS Python
Contractor job
Mission Freelance – Data Steward / Chef de projet Data Gouvernance
Vos missions Déployer la stratégie de gouvernance Data au sein d’un domaine fonctionnel clé (comportements utilisateurs). Garantir la qualité, la traçabilité et la conformité des données collectées et exposées. Mettre en place et suivre les règles de Data Quality (contrôles automatiques, reporting, remédiation). Alimenter et maintenir le glossaire métier et le catalogue de données (métadonnées, définitions, propriétaires). Appliquer les politiques RGPD et sécurité des données du groupe. Coordonner les acteurs Data : Data Owners, Data Engineers, Métiers. Animer le domaine Data (ateliers, comités, sensibilisation). 🛠️ Environnement technique Cloud / Big Data : GCP (BigQuery), Hadoop, Spark, Hive Outils de gouvernance : Collibra, Alation, Talend Data Catalog (ou équivalent) Langages & outils : SQL, Jira, Confluence, Power BI (reporting) Méthodologie : Agile / DataOps
Contractor job
Ingénieur DBA & DevOps (h/f)
Résumé Ce poste vise à moderniser et optimiser nos systèmes de données en intégrant une expertise en administration de bases de données et en culture DevOps/Cloud. Responsabilités : Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité, le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD. Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’évolution des schémas BDD via des outils de migration comme Liquibase. Compétences : Bases OnPrem : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c. Cloud : AWS (RDS, Aurora MySQL, Glue, Redshift) – Maîtrise AWS = pré-requis. ETL / Data pipelines : Airflow, Dollar Universe ou équivalent. Langages : SQL avancé, Python, Shell. IaC & DevOps : Terraform, Ansible, Git, Docker, CI/CD – pré-requis. Gestion de schémas BDD : Liquibase (pré-requis). Détails : Localisation: Neuilly sur Seine (92) Télétravail: 2 jours par semaine
Contractor job
INGENIEUR DATA BI - CLOUD AZURE
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Contractor job
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Contractor job
Ingénieur Production Data
Le Data Office a pour mission de consolider, manager et valoriser le patrimoine de données, qui est un capital stratégique pour mon client, via le développement de produits et services data transverses à l’entreprise et au service du business. Au sein du Data Office, la mission de l’équipe Core Data est de développer et maintenir une plateforme centralisée, sécurisée, fiable et performante au service des usages data de l’ensemble des directions métier de mon client. Elle est notamment responsable d’un datalake opérationnel sur le cloud AWS et d’un patrimoine applicatif de jobs de transformation et production de données (Scala Spark). Elle assure également la maintenance de la plateforme Dataiku. Dans le cadre de son activité, mon client recherche un(e) Ingénieur de Production Data, qui sera amené(e) à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers.
Contractor job
Administrateur(trice) Dataiku DSS - LUXEMBOURG
Mission au Luxembourg. Il est impératif et obligatoire de résider proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
Job Vacancy
Ingénieur BI H/F
ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Votre mission (si vous l’acceptez) : Analyser les besoins métiers et proposer les meilleures solutions techniques Rédiger les dossiers d’architecture technique Modéliser des datawarehouses, datamarts et datalakes Concevoir et développer des flux d’alimentation (batch ou streaming) Réaliser les tests unitaires et accompagner la recette client Déployer les solutions en production et assurer leur évolution et maintenance Rédiger la documentation technique et assurer les transferts de compétences
Job Vacancy
Data Engineer - Expert Cloudera (F/H)
Data Engineer & Expert Cloudera – CDI – Gennevilliers (92) – 60/70 K€ Contexte du poste Dans le cadre d’un projet Groupe couvrant 5 divisions métiers, la DSI renforce son équipe Data avec le recrutement d’un Data Engineer. L’objectif est de concevoir et mettre en place un Data Layer commun et de développer une série d’indicateurs métiers structurants pour le pilotage des activités. Le Data Engineer interviendra également sur l’ implémentation des user stories issues du backlog défini par le PPO. L’équipe actuelle se compose de 4 Chefs de projet BI et 1 Architecte Big Data . À terme, elle intégrera 2 Consultants BI , 2 PPO et 1 autre Data Engineer . Missions principales Participer à la spécification et au développement au sein de la nouvelle infrastructure Cloudera Réaliser les scripts d’intégration et de transformation des données en Scala / Spark Concevoir et préparer les jeux de données nécessaires au reporting dans Power BI Concevoir, documenter et optimiser les modèles de données pour la performance et la maintenabilité Être force de proposition pour l’évolution de la plateforme et l’amélioration des performances globales
Job Vacancy
Ingénieur Prod Data / DataOps Engineer (Pas de profils Data Engineer / Data Scientist)
Pour l'un de nos clients nous recherchons un(e) Ingénieur de Prod Data, qui sera amené à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers. Les principales missions sont les suivantes : Administration de la plateforme Data et de ses outils Administrer les composants Dataiku et CloudBeaver de la plateforme (installation, configuration, monitoring, backup, montées de version…) Faire évoluer et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagner les utilisateurs sur les best practices et l’industrialisation des projets métiers Support et expertise technique Résoudre les incidents impactant les plateformes Conseiller les équipes du Data Office (Data engineers / Data scientists / Data analysts / BI engineer) sur les choix d’implémentation (architecture et technologie) Réaliser des audits techniques, des analyses de performance (requêtes SQL, jobs Spark, fonctions Lambda, entraînement modèles ML, …) ou des PoC. Evolution de l’infrastructure : Evaluer l'infrastructure actuelle et proposer si besoin une stratégie de modernisation progressive des composants legacy (IaaS) vers des solutions cloudnatives (PaaS/SaaS/Serverless), en intégrant les pratiques DevOps (IaC, CI/CD, automatisation) et FinOps Développer et implémenter les nouveaux patterns d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel)
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- Hire a Bitcoin Agent: CAPTAIN JACK Recovery
- Perfect CV resume Experts in UAE
- Are tokenized stocks the next big trend or just hype ?
- Can the MT5 CRM software generate custom reports on client trading behavior, deposits/withdrawals, and revenue?
- Understanding the Importance of Law Assignment Help in Academic Learning
- HOW TO RECLAIM STOLEN CRYPT0 WITH WINTECH SECURITY.
Jobs by city
Jobs by country
Contract roles and jobs for Big Data
Data Scientist
The Data Scientist uses Big Data tools and techniques to analyze large datasets, develop predictive models, and extract useful insights from complex data.
Explore contract role and jobs for Data Scientist .
Find out the jobsData Developer (BI / Big Data / Data Engineer)
The Data Developer (Decision Support / BI / Big Data / Data Engineer) designs and develops Big Data solutions to store, process, and analyze large amounts of data from various sources.
Explore contract role and jobs for Data Developer (BI / Big Data / Data Engineer) .
Find out the jobsArchitecture Consultant
The Architecture Consultant advises businesses on Big Data architecture, designing solutions to manage and analyze large data quantities while optimizing performance and scalability.
Explore contract role and jobs for Architecture Consultant .
Find out the jobsData Analyst
The Data Analyst uses Big Data techniques to collect, analyze, and interpret complex data to provide insights and recommendations that help businesses make informed decisions.
Explore contract role and jobs for Data Analyst .
Find out the jobs