Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Offre d'emploi
Tech Lead Databricks
Nous recherchons un Tech Lead Databricks pour rejoindre l’équipe Data en pleine expansion de notre client, leader dans le domaine de la maitrise des risques. Vous aurez la responsabilité d’assurer la conception et la mise en œuvre de solutions de data engineering et data science sur la plateforme Databricks, tout en assurant le leadership technique pour une équipe de développeurs et data engineers. MISSIONS Leadership technique Coacher une équipe de data engineers, data scientists, et développeurs travaillant sur la plateforme Databricks Mettre en place des bonnes pratiques de développement et veiller à la qualité du code (revues de code, tests unitaires) Conception et architecture Concevoir et implémenter des solutions techniques sur Databricks pour répondre aux besoins des équipes métiers (data analytics, data science) Définir des architectures évolutives et performantes pour l'ingestion, le traitement et l’analyse des données Participer à la modélisation de données Travailler en étroite collaboration avec les architectes, les équipes applicatives et équipes métiers pour définir des solutions adaptées Développement et intégration Développer des pipelines de données et des workflows de traitement de données dans Databricks Assurer l'intégration des solutions avec d'autres outils et systèmes (bases de données, systèmes de stockage, outils de BI) Participer au développement des tableaux de bord sous Power BI Optimisation des performances Identifier et résoudre les problèmes de performance dans les flux de données et l'architecture Mettre en place des mécanismes d'optimisation des coûts liés à l’utilisation de la plateforme Databricks Veille technologique et innovation Assurer une veille sur les nouvelles technologies et pratiques dans l’écosystème Big Data et Databricks Proposer des améliorations continues pour augmenter l’efficacité des processus et la qualité des données Accompagner et former les équipes IT aux bonnes pratiques ITIL

Mission freelance
Engineering Manager / Manageur DATA/IA (F/H)
Contexte Dans un contexte de forte croissance des usages numériques et d’accélération de la transformation digitale , les données et l’intelligence artificielle constituent des leviers stratégiques pour améliorer l’expérience client, optimiser les opérations et soutenir l’innovation. La montée en puissance de nos plateformes data, combinée à l’émergence de nouvelles technologies (cloud data platforms, big data, IA générative, MLOps), exige un pilotage technique et organisationnel solide pour garantir la qualité, la robustesse et la scalabilité de nos solutions. Afin d’accompagner cette dynamique, la société souhaite renforcer son organisation en s’appuyant sur un prestataire disposant d’une forte expertise en management et delivery d’équipes Data & IA, capable de piloter l’ensemble du cycle de vie de nos produits data/IA, de soutenir la montée en compétence des équipes, et d’assurer la cohérence technique et opérationnelle de notre écosystème data. Livrables Activités & responsabilités 1. Constitution & maturité des équipes Data & IA - Recruter, staffer et faire monter en compétence les équipes Data/IA. - Assurer un équilibre entre roadmap produit et ressources Tech Data/IA. - Garantir l’adoption des bonnes pratiques (clean code, sécurité, data quality, éthique de l’IA, observabilité). 2. Management de proximité - Encadrer les développements Data & IA et promouvoir une culture de feedback. - Gérer la motivation, la cohésion et la montée en compétence des équipes. - Définir les objectifs individuels et collectifs, et suivre leur atteinte. 3. Delivery & Production - Piloter la qualité du delivery des solutions Data & IA (délais, coûts, engagements). - Mettre en place des standards et process de delivery adaptés (MLOps, CI/CD pour modèles IA, monitoring des données et modèles). 4. Collaboration avec les équipes Produits & Métier - Aligner les équipes Data/IA avec les enjeux produits et métiers. - Travailler avec les responsables produit, data owners et business stakeholders pour transformer les besoins en solutions concrètes. 5. Contribution technique - Participer à la définition des solutions Data & IA en gardant un rôle de facilitateur technique (sans être sur le chemin critique). - Challenger les choix technologiques (data architecture, frameworks IA, cloud) et favoriser l’innovation. - Développer une vision long terme sur la gouvernance et la stratégie Data & IA. ## Interactions - Avec l’écosystème Tech et Produit : pour le pilotage des équipes et le delivery des projets Data & IA. - Avec les équipes Métier : pour comprendre les besoins et maximiser la valeur business des cas d’usage IA. - Avec les RH / Managers RH : pour le suivi des collaborateurs (formation, évolution, mobilité). Description - Garantir la cohérence technique et la qualité des produits Data & IA en collaboration avec les experts et les équipes de delivery. - Encadrer et faire grandir les équipes de développement Data/IA (DE , travailler avec des DS, MLOps, etc.) pour répondre aux enjeux business et techniques. - Définir et piloter la trajectoire de delivery (qualité, respect des engagements) pour assurer la mise en production fluide et sécurisée des solutions Data & IA. - Maintenir et développer les compétences clés des équipes dans un contexte technologique en forte évolution (cloud data platforms, IA générative, big data, MLOps). - Assurer la qualité de service en production des solutions Data & IA (robustesse, performance, monitoring, observabilité).

Mission freelance
ARCHITECTE DATA
Dans le cadre d'un projet pour l'un de nos clients dans le secteur de la monétique, vous interviendrez au sein de l’équipe d’architecture, l’architecte data aura pour mission de concevoir et mettre en œuvre la gouvernance des données de la solution applicative. L'objectif sera d'accompagner notre client sur l'étude, l'aide à la gouvernance Data, et la mise en œuvre. Principales activités Etude de l’existant de la solution Proposition d’une gouvernance data utile et efficace en cohérence avec l’organisation et la structure de la société Définition de l’architecture data de la solution applicative Collaboration avec les équipes métiers, techniques et sécurité pour garantir l’alignement des pratiques data. Définition ou proposition d’évolution des référentiels de données, dictionnaires de données et règles de gestion. Participation à la mise en place d’outils de gouvernance (Data Catalog, Data Quality, MDM, etc.). Accompagner les équipes dans l’adoption des bonnes pratiques de gestion des données. Assurer une veille technologique et réglementaire sur les sujets data.

Mission freelance
Data & AI Product Manager – Lille
Nous recherchons un Data & AI Product Manager expérimenté, capable de piloter des projets d’Intelligence Artificielle ambitieux et stratégiques. Votre rôle sera de transformer les besoins métiers en solutions concrètes basées sur l’IA : modèles prédictifs à grande échelle, systèmes de recommandation, outils d’aide à la décision et produits data innovants. Vous animerez une équipe de Data Scientists, Machine Learning Engineers et BI Engineers, et serez le garant de la vision produit comme de la qualité des livrables. Votre mission consistera à comprendre en profondeur les enjeux métiers, co-concevoir des solutions IA adaptées, prioriser la roadmap, et accompagner les phases de conception, déploiement et évolution. Vous jouerez un rôle clé dans la création de valeur par l’IA, au service d’une entreprise engagée dans la Tech4Good. Début des entretiens le 25/08.

Offre d'emploi
Data Governance Manager
Bonjour à tous :) Nous recrutons un(e) Consultant(e) Data Governance pour accompagner l’un de nos clients du secteur Banque/Finance dans la mise à jour stratégique de sa politique de gouvernance des données ! Vous interviendrez au sein du département Data Office, dans un contexte de transformation du cadre de gouvernance à l’échelle du groupe. La mission : Vous serez amené(e) à : • Analyser les écarts entre le framework de gouvernance du client et celui du groupe. • Contribuer à la refonte complète de la politique de gouvernance des données. • Rédiger les chapitres de la politique de manière claire et opérationnelle. • Élaborer les procédures associées aux différents volets de la gouvernance. • Traduire certains documents du framework en français. • Participer au plan de communication interne autour de la mise à jour. • Travailler sur l’opérationnalisation du nouveau cadre de gouvernance. • Définir les matrices RACI entre les parties prenantes (DPO, CISO, DCIO…) Vous êtes en CDI et dispo très rapidement idéalement sous une semaine ? N'hésitez pas à envoyer votre CV !

Offre d'emploi
Data Engineer
Au sein de la Data Platform, le renfort devra intervenir en tant qu'expert sur les sujets Kafka, KStreams, K8S, Spark, Java de la squad Data Value (connaissance client, collecte des événements digitaux...). Expertise technique confirmé sur Kafka, Kstreams, K8s, streaming de données Développer en Spark/Kafka des traitements de transformation et de production de données Designer des chaines optimisées CI/CD en collaboration avec les équipes, DEVOPS, et CAGIP Assurer et garantir la production d'un code de qualité : robuste, maintenable et évolutif Participer à l'amélioration continue et à la revue de code

Mission freelance
Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Offre d'emploi
Data lake protection
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons sur Toulouse le profil suivant : Intégrer les solutions de Data Leak Protection (DLP) en établissement Contrainte forte du projet - Les livrables sont Solutions et Règles DLP Analyse des évènements générés Rapport/Tableaux de bord de l'activité Compétences techniques Outils Data Leak Prevention - Confirmé - Impératif Splunk - Confirmé - Important Développement / Scripting - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée Le département Cloud, Application, Data et Expertise Sécurité de la Direction Sécurité de BPCE-IT recherche pour le service Data Protection un expert en Data Leak Prevention de formation ingénieur pour l'accompagner dans sa mission de protection des données sensibles Au sein d'une équipe de plusieurs experts, la mission s'inscrira dans le cadre d'un projet visant à prévenir de la fuite de données. Les principales activités seront les suivantes: - Capture des besoins de protection des données sensibles métiers - Définition, paramétrages et amélioration des règles DLP - Améliorer les solutions de détections - Participer aux choix et à la mise en oeuvre des nouveaux outils - Analyse des évènement générées et optimisation des faux positifs - Suivi des rémédiations - Définition, suivi des indicateurs de l'activités - Création d'un tableau de bord Pour remplir cette mission les compétences suivantes sont demandées: - Compétences fonctionnelles et techniques sur les sujets DLP - Connaissances des outils Trellix DLP, Netskope, Splunk - Compétence de développement (PowerApp, PowerBI, Python) - Culture en SSI/Cybersécurité et en particulier sur les risques associés aux fuites d'information - Connaissances techniques générales Lieu de réalisation Toulouse Déplacement à prévoir oui - Paris, Lyon Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Offre d'emploi
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins

Mission freelance
Tech lead Big data Hadoop , Spark, Hive Kafka / 550 e par j
Tech lead Big data Hadoop , Spark, Hive Kafka / 550 e par j Référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solution Big Data, ainsi que le pilotage technique de projets. étude et prise en compte des besoins de traitement de la data, gestion des priorités et de la cohérence des besoins, choix des outils et solutions conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé Maîtrise des technologies du Big Data telles que Hadoop, Spark, Hive/Impala, Kafka - Excellentes compétences en programmation, maitrisant des langages tels que : Python, Scala ou Java, - Capacité à résoudre des problématiques complexes avec un esprit de synthèse et une pensée analytique - Bonne expérience dans la conception et la mise en œuvre de pipelines de données fiables et scalables, en utilisant des frameworks tels que Spark, Oozie, Airflow … - Bonnes compétences en mathématiques et statistiques - Connaissances monétiques 550 e par j

Mission freelance
CHEF DE PROJET OCTROI DE CREDIT
Pour l'un de nos clients du secteur bancaire, nous recherchons un Chef de Projet lié à l'octroi de crédit Professionnel et Corporate. L'objectif de la mission est, via l'IA, d'agréger les données internes et externes à destination des équipes risque de crédit. Compétences INDISPENSABLES attendues : - METIER : EXPERTISE AVEREE dans l'octroi de crédit Professionnel et Corporate. - PROJET : Rôle de Chef de Projet - IT : Compétences en IA et en Data Management. Banque de premier plan, équipe risques de crédit, contexte d’innovation data et IA, forte exposition stratégique.

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Offre d'emploi
Data OPS - Support plateforme Big Data
Dans le cadre du renforcement de notre capacité de support N2, nous recherchons un/une ingénieur spécialisé dans l’exploitation et le support de plateformes Big Data. Role : assurer le maintien opérationnel des plateformes Spark et Airflow tournant sur Kubernetes : Bonne vision de l'univers prod dans la big data Bon niveau en Kubernetes attendu Anglais courant Disponible ASAP Bonnes pratiques d’exploitation de traitements data distribués. Connaissances en tuning Spark, gestion des ressources, profiling applicatif. Capacités rédactionnelles pour formaliser les procédures d’exploitation et de diagnostic. Compétences en scripting (Ansible, Python, Bash..) appréciées. Maitrise chaine CI/CD (Git, jenkins, Gitlab CI, ….)

Mission freelance
Expert Cyber Log Management (Secteur Automobile)-île de France (H/F)
Contexte Notre client final, grand acteur du secteur automobile, recherche un Expert Cyber Log Management confirmé pour renforcer ses équipes SOC. La mission consiste à définir et mettre en œuvre une stratégie globale de gestion des logs (collecte, stockage, analyse et gouvernance) couvrant l’ensemble du périmètre IT, Cloud, OT et IoT. Localisation : Région parisienne – Guyancourt ou Boulogne-Billancourt Démarrage : ASAP Type de contrat : Freelance ou Portage salarial Séniorité : (8+ ans d’expérience) Télétravail : 3 à 4 jours/semaine
Offre d'emploi
Tech Manager Data Engineering Devops Finops (PMS, OPERA Cloud)
Nous recherchons pour l'un de nos clients un Tech Manager Data Engineering Devops Finops dans le secteur du loisirs : Vos missions principales : Encadrement d’équipes Data (tech leads, delivery manager) et pilotage de leurs activités : suivi opérationnel, organisation agile, reporting aux responsables de domaine. Déploiement et optimisation de connecteurs Data, intégration des données dans l’écosystème interne et alimentation des systèmes aval (finance, vente, fidélisation, etc.). Participation au delivery et au run : suivi des incidents, plan de rattrapage, monitoring et amélioration continue de la performance (DevOps, FinOps). Contribution à la roadmap Data : cadrage, ajustement organisationnel, définition des priorités, validation des choix techniques et de modélisation (Snowflake, patterns, qualité). Animation de la relation avec les parties prenantes internes et externes : suivi des chantiers, coordination transverse et communication claire sur l’avancement et les incidents.
Offre d'emploi
concepteurs développeurs intégrateurs Sénior sur l’outil de GED Nuxeo
Nous recherchons 2 profils concepteurs développeurs intégrateurs Sénior sur l’outil de GED Nuxeo (éditeur Hayland) Contexte : Actuellement, l’équipe travaille sur la nouvelle solution Nuxeo, développée par Hyland, dans le cadre d’une stratégie de migration. L’objectif est de transférer l’ensemble des projets GED vers cette nouvelle plateforme. Neuf projets sont concernés, répartis sur plusieurs années, certains contenant plusieurs centaines de milliers de documents, d’autres plusieurs millions. L’équipe à rejoindre est en charge de la conception du Core Model et apporte un support fonctionnel et technique aux autres équipes intervenant sur des projets GED. Ces 2 renforts techniques ont pour objectif de renforcer une équipe en place. Lieu de la mission : 92 - 2 jrs/semaine + TT Réalisation des missions suivantes : - Concevoir des projets GED Nuxeo (faire des ateliers de conception, analyser la solution technique, chiffrer, documenter…). Les besoins sont de types : mise en place de nouvelles GED avec une migration des données, avec l’interfacage avec d’autres application (applications Métier, MS 365, Archivage, Signature Electronique…) - Réaliser la mise en place de GED Nuxeo avec l’interfaçages avec d’autres solutions. Cela nécessite également de l’utilisation des composants existants ou développer de nouveaux composants) - Réaliser la migration des GED actuelles (volumétrie : quelques centaines milliers documents à quelques dizaines millions documents selon les projets) - Réaliser les tests de performances - Accompagner l’équipe à faire la montée en compétences sur Nuxeo et faire du support technique/fonctionnel pour toutes questions d’expertise relatives à cette solution - Maintenir les projets GED Compétences : Pour cette prestation, nous cherchons 2 concepteur-développeur-intégrateur senior avec des compétences suivantes : 1. Une très bonne maîtrise de Nuxeo sur le paramétrage et le fonctionnement du produit et ses composants afin de pourvoir mettre en place/migrer/maintenir des projets de GED 2. Une très bonne maîtrise de Java Parallèlement, il faudrait avoir ces compétences suivantes : • Une connaissance significative de la conception et du développement, • Une maîtrise des outils de devéloppement nécessaires pour les projets GED Nuxeo Angular, JavaScript, PostgreSQL, MongoDB Tomcat, Apache ElasticSearch, OpenSearch Kafka, Zookeeper JUnit, Guice, SoapUI, JMeter Jira, Confluence • Une maîtrise des outils de déploiement Devops (automatisation et CICD, Conteneurisation et orchestration etc) sur ces environnements Linux, Windows, cloud AWS, GCP, on premise Compétences organisationnelles et posture : • Se focalise sur le besoin utilisateur, possède un esprit agile, • Aime partager ses connaissances et a bon un esprit d’équipe, de relationnel • Est force de proposition, est à l’écoute et fait preuve d’ouverture d’esprit, • Cherche à améliorer la qualité des produits ainsi que les pratiques de l’équipe projet et du pôle, • S’adapte au contexte et contraintes du client.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres