Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Toulouse
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.
Mission freelance
Consultant SAP DATA MIGRATION
Bonjour, Je recherche un consultant SAP Data Migration, pour intervenir sur une mission , chez un de nos clients.
Offre d'emploi
Consultant junior en CMDB / ServiceNow
Votre mission consistera à : Définir et évaluer les attributs clés de la qualité des données. Analyser en profondeur les données invalides ou manquantes afin d'en identifier les causes principales. Concevoir et implémenter des tableaux de bord pertinents pour le suivi de la qualité des données CMDB. Auditer et optimiser les processus métier ayant un impact sur la qualité des données. Contribuer activement à l'élaboration et à l'évolution de la stratégie de qualité des données de la CMDB. Coordonner et piloter les actions de remédiation de la qualité des données en étroite collaboration avec les Data Owners et les équipes à l’origine des données. Proposer et mettre en œuvre des solutions techniques ou des mises à jour de données. Rédiger une documentation technique et fonctionnelle exhaustive, ainsi que des articles de base de connaissances (knowledge articles). Animer et participer au réseau des utilisateurs pour promouvoir l'adhésion aux objectifs de gouvernance des données.
Mission freelance
Architecte Data - Toulouse
Environnement technique de la prestation À la suite d’une réorganisation interne ayant entraîné le départ de collaborateurs clés, le client fait face à une perte de maîtrise opérationnelle de sa plateforme Data. Cette dernière, incluant les services BI (Data Warehouse et Power BI), est désormais considérée comme un service critique, avec une exigence de disponibilité et de performance 24/7. Cette évolution s’accompagne d’une sollicitation accrue de la plateforme et d’une consommation continue des données, nécessitant une réactivité renforcée et une supervision proactive. Prestation attendue La mission consistera à travailler sur : Frameworks d’ingestion et restitution : Définir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI, data services). Vision AS IS > TO BE Framework « Observabilité & qualité des données » : Définir métriques et roadmap pour monitorer la qualité des données critiques, en lien avec une initiative déjà lancée avec SODA. Monitoring des flux & santé de la plateforme : Contribuer à la mise en place des indicateurs et outils pour surveiller la performance et la disponibilité des pipelines, service et ressources de la plateforme. (en lien avec le plan de robustification déjà lancé et les travaux menés en parallèle sur la partie FinOps) Plan de migration SSIS + SQL Server → Snowflake : Définir la méthodologie (phases, outils, patterns). Identifier les risques et dépendances. Stratégie d’Access Management : (priorité 2) Définir les rôles, politiques RBAC/ABAC. Garantir la conformité avec les standards de sécurité et gouvernance. Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d’illustrer les écarts VS état de l’art. Ces activités mèneront à la production des livrables ci-dessous : Documentation des frameworks ingestion & restitution(As is > To be). Plan d’observabilité & qualité des données (métriques, outils, roadmap). [CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme. Plan de migration (méthodologie, roadmap, estimation effort). Stratégie d’Access Management (modèle de rôles, règles d’accès). Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art.
Mission freelance
Data Engineer
Entité : Industrie Location : Toulouse ou full-remote Date de démarrage : 17/11/2025 English possible Durée mission : 12 mois (date de fin : 09/10/2026) Mission: we are looking for a data engineer with Spark, Java, real-time processes and MongoDB skills He/She will have to help on the current project backlog ( corrections & new features ) Within a 3 people team for this domain but included in a larger team. Maintenance and evolutions of CCO projects (Big Data processing and real time processing). Project team of 2 developers and a project manager for coordination. Included in a larger team of approx. 8 to 10 peoples.
Mission freelance
Ingénieur Data Cloud (H/F)
Notre client, acteur majeur du secteur bancaire, recherche un.e Data Engineer Cloud pour renforcer son pôle Data dans le cadre d’un vaste programme de modernisation de sa plateforme analytique et de migration vers le cloud. Le poste s’adresse à un profil confirmé, capable d’intervenir sur la conception et l’industrialisation de pipelines de données dans un environnement GCP / BigQuery, avec une approche orientée Data Engineering plutôt que développement applicatif. Vous rejoindrez une équipe d’experts data au sein d’un environnement technique moderne, reconnu pour son cadre de travail de qualité et sa culture d’innovation. Vos missions principales: Concevoir, développer et maintenir les pipelines de données dans un environnement Cloud GCP (BigQuery, Dataflow, Pub/Sub, etc.). Participer à la migration des flux et traitements On-Premise vers le Cloud. Optimiser les performances, la scalabilité et la qualité des données sur la plateforme. Contribuer à la mise en œuvre des bonnes pratiques d’ingénierie data : CI/CD, tests, supervision, gouvernance. Collaborer avec les équipes DataOps, BI et Architecture pour garantir la cohérence et la fiabilité des flux. Documenter les architectures, assurer la traçabilité et la qualité des livrables.
Mission freelance
Data Engineer
Contexte / mission : Nous recherchons un data engineer expérimenté avec des compétences en SQL, ETL et outils de reporting. Le domaine Cargo Datawarehouse charge et affine les données pour les entreprises. Intervention au sein d’une équipe de 8 personnes. Profil : Data Engineer Nombre d’années d’expérience : plus de 5 ans Attendus : Il/elle devra intervenir sur le backlog actuel du projet (corrections et nouvelles fonctionnalités). Les données Cargo pour les domaines suivants sont chargées dans l’entrepôt de données : Données de billetterie et de réservation Données financières Données opérationnelles Serait également apprécié : compétence à piloter des sous-projets au sein du domaine CARGO, sous la responsabilité du responsable de domaine. Quel défi à relever ? PowerBI et GCP à l’avenir.
Offre d'emploi
Expert CMDB / ServiceNow (H/F)
Contexte de la mission La donnée, pilier stratégique du patrimoine de notre client, est au cœur de leur performance. Son exploitation est un levier essentiel pour l'optimisation de leurs processus, l'amélioration de l'expérience client, l'accroissement de l'efficacité opérationnelle et, in fine, la croissance de leurs revenus. Pour pouvoir l'exploiter efficacement et en tirer toute la valeur, un investissement stratégique dans sa gestion et sa gouvernance est indispensable. La Direction Informatique, en phase avec cette vision, a initié une stratégie de gouvernance des données. Un département dédié a été récemment créé pour centraliser et optimiser la gestion de l'ensemble des données informatiques. Il s'appui notamment pour cela sur la solution ITSM ServiceNow : MyITService pour structurer et gérer de manière centralisée leur CMDB (Configuration Management Data Base) et leur CSDM (Common Service Model Management). Au sein de cette gouvernance de données, un accent particulier est mis sur la qualité des données dont les enjeux sont identifiés et priorisés et sur lesquels une communauté de Data Stewards est d'ores et déjà activement engagée. Votre mission consistera à : Définir et évaluer les attributs clés de la qualité des données. Analyser en profondeur les données invalides ou manquantes afin d'en identifier les causes principales. Concevoir et implémenter des tableaux de bord pertinents pour le suivi de la qualité des données CMDB. Auditer et optimiser les processus métier ayant un impact sur la qualité des données. Contribuer activement à l'élaboration et à l'évolution de la stratégie de qualité des données de la CMDB. Coordonner et piloter les actions de remédiation de la qualité des données en étroite collaboration avec les Data Owners et les équipes à l’origine des données. Proposer et mettre en œuvre des solutions techniques ou des mises à jour de données. Rédiger une documentation technique et fonctionnelle exhaustive, ainsi que des articles de base de connaissances (knowledge articles). Animer et participer au réseau des utilisateurs pour promouvoir l'adhésion aux objectifs de gouvernance des données.
Mission freelance
Consultant Quality Conformance Management Toulouse secteur aéro
🛎️ Je recherche un profil freelance QCM 💎 (Quality Conformance Management) basé idéalement à Toulouse pour intervenir à 100% sur site client dans le secteur aéronautique ✈️. QCM Hardskills: - Connaissance de l'aéronautique avec idéalement une expérience QAL sur les FAL - Analyse de données non qualité - Production & ME digital tools - Expertise en résolution en problèmes - Gestion de projets QCM Softskills: - Avoir une position de Lead & Drive - Savoir prendre du recul (Macro-Micro) - Responsabilité - Bonne communication - Esprit d'analyse - Travail en équipe Langue: Anglais et Français mandatory 🤚 Opportunité ouverte pour le freelancing uniquement basée à Toulouse Début de mission: Octobre 2025 ( voir avant ASAP) TJM max: 450 € HT TFC Toulouse
Mission freelance
ARCHITECTE DATA
Dans le cadre d'un projet pour l'un de nos clients dans le secteur de la monétique, vous interviendrez au sein de l’équipe d’architecture, l’architecte data aura pour mission de concevoir et mettre en œuvre la gouvernance des données de la solution applicative. L'objectif sera d'accompagner notre client sur l'étude, l'aide à la gouvernance Data, et la mise en œuvre. Principales activités Etude de l’existant de la solution Proposition d’une gouvernance data utile et efficace en cohérence avec l’organisation et la structure de la société Définition de l’architecture data de la solution applicative Collaboration avec les équipes métiers, techniques et sécurité pour garantir l’alignement des pratiques data. Définition ou proposition d’évolution des référentiels de données, dictionnaires de données et règles de gestion. Participation à la mise en place d’outils de gouvernance (Data Catalog, Data Quality, MDM, etc.). Accompagner les équipes dans l’adoption des bonnes pratiques de gestion des données. Assurer une veille technologique et réglementaire sur les sujets data.
Mission freelance
Développeur fullstack - Data/IA (H/F)
Notre client dans le secteur Santé et pharma recherche un/une Data / IA Engineer (H/F ) Description de la mission : Dans le cadre de nouveaux projets, notre client va rechercher un freelance expérimenté sur la partie Data. Vous interviendrez au sein de l'équipe Data intégration en tant que Data / IA Engineer. Vous serez responsable de la conception, du développement et de l'intégration de solutions complètes enrichies par des algorithmes d'intelligence artificielle. Vous jouerez un rôle crucial dans la création de services backend robustes et performants, en utilisant Python et FastAPI pour traiter et analyser des données complexes. Vos missions seront les suivantes : Concevoir et développer des services backend en Python et FastAPI, intégrant des techniques avancées de machine learning et de traitement de données massives. Gérer et optimiser des bases de données telles que MongoDB, Elasticsearch, ainsi que des systèmes SQL et NoSQL pour assurer un stockage et une analyse efficaces des données. Mettre en œuvre des méthodologies de CI/CD en utilisant Docker et GitLab CI, avec un fort accent sur l'automatisation des workflows de data science pour garantir une intégration et une livraison continues fluides. Collaborer avec les équipes de développement pour intégrer des modèles d'IA dans les applications, en assurant leur performance et leur scalabilité. (Optionnel) Développer des interfaces utilisateur interactives en utilisant React et Next.js, permettant une interaction fluide avec les modèles d'IA.
Mission freelance
Teach Lead
Contexte / mission : Nous recherchons un data engineer senior, avec une forte expérience en Java/Spark, pour rejoindre l’équipe XXXXXXXX. L’équipe XXXXXXXXX est composée de business analysts, développeurs interfaces graphiques, data scientists et data engineers. Les data engineers sont responsables de la partie prétraitement des données. Ils gèrent les pipelines de données qui alimentent les modèles prédictifs, avant de transférer les données calculées vers le back-end des interfaces graphiques. La solution actuelle, on-premise, est en cours de migration vers GCP. Domaine métier : E&M
Offre d'emploi
Data lake protection
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons sur Toulouse le profil suivant : Intégrer les solutions de Data Leak Protection (DLP) en établissement Contrainte forte du projet - Les livrables sont Solutions et Règles DLP Analyse des évènements générés Rapport/Tableaux de bord de l'activité Compétences techniques Outils Data Leak Prevention - Confirmé - Impératif Splunk - Confirmé - Important Développement / Scripting - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée Le département Cloud, Application, Data et Expertise Sécurité de la Direction Sécurité de BPCE-IT recherche pour le service Data Protection un expert en Data Leak Prevention de formation ingénieur pour l'accompagner dans sa mission de protection des données sensibles Au sein d'une équipe de plusieurs experts, la mission s'inscrira dans le cadre d'un projet visant à prévenir de la fuite de données. Les principales activités seront les suivantes: - Capture des besoins de protection des données sensibles métiers - Définition, paramétrages et amélioration des règles DLP - Améliorer les solutions de détections - Participer aux choix et à la mise en oeuvre des nouveaux outils - Analyse des évènement générées et optimisation des faux positifs - Suivi des rémédiations - Définition, suivi des indicateurs de l'activités - Création d'un tableau de bord Pour remplir cette mission les compétences suivantes sont demandées: - Compétences fonctionnelles et techniques sur les sujets DLP - Connaissances des outils Trellix DLP, Netskope, Splunk - Compétence de développement (PowerApp, PowerBI, Python) - Culture en SSI/Cybersécurité et en particulier sur les risques associés aux fuites d'information - Connaissances techniques générales Lieu de réalisation Toulouse Déplacement à prévoir oui - Paris, Lyon Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
Data Engineer Sénior
Au sein de la Direction Systèmes d’Information & Accélération Digitale et rattaché(e) au Directeur Service Data Intégration, nous cherchons un(e) Expert(e) solution Data afin de définir, développer, mettre en place, maintenir les outils et les projets Analytics. 1.1. CONTENU DE LA MISSION OU DES LIVRABLES Vous implémentez et industrialisez les pipeplines pour collecter, nettoyer, modéliser, cataloguer et restituer des données afin de les rendre accessible tout en veillant à leur qualité. Plus précisément, vous : 1. Concevez des solutions pour collecter, transformer et exploiter des gros volumes de données. 2. Participez à l’industrialisation des traitements et à leur amélioration continue, au monitoring pour qu’ils soient fiables, robustes et performants afin de répondre aux exigences métiers 3. Implémenter et opérer les projets Data et Analytics centraux sur une plateforme mutualisée (Data Platform) 4. D'assurer le run des projets Data & Analytics centraux en second niveau derrières les équipes en charge. 5. Vous assurez une veille technologique afin d’être à la pointe des connaissances en matière de data et de participer à la définition de la Roadmap technologique Data & Analytics. 1.2. SPECIFICITE DE LA MISSION Vous maîtrisez des langages de programmation (Python, Java, Shell), des solutions de bases de données type Snowflake, des ELT (Matillion, Azure Data Factory) ainsi que la solution Power BI. Vous êtes à l’aise dans les environnements Cloud (Azure, Google) et avec les outils d’intégration et de déploiement continue (Jenkins, git, gitlab, création de CI/CD, docker, Ansible, kubernetes…) Vous avez un très bon niveau d’anglais professionnel vous permettant d’interagir à l’oral, comme à l’écrit, dans un environnement international. Au-delà de vos compétences techniques, vous êtes reconnu(e) pour : - Capacité à analyser les exigences fonctionnelles et à les formaliser en solutions techniques - Votre esprit collaboratif et votre capacité à interagir avec les métiers - Votre rigueur, votre autonomie et votre sens de l’organisation vous permettant de gérer plusieurs projets en parallèle - Capacité à piloter et challenger des prestataires extérieurs - Aisance en matière de participation à des projets en milieu international : sens du contact, de la communication orale, sensibilité dans les relations personnelles et interculturelles La mission portera sur les outils suivants : • Tableau Software : Pour la visualisation et l'analyse de données. • Alteryx : Pour la préparation et l'automatisation des flux de données. • Snowflake : Pour la gestion des bases de données. • Matillion : Pour les processus ELT. • Azure Data Factory : Pour l'intégration et l'orchestration des données. • Airflow : Pour l'orchestration des workflows. • MS Fabric – Power BI : Pour la gestion des données et des analyses. • Denodo : Pour la virtualisation des données.
Mission freelance
Consultant DATA MANAGEMENT ServiceNow H/F
Au sein de cette gouvernance de données, un accent particulier est mis sur la qualité des données dont les enjeux sont identifiés et priorisés et sur lesquels une communauté de Data Stewards est d'ores et déjà activement engagée. Au sein de l'équipe IT4IT Data & AI Office, en tant qu'expert(e) Data Steward, votre mission consistera à : Définir et évaluer les attributs clés de la qualité des données. Analyser en profondeur les données invalides ou manquantes afin d'en identifier les causes principales. Concevoir et implémenter des tableaux de bord pertinents pour le suivi de la qualité des données CMDB. Auditer et optimiser les processus métier ayant un impact sur la qualité des données. Contribuer activement à l'élaboration et à l'évolution de la stratégie de qualité des données de la CMDB. Coordonner et piloter les actions de remédiation de la qualité des données en étroite collaboration avec les Data Owners et les équipes à l’origine des données. Proposer et mettre en œuvre des solutions techniques ou des mises à jour de données. Rédiger une documentation technique et fonctionnelle exhaustive, ainsi que des articles de base de connaissances (knowledge articles). Animer et participer au réseau des utilisateurs pour promouvoir l'adhésion aux objectifs de gouvernance des données.
Mission freelance
Architecte Data - Gouvernance des données
Contexte : Au sein d'une équipe d'architecture dédiée à une solution applicative stratégique dans le domaine des paiements, l'architecte data aura pour mission de concevoir et mettre en œuvre la gouvernance des données de la solution applicative du client. Lieu : Toulouse Missions principales : Étudier l'existant de la solution applicative Proposer une gouvernance data utile et efficace, en cohérence avec l'organisation et la structure de l'entreprise Définir l'architecture data de la solution Collaborer avec les équipes métiers, techniques et sécurité pour garantir l'alignement des pratiques data Définir ou faire évoluer les référentiels de données, dictionnaires de données et règles de gestion Participer à la mise en place d'outils de gouvernance : Data Catalog, Data Quality, MDM, etc. Accompagner les équipes dans l'adoption des bonnes pratiques de gestion des données Assurer une veille technologique et réglementaire sur les sujets liés à la data Compétences requises : Expérience avérée dans la mise en place ou le pilotage d'une gouvernance data Maîtrise des architectures data Connaissance des outils de gouvernance de données Bonne compréhension des normes de sécurité et de conformité (RGPD, PCI DSS…) Autonomie, rigueur, esprit d'équipe Anglais professionnel Les plus : Certification en gouvernance des données (ex : DCAM, CDMP) Expérience dans le domaine de la monétique Connaissance du cloud IBM (gros plus)
Mission freelance
Data Engineer – GCP / BigQuery / DBT
Contexte de la mission Nous recherchons un Data Engineer expérimenté afin de renforcer l’équipe Data et contribuer à la mise en place, l’optimisation et l’industrialisation de la plateforme de données sur Google Cloud Platform (GCP) . Vous interviendrez sur des problématiques de modélisation, transformation et exploitation de données avec BigQuery et DBT , en collaboration avec les équipes métier et analytics. Vos missions Concevoir, développer et maintenir les pipelines de données dans un environnement GCP. Implémenter et optimiser des modèles de données dans BigQuery . Mettre en place et maintenir les transformations avec DBT (Data Build Tool). Garantir la qualité, la performance et la fiabilité des traitements de données. Participer aux choix techniques et bonnes pratiques (CI/CD, documentation, monitoring). Collaborer avec les équipes Data Analysts / Data Scientists pour assurer la disponibilité et la pertinence des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres