Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Montpellier
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.
Mission freelance
Data Engineer (F/H)
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 Freelance OU portage (450-550€/j) – 🏠 3 jours de télétravail par semaine – 📍 Montpellier (34) – 🛠 Expérience de 4/5 ans min. Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous recherchons pour notre client un Data Engineer . 💻💼 🎯 Voici un aperçu détaillé de vos missions : - Participer à la modernisation de la plateforme data en migrant les systèmes existants vers une architecture moderne basée sur les technologies cloud et les bonnes pratiques Data Engineering, - Construire et maintenir des pipelines de données robustes, scalables et automatisés pour alimenter la nouvelle Data Platform (Snowflake, DBT, Python, AWS, Kubernetes), - Travailler en étroite collaboration avec les équipes produit, data science et développement pour garantir la qualité, la cohérence et la disponibilité des données, - Mettre en place les bonnes pratiques de développement et d’exploitation des flux de données, notamment en assurant la qualité, la traçabilité et la sécurité des données, - Contribuer à l’implémentation de briques d’intelligence artificielle, en collaboration avec les data scientists, en garantissant la disponibilité des données nécessaires et la performance des traitements, - Participer à la migration des données depuis les systèmes legacy () vers des environnements modernes, en respectant les contraintes de qualité et de continuité de service, - Assurer une veille technologique sur les outils et pratiques en data engineering, sans pour autant viser un rôle de leadership technique (Tech Lead non souhaité pour ce poste).
Mission freelance
Data Engineer Semarchy xDM / xDI Montpellier
Data Engineer Semarchy xDM / xDI Montpellier Stambia Python/Java, ETL/MDM, Git, Docker, Kubernetes. Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition. Data Engineer Semarchy xDM / xDI Montpellier Stambia
Mission freelance
Data Engineer Semarchy xDM / xDI Montpellier
Data Engineer Semarchy xDM / xDI Montpellier Stambia Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition. Data Engineer Semarchy xDM / xDI Montpellier Stambia
Mission freelance
Data Engineer Semarchy xDM / xDI Montpellier
Data Engineer Semarchy xDM / xDI Montpellier Stambia Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Mission freelance
Data Engineer Suite MSBI
Site : Montpellier, 2 jours/ semaine sur site Date de démarrage : 01/10/2025 Mission : Data Engineer sur des activités de run et build Nb années d’expérience : 3 ans Profil : Data Engineer Data Engineer Suite MSBI Attendu : Concevoir et développer des solutions pour la collecte, l'organisation, le stockage et la modélisation des données, Développer un ensemble d'outils d'aide à la décision pour les métiers du client, Enrichissement de données, Production d'indicateurs (KPI), Optimisation et performance, Garantir l'accès aux différentes sources de données et de maintenir la qualité des données, Contribuer à la mise en place d'une politique de données et des règles de bonnes pratiques conformes aux réglementations client en vigueur, Assurer une veille technologique, notamment sur les langages de programmation utilisés afin d’aider à l'avancement des projets. Compétences techniques : ETL SSIS, Cube OLAP SSAS, Requêtage SQL, Connaissance ETL, préparation structuration de données, stockage de fichier (Talend, HDFS, SSIS), Expérience dans la modélisation et dans l’exploitation des bases de données (SQL et NoSQL, Oracle, …), Une connaissance en migration des traitements sous GCP serait un plus (BigQuery)
Mission freelance
Data Engineer Semarchy xDM / xDI Montpellier
Data Engineer Semarchy xDM / xDI Montpellier Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Offre d'emploi
Chef de Projet Data/IA – Décisionnel & ETL H/F
Nous recherchons pour une mission de 3 à 6 mois (réalisation d'une étude de migration de Microstrategy vers Powerbi et Informatica vers Nifi) un Chef de Projet Data/IA – Décisionnel & ETL H/F sur Montpellier. Contexte Au sein du département DATA/IA, vous interviendrez sur l’évolution du pilotage RH et des socles d’échange, en intégrant les dimensions décisionnelles, ETL, urbanisation SI et IA4IT. Missions principales Piloter la prestation forfaitaire à obligation de résultats. Réaliser les études et scénarios de migration : Décisionnel (MicroStrategy → Power BI/Tableau). ETL (Informatica → NiFi/Databricks). Analyser et rationaliser les 80 000 rapports décisionnels existants. Cadrer et formaliser la note IA4IT, identifier et prioriser les cas d’usage. Coordonner les acteurs internes (Architectes, Achats, partenaires, DTD-RH). Produire le macro-chiffrage et le macro-planning des scénarios. Définir et animer la gouvernance projet (RACI, comitologie, capacity planning). Assurer le reporting (hebdo + comités de suivi bi-mensuels). Accompagner l’urbanisation du SIRH et garantir la cohérence avec le cadre ITEAM. Livrables attendus Note de cadrage (existant, prérequis, opportunités). Études et scénarios de migration Décisionnel et ETL. Plan de rationalisation des rapports. Macro-chiffrage et macro-planning. Note de cadrage IA4IT et plan d’action associé. Roadmap migration & organisation cible (optionnel). Compétences requises Pilotage projet : planification, suivi, animation de comités, reporting. Décisionnel : MicroStrategy, Power BI, Tableau, Self-BI, rationalisation de reporting. ETL / Data : Informatica, NiFi, Databricks, urbanisation de flux SI. Architecture & Urbanisation SI : principes d’urbanisation SIRH, cadre ITEAM. IA / Data Science : identification et cadrage de cas d’usage IA4IT. PMO : structuration de dossiers de cadrage, RACI, capacity planning, comitologie. Communication : capacité à animer des ateliers métiers, rédiger des notes de synthèse claires, restituer auprès de la direction. Avantages : Mutuelle entreprise – Prévoyance - Tickets restaurants - Prime de vacances – Abonnement transport-Jours de congés supplémentaires – Télétravail – Newsletters pour que chaque salarié puisse être informé des évènements et de l’évolution de la société.
Offre d'emploi
DEVELOPPEUR JAVA F/H | MONTPELLIER (34)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Concevoir et développer des API RESTful robustes avec Spring Boot Assurer la qualité du code et le respect des bonnes pratiques Rédiger et exécuter des tests unitaires et d’intégration Consommer et documenter les API Gérer les échanges de données Collaborer avec les équipes Participer à la conception technique lors des phases de cadrage et de spécification Maintenir la sécurité et la performance des applications back-end Environnement Technique : Java, SpringBoot, Spring Data JPA, Spring Security, MySQL, PostgreSQL, MongoDB, Maven, Gradle, Git, Postman, Swagger, IntelliJ IDEA, Eclipse, REST, Microservices, MVC, JSON, XML, JUnit, Mockito, Jenkins, GitLabCI Le poste est basé à Montpellier (34) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 2 jours de télétravail par semaine après votre période d'intégration.
Offre d'emploi
Platform Engineer Elastic Search / Montpellier - F/H
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Platform Engineer Elastic (H/F) au sein de nos équipes pour l'un de nos clients du secteur bancaire. Le contexte ? Dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché(e) à l'équipe « Observabilité ». Cette équipe assure pour le client, la réalisation et l'administration des plateformes d'Observabilité. En tant que Platform Engineer, au coeur du dispositif d'ingénierie de plateforme, vous aurez un rôle clé dans la construction, l'évolution et la sécurité et l'opérabilité de leur stack technique. Dans une logique Platform-As-A-Product pour mettre à disposition des équipes internes (devs, ops, data, etc...) un environnement cohérent, standardisé et automatisé, en production. Vos missions ? 1. Automatiser & Industrialiser l'infrastructure - Maintenir et faire évoluer l'infrastructure virtualisée et conteneurisée (VMs, Kubernetes). - Implémenter des workflow GitOps robustes avec ArgoCD, Gitlab CI et Ansible. - Gérer le cycle de vie des environnements techniques (dev, test, recette, prod), depuis le provsionning jusqu'à la décommissions. 2. Support les équipes via la plateforme - Accompagner les équipes tech dans l'onboarding, l'usage des outils, le déploiement des applications. - Assurer un support niveau plateforme, incluant le diagnostic, l'amélioration continue et la documentation claire. - Participer à la co-construction des « golden paths» pour les cas d'usage récurrents (déploiement, logs, monitoring, intégration). 3. Concevoir des abstractions réutilisables - Créer des blueprints, templates et modules pour accélérer les déploiements et éviter les duplications. - Maintenir un portail interne de la plateforme, pour exposer ces composants, documentations, et automatisations. 4. Assurer la sécurité et la conformité - Intégrer les exigences de CyberArk et autres réglementation de sécurité dans les pipelines et l'infrastructure. - Automatiser les contrôles de conformité (analyse d'images, gestion des secrets, règles de sécurité Kubernetes, audit trail) - Participer à la mise en oeuvre des politiques de contrôle d'accès et à leur revue régulière. 5. Fiabiliser la plateforme - Travailler sur la résilience, l'automatisation des redémarrages, la capacité à rollback, et la haute disponibilité. - Contribuer au traitement des incidents, aux post-mortems et à la réduction du MTTR. - Participer à la définition et au suivi d'indicateurs de performance SLOs, taux de succès des déploiements, couverture, IaC, etc.) 6. Collaborer en transverse - Travailler main dans la main avec le Product Owner pour prioriser les évolutions de la plateforme. - Contribuer aux choix d'architecture, d'outillage et à l'orientation technique des services internes. - Documenter de manière structurée, pédagogique et à jour. Kubernetes GIT Platform engineer
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres