Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Grenoble

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 7 résultats.
CDD
CDI

Offre d'emploi
Lead Dev Data Streaming

OCTOGONE
Publiée le
Apache Kafka

6 mois
Grenoble, Auvergne-Rhône-Alpes
Vous intervenez en tant que référent technique et pilote d’une équipe d’environ 5 développeurs sur une plateforme de data streaming dédiée à la collecte et au traitement de données énergétiques issues d’équipements terrain (capteurs IoT, automates, systèmes de gestion technique de bâtiments). L’objectif de la plateforme est de permettre le pilotage intelligent de systèmes de chauffage et de climatisation, en exploitant des flux de données en temps réel afin d’optimiser la consommation énergétique tout en garantissant le confort des occupants. Le contexte présente des enjeux très forts de volumétrie et de passage à l’échelle : ingestion massive de données issues de centaines de milliers d’équipements, gestion de flux continus à haute fréquence, et nécessité de garantir des traitements fiables et performants en conditions de charge. Vous évoluez ainsi sur des problématiques techniques exigeantes : partitionnement Kafka, gestion du throughput, optimisation de la latence, tolérance aux pannes, reprise sur incident, cohérence des données et supervision de pipelines critiques.
CDI
Freelance

Offre d'emploi
Développeur Python (H/F)

Aleysia
Publiée le
Agile Scrum
Big Data
Docker

12 mois
Grenoble, Auvergne-Rhône-Alpes
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
CDI

Offre d'emploi
Cloud Data Engineer AWS H/F

VIVERIS
Publiée le

45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de projets stratégiques autour de la donnée et de l'intelligence artificielle, un grand groupe industriel renforce ses équipes afin de structurer et valoriser des données issues d'environnements industriels complexes. La mission s'inscrit dans une dynamique de construction et d'optimisation de plateformes data, avec des enjeux forts autour de la qualité, de la volumétrie et de l'exploitation des données pour des cas d'usage avancés (analytics, IA). L'environnement technique repose sur un écosystème cloud AWS, avec des outils modernes de data engineering tels que Databricks et Apache Spark, ainsi qu'une forte culture DevOps. Vous intégrerez une équipe en charge de l'ingestion, du traitement et de l'exposition de données à grande échelle. Responsabilités : - Concevoir et procéder à la maintenance des pipelines de données, de l'ingestion à l'exposition ; - Contribuer à l'optimisation des traitements de données à grande échelle et à la fiabilisation des flux ; - Collaborer avec les équipes data et IA afin de garantir la disponibilité et la qualité des données pour les usages analytiques et machine learning.
Freelance

Mission freelance
Data engineer (aws / talend / power bi)

Signe +
Publiée le
Microsoft Power BI

12 mois
400-440 €
Grenoble, Auvergne-Rhône-Alpes
contexte de la mission intervention chez un client grenoblois sur des sujets data environnement orienté cloud aws avec exploitation d’un datalake besoin d’un profil capable de couvrir à la fois la data ingénierie et une partie data visualisation missions principales conception, développement et maintenance de pipelines data exploitation et optimisation d’un datalake sur aws traitement, transformation et intégration des données via talend mise à disposition des données pour les équipes métiers création de dashboards et reporting sous power bi participation aux choix techniques et à l’amélioration continue des architectures data environnement technique cloud / data : aws (lambda, athena, glue, step functions, rds, s3) etl : talend data visualisation : microsoft power bi profil recherché expérience significative en data engineering bonne maîtrise de l’écosystème aws data (datalake) solide expérience sur talend (obligatoire) capacité à produire des dashboards power bi autonomie et capacité à intervenir en environnement projet
CDI
CDD

Offre d'emploi
Expert technique Kafka et Kafka Stream

OCTOGONE
Publiée le
Apache Kafka

6 mois
Grenoble, Auvergne-Rhône-Alpes
Vous intervenez en tant qu’expert technique sur une plateforme de data streaming dédiée à la collecte et au traitement de données énergétiques issues d’équipements terrain (capteurs IoT, automates, systèmes de gestion technique de bâtiments). L’objectif de la plateforme est de permettre le pilotage intelligent de systèmes de chauffage et de climatisation, en exploitant des flux de données en temps réel afin d’optimiser la consommation énergétique tout en garantissant le confort des occupants. Vous évoluez dans un contexte à forte volumétrie de données , avec ingestion massive de flux issus de centaines de milliers d’équipements, nécessitant des traitements fiables, performants et scalables. Vous contribuez directement à la conception et à l’optimisation de pipelines de streaming critiques, avec des enjeux de latence, de throughput, de résilience et de cohérence des données. En tant qu’expert Kafka / Kafka Streams, vous êtes un référent technique clé sur les problématiques de streaming et intervenez sur des sujets avancés liés aux architectures event-driven et aux systèmes distribués.
CDI

Offre d'emploi
LLMOps Engineer / GenAI Engineer H/F

VIVERIS
Publiée le

45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre du développement de ses activités autour de l'intelligence artificielle, un grand groupe industriel renforce son hub dédié à la stratégie et au déploiement de solutions IA, notamment dans le domaine de l'énergie. La mission s'inscrit dans un contexte de forte croissance des usages autour des LLM et de la GenAI, avec des enjeux d'industrialisation, de passage à l'échelle et d'intégration dans des produits et services. L'environnement de la mission repose sur des architectures cloud AWS, avec une forte culture DevOps (CI/CD, IaC) et l'utilisation de frameworks GenAI tels que Langchain et LangGraph. Vous interviendrez au sein d'une équipe en charge du développement et de la mise en production de solutions basées sur des modèles de langages et des agents intelligents. Responsabilités : - Concevoir et procéder au déploiement et à l'industrialisation des pipelines LLMOps dans un environnement cloud ; - Participer activement à la mise en production de solutions GenAI, en garantissant leur performance, leur robustesse et leur scalabilité ; - Collaborer étroitement avec les équipes data et IA afin de répondre aux besoins métiers et d'optimiser les architectures existantes.
CDD
CDI
Freelance

Offre d'emploi
Développement Devops AWS

R&S TELECOM
Publiée le
AWS Cloud
Python
Terraform

6 mois
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Au sein des équipes IT, le profil accompagnera les équipes CRM et ERP sur les sujets AWS. Il sera en étroite relation avec le responsable architecture applicative. Tâches à réaliser : Co-construire des architectures data serverless event-driven avec le responsable architecture applicative pour les projets CRM et ERP Concevoir des pipelines d’ingestion et de transformation distribués Accompagner la montée en compétence des équipes CRM et ERP sur le sujet AWS en participant aux raffinages et en faisant de la revue de code Mettre en place des systèmes découplés basés sur la messagerie Garantir la scalabilité, la résilience et l’optimisation des coûts Compétences recherchées : Obligatoires : AWS Lambda (Python) Terraform Expérience nécessaire : Minimum 6 ans d’expérience sur la fonction Langues : Français Date de démarrage : ASAP Localisation : Locaux du client situés près de Grenoble Possibilité d’interventions hors site Client : OUI, 40% (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : NON Autre matériel requis : NON

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

7 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Grenoble, Auvergne-Rhône-Alpes
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous