Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 484 résultats.
Freelance
CDI
CDD

Offre d'emploi
Data Scientist IA

R&S TELECOM
Publiée le
CI/CD
Kubernetes

1 an
45k-55k €
430-470 €
Île-de-France, France
Contexte de la mission Vous serez amené à évoluer dans une équipe pluridisciplinaire et travailler à concevoir, développer ou faire évoluer notre infra et plateforme Big Data dans un environnement Kubernetes. Objectifs et livrables Maintenir et faire évoluer la chaine CI/CD et les différents environnements containerisés. Adapter nos infrastructures et services aux besoins des projets. Concevoir et intégrer de nouvelles solutions sur nos infrastructures conteneurisées Documenter l’architecture, l’administration et l’exploitation Guider nos clients dans l'utilisation de Kubernetes et des pipelines CI/CD Assurer le support de niveau 3 sur les infrastructures supportant la conteneurisation. Veiller à la sécurité de bout en bout dans l’usage des technologies de conteneurisation et des conteneurs. Assurer une veille technologique. Compétences demandées Compétences Niveau de compétence Programmation Python Confirmé Gitlab CI/CD Expert GRAFANA Avancé ANSIBLE Avancé KAFKA Expert KUBERNETES Expert ELASTICSEARCH Confirmé ,
Freelance

Mission freelance
Tech Lead Data GCP

UCASE CONSULTING
Publiée le
DBT
GenAI
Google Cloud Platform (GCP)

1 an
400-600 €
Île-de-France, France
📢 Poste à pourvoir – Tech Lead Data GCP/Python (H/F) Bonjour à tous 👋 Je recherche un(e) Tech Lead Data Senior pour intervenir sur une mission stratégique autour d’une Data Platform moderne orientée Cloud & innovation 🚀 🎯 Contexte Dans le cadre d’un programme de transformation ambitieux, vous intégrerez une Data Factory en charge de : Construire et faire évoluer une plateforme data cloud Industrialiser les workflows data Déployer des solutions innovantes autour de la data et de l’automatisation Diffuser les bonnes pratiques data au sein des équipes 👉 Environnement dynamique avec une forte culture produit et innovation 🚀 Missions principales : Concevoir et développer des data products (jusqu’à 80% de dev) Participer au cadrage technique et aux études d’impact Mettre en place des architectures data robustes et scalables Assurer la qualité du code (review, bonnes pratiques) Accompagner et challenger les Data Engineers Gérer les incidents complexes (niveau 3) Documenter les solutions (architecture, flux, data models) 🛠️ Stack technique : Langages : Python, SQL, Shell Data & Cloud : GCP (BigQuery, Dataflow, Cloud Storage), DBT Streaming / ingestion : Kafka, Kafka Connect, SFTP DevOps / CI-CD : Docker, Kubernetes, Terraform, GitLab BI / Restitution : Looker + Bonus : Automatisation / IA (n8n, outils GenAI) ✨ Les + Projet structurant avec forte visibilité Environnement moderne (Cloud, Data, IA) Forte autonomie et impact technique Équipe orientée innovation ⏱️ Mission 📅 Démarrage : ASAP 📌 Télétravail : 50% 📍 Localisation : Île-de-France
Freelance
CDI

Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics

Ela Technology
Publiée le
Machine Learning
Python
SQL

6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Freelance

Mission freelance
Data Scientist Gen.AI (h/f)

emagine Consulting SARL
Publiée le

1 mois
111 €
France
Nous recherchons un Data Scientist Gen AI pour contribuer au développement de solutions innovantes basées sur l'IA générative. Le candidat idéal doit posséder une expertise en IA générative et en machine learning, ainsi qu'une aptitude avérée à créer des applications conversationnelles efficaces dans un cadre international. Missions principales : Concevoir et développer des solutions conversationnelles basées sur des modèles d’IA générative. Participer à l’architecture technique et au choix des frameworks tels que les LLMs, orchestration, RAG et fine-tuning. Implémenter des systèmes agentiques lorsque pertinent, y compris des multi-agents, l’utilisation d'outils et des chaînes de raisonnement. Mettre en place des pipelines robustes pour la collecte de données, la vectorisation, le monitoring et l’évaluation. Optimiser la performance, la fiabilité et la sécurité des réponses générées par les systèmes. Collaborer activement avec les équipes interfonctionnelles pour atteindre les objectifs de projet. Profil recherché : Anglais opérationnel pour un contexte international. Expérience confirmée en IA générative. Compétences confirmées en machine learning. Expérience sur le développement de solutions conversationnelles. Gros plus: connaitre le cloud AWS
Freelance

Mission freelance
Data Business Analyst (H/F)

Insitoo Freelances
Publiée le
Confluence
JIRA
Python

2 ans
370-420 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Business Analyst (H/F) à Lyon, France. Contexte : Entité chargée de la Supervision et de la Gestion des Incidents dans le but de garantir la performance en production. Le profil recherché intègrera l’équipe en charge du suivi des performances en production, de la télédistribution des logiciels sur le parc, de la création de tableaux de bords. Date de début souhaitée : 04/05/2026 Du fait de la montée en compétence la prestation est attendue sur une durée relativement longue. Les missions attendues par le Data Business Analyst (H/F) : Activité principale Le profil recherché sera en charge de : • Suivre et analyser un ou plusieurs indicateur(s) de performance à la maille nationale et DR, expliquer leurs variations et mettre en place des actions d'amélioration associées • Réaliser des tableaux de bords de pilotage ou opérationnels de suivi de performance • Consolider les données et reporter les analyses associées aux variations de performances • Maîtriser le fonctionnement • Suivre l'ensemble des évènements de production • Préparer, animer et/ou représenter la production dans les différents comités • Comprendre, analyser, préparer, construire et animer des points autour de(s) l’indicateur(s) de performance avec les différentes parties prenantes. • Investiguer de manière autonome des anomalies ou signaux faibles dans les données, en identifiant des pistes d’analyse non prévues initialement • Challenger les processus existants et proposer des axes d’optimisation basés sur les analyses réalisées • Identifier et activer des leviers d’amélioration en coordination avec des équipes contributrices (métiers / techniques) • Assurer un rôle de référent sur l’indicateur en étant force de proposition sur son évolution (méthode de calcul, périmètre, pertinence) • Contribuer à l’amélioration continue des pratiques d’analyse et de pilotage de la performance au sein de l’équipe Activité secondaire • Suivi de performance dans le cadre de pilote et expérimentation • Suivi de performance sur des périmètres dédiés en fonction des actualités de production • Capitalisation et partage de connaissances (rédaction documentaire) • Rédiger et diffuser le reporting cross chaine quotidien Stack technique de l'équipe : Tableau Desktop, JIRA / Confluence, Suite Office (notamment Excel, Powerpoint et Teams), SQL et Python
Freelance

Mission freelance
Project Manager (GRC IA CLOUD DATA)

Groupe Aptenia
Publiée le
Cloud
Data management
Gouvernance, gestion des risques et conformité (GRC)

6 mois
400-600 €
Paris, France
🎯𝐓𝐨𝐧 𝐭𝐞𝐫𝐫𝐚𝐢𝐧 𝐝𝐞 𝐣𝐞𝐮 : - Piloter les analyses de risques IT & cybersécurité sur des projets innovants (IA, Cloud, Data) - Accompagner les projets en apportant expertise sécurité et conseil (data protection, conformité, architecture) - Identifier, qualifier et suivre les risques, vulnérabilités et plans de remédiation - Assurer la conformité des projets IT (y compris third parties) et la résilience opérationnelle - Préparer et animer les comités de validation (risk, sécurité) 🛠️ Gouvernance & GRC - Intégrer les analyses dans l’outil GRC Groupe - Contribuer au programme cybersécurité (référentiel NIST CSF) - Produire le reporting (KPI, tableaux de bord, comités) - Maintenir et améliorer les politiques et procédures 🤝 Environnement - Collaboration avec équipes IT, métiers, sécurité, data, juridique et compliance - Contexte international et multi-sites
Freelance
CDI

Offre d'emploi
Data Analyst Dataiku

VISIAN
Publiée le
Dataiku
Tableau software

1 an
40k-74k €
400-700 €
Rueil-Malmaison, Île-de-France
et Reporting dédié à la direction marketing d'ARVAL. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation
Freelance

Mission freelance
tech lead java angular

Freelance.com
Publiée le
Angular
Apache Kafka
Apache Maven

1 an
510-590 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Agile organisée en train SAFe, nous recherchons un Tech Lead Java JEE confirmé pour intervenir sur des applications critiques liées à la gestion et à la facturation. Intégré à une équipe dynamique pilotée par un Product Owner et un Scrum Master, vous jouerez un rôle central dans la conception, la réalisation et l’amélioration continue des solutions. Vous serez le référent technique de l’équipe, garant de la qualité, de la sécurité et de la cohérence des développements. À ce titre, vous : Pilotez les orientations techniques et veillez au respect des standards d’architecture Assurez la mise en œuvre des exigences non fonctionnelles (performance, sécurité, résilience) Contribuez activement aux développements (correctifs, évolutions, enablers techniques) Supervisez les pipelines CI/CD et l’automatisation des tests Participez aux rituels Agile et aux échanges inter-équipes Portez les pratiques DevSecOps et améliorez en continu les processus Garantissez la qualité des livrables et le suivi en production Intervenez sur les problématiques de sécurité et de vulnérabilités Accompagnez l’équipe dans la montée en compétences techniques
Freelance
CDI

Offre d'emploi
Développeur Typescript

VISIAN
Publiée le
Big Data
TypeScript
User acceptance testing (UAT)

1 an
Paris, France
Contexte de la mission Dans le cadre du renforcement de ses dispositifs de Conformité, un de nos client recherche un Développeur TypeScript pour intervenir sur des applications construites au sein d'un écosystème de plateforme de données. La mission s'inscrit dans un environnement à forte criticité métier, notamment autour de la Détection de la Délinquance Financière, avec des enjeux liés à l'exploitation de la donnée, à la restitution d'informations sensibles et à l'amélioration des outils utilisés par les équipes conformité, contrôle et investigation. Le consultant participera au développement de solutions applicatives et de widgets métiers permettant de faciliter l'analyse, le pilotage et la visualisation de données en lien avec les dispositifs de surveillance et de détection.
Freelance

Mission freelance
Architecte Data & IA – Plateforme & Socle

VISIAN
Publiée le
Azure
Azure DevOps
Databricks

1 an
400-550 €
Île-de-France, France
L’Architecte Data & IA intervient comme référent sur les choix techniques, la cohérence des architectures et l’industrialisation des usages Data/IA. Missions principales 1. Architecture & gouvernance technique Concevoir et maintenir les architectures cibles Data & IA (MLOps, LLMOps, DataOps) Garantir la cohérence globale de la plateforme Data & IA Contribuer à la mise en œuvre d’une gouvernance unifiée des données (sécurité, traçabilité, lineage) Superviser l’intégration et l’évolution d’une plateforme Data Lakehouse (type Databricks) Participer à l’évolution de l’offre de service du socle Data & IA 2. Industrialisation IA & MLOps Structurer les pratiques MLOps / LLMOps (CI/CD, monitoring, automatisation) Accompagner les équipes dans la mise en œuvre des bonnes pratiques DataOps et ML Garantir la fiabilité des pipelines de production IA Participer à la standardisation des modèles de déploiement IA 3. Innovation & plateforme IA Préparer la plateforme pour les usages d’IA générative et agentique Concevoir des architectures d’intégration pour les modèles LLM (internes et externes) Développer des approches AI by Design (conformité, sécurité, gouvernance) Contribuer aux initiatives d’innovation (observabilité IA, optimisation des coûts, temps réel) 4. Accompagnement & montée en compétences Encadrer les équipes DataOps et MLOps Diffuser les bonnes pratiques d’architecture et d’industrialisation Accompagner la montée en maturité sur les outils Data & IA Travailler en collaboration avec les équipes Data et Delivery Livrables attendus Architecture cible Data & IA unifiée Framework MLOps / LLMOps industrialisé (CI/CD, observabilité, MLFlow…) Guide de bonnes pratiques DataOps Tableau de bord de suivi de maturité IA / ML Recommandations d’évolution de la gouvernance Data & IA
Freelance
CDI

Offre d'emploi
Consultant·e Customer Technology Advisor / Delivery Manager + Product Owner

ANAFI CONSULTING
Publiée le
Architecture
Big Data
BigQuery

2 ans
50k-80k €
400-680 €
Île-de-France, France
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil en transformation technologique et organisationnelle, basé à Paris. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour du Cloud , de la Data , du DevOps et des plateformes IT , en combinant expertise technique, vision produit et accompagnement au changement. Votre rôle Dans le cadre du renforcement d’une équipe dédiée à l’adoption des offres technologiques, nous recherchons un(e) Customer Technology Advisor (Adopt Owner) . Vous serez au cœur de la relation entre les équipes métiers (clients internes) et les pôles technologiques , avec pour objectif de faciliter l’adoption, la compréhension et l’usage des solutions IT (Cloud, Data, plateformes, environnements conteneurisés et outillage DevOps). Votre rôle combine expertise technique, coordination produit et accompagnement des équipes . Vos missions principalesRelation & Pilotage Être le point de contact privilégié entre les entités clientes et les équipes technologiques. Collecter, qualifier et prioriser les besoins et irritants métiers . Piloter les demandes , leur suivi et leur traitement. Assurer la co-construction des offres avec les équipes produit. Faciliter l’alignement entre les besoins métiers et les capacités techniques des plateformes Cloud, Data et DevOps . Adoption & Acculturation Accompagner les équipes dans l’adoption des nouvelles offres et fonctionnalités. Animer des présentations, ateliers, webinars et sessions d’acculturation. Apporter un premier niveau de support technique et de conseil. Promouvoir les offres et faciliter leur appropriation. Sensibiliser les utilisateurs aux bonnes pratiques autour des plateformes OpenShift , des chaînes CI/CD Jenkins et des services Data/Cloud. Expertise & Innovation Participer à l’expérimentation de nouvelles technologies ( sandbox, POC ). Être référent sur les technologies Data, Cloud, conteneurisation, orchestration et bases de données . Contribuer aux roadmaps produits et aux décisions stratégiques (comités, arbitrages). Identifier les impacts techniques, organisationnels et métiers des évolutions. Contribuer à la promotion et à l’adoption de solutions basées sur OpenShift , Jenkins , architectures distribuées et services managés Cloud. Suivi & Qualité Suivre les indicateurs d’adoption et de performance des offres. Assurer la cohérence entre services délivrés et niveaux de service attendus . Remonter les dysfonctionnements et contribuer à l’amélioration continue. Participer à l’amélioration de l’expérience utilisateur sur les offres de plateformes, de déploiement et d’industrialisation. Environnement techniqueBig Data & NoSQL Data Lakehouse Cloudera Teradata MongoDB Bases de données PostgreSQL Oracle MySQL SQL Server Redis Cloud Public (GCP) BigQuery Firestore Conteneurisation, plateformes & DevOps OpenShift Kubernetes Docker Jenkins GitLab CI/CD / outils d’industrialisation API management, déploiement applicatif et automatisation Environnements techniques Data Streaming Architectures distribuées Plateformes applicatives et environnements conteneurisés
Freelance

Mission freelance
Senior Python Engineers orientés Data & Distributed Systems

Comet
Publiée le
AWS Cloud
Numpy
Pandas

6 mois
400-650 €
Paris, France
Bonjour à tous, notamment aux Senior Python Engineers orientés Data & Distributed Systems 🐍☁️ (AWS / Spark / Ray / Pandas / Performance) ⚠️ Seniorité de 8 ans minimum 🔎 Je cherche un Senior Software Engineer Python pour rejoindre un programme stratégique au sein d’un grand acteur de la finance quantitative, autour de la valorisation de données financières massives (tick data L3). Dans ce contexte très exigeant, l’objectif est de rendre exploitables des datasets ultra-volumineux pour des chercheurs, en construisant des solutions de feature engineering distribuées tout en conservant une expérience utilisateur simple type pandas. 💻 Ce que tu vas faire : - Traduire des workflows Python/pandas en traitements distribués (Spark, Ray…) - Optimiser des traitements sur des volumes massifs de données (performance, scalabilité) - Concevoir des abstractions simples pour les data scientists (UX orientée chercheurs) - Participer aux choix d’architecture (Spark / Ray / Iceberg…) - Travailler sur des datasets complexes (données temporelles, dépendances, déséquilibres) - Collaborer étroitement avec des équipes ML Platform et des chercheurs quant - Contribuer à une plateforme data scalable et industrialisée sur AWS 🎯 Stack & environnement : Python (expert) / Pandas / NumPy / Spark / Ray / AWS (S3, EMR, SageMaker) / Iceberg / Data Lake / Feature Engineering / HPC (bonus) / Kubernetes (EKS en réflexion) 📍 Mission : Paris 💰 TJM : Selon profil 📅 Démarrage : ASAP
Freelance

Mission freelance
Tech Lead GCP / Data Engineering Senior (H/F)

HOXTON PARTNERS
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL

12 mois
Paris, France
Description du poste Dans le cadre d’un programme de transformation data de grande ampleur au sein d’un acteur international du secteur du luxe, nous recherchons un Tech Lead GCP senior pour intervenir sur des use cases commerce à forte valeur métier. L’enjeu principal de la mission est de concevoir et piloter des architectures data sur Google Cloud Platform afin de unifier l’expérience client online et offline , en structurant des socles de données capables d’alimenter les usages analytiques, les KPIs business et les dispositifs de pilotage associés. Le consultant ne sera pas positionné comme un simple data engineer, mais bien comme un profil expert GCP / Tech Lead , capable de porter la vision technique, de guider les choix d’architecture et d’accompagner les équipes sur la mise en œuvre. Il interviendra dans un environnement où la donnée doit permettre de mieux comprendre les parcours clients, de rapprocher les interactions digitales et physiques, et de renforcer la performance des usages commerce. Les responsabilités incluent notamment : Concevoir et faire évoluer des architectures data sur Google Cloud Platform Piloter techniquement la mise en place de solutions permettant de connecter et valoriser les données online et offline Définir et structurer des pipelines de données robustes, industrialisés et scalables Exploiter et optimiser BigQuery pour le stockage, la transformation et l’analyse de données à grande échelle Participer à la modélisation des données nécessaires aux indicateurs business et aux cas d’usage commerce Encadrer les choix techniques autour des flux de données, de la qualité, de la performance et des coûts Collaborer avec les équipes data, analytics et métiers pour produire des jeux de données exploitables Accompagner techniquement une équipe et jouer un rôle de référent sur les sujets GCP Contribuer à la mise à disposition des données pour les dashboards et outils de visualisation Participer à l’amélioration continue des architectures et des pratiques d’industrialisation
Freelance

Mission freelance
Ingénieur Data Oracle/SQL/Python

CS Group Solutions
Publiée le
Apache Airflow
Oracle
Python

12 mois
380-400 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
CDI
Freelance

Offre d'emploi
Développeur Python (H/F)

Aleysia
Publiée le
Agile Scrum
Big Data
Docker

12 mois
Grenoble, Auvergne-Rhône-Alpes
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Freelance

Mission freelance
Développeur BOARD (H/F)

Nicholson SAS
Publiée le
Azure
Board
Data Lake

1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons un Développeur BOARD pour intégrer des projets Data d'envergure. Vous interviendrez de la conception jusqu'au déploiement en production, tout en assurant un support de niveau 3. 📍 Modalités Lieu : Clermont-Ferrand (Hybride : 3 jours/semaine sur site) Date de début : 04/05/2026 Durée : Jusqu'au 03/05/2027 (renouvelable) Budget TJM : 350 € 🎯 Missions principales Conception et configuration d'applications via la solution BOARD. Accompagnement du cycle de vie : du développement jusqu'à la mise en production. Support L3 : support aux tests d’acceptation utilisateurs (UAT) et résolution d'incidents complexes. Communication : vulgarisation de concepts techniques auprès des métiers. 🛠 Compétences techniques Incontournables (Mandatory) : BOARD (Expertise outil) Ecosystème Data : Databricks, Azure Data Lake, Power BI Fondamentaux : Concepts BI, analyse de données. Langues : Anglais opérationnel. Souhaitées (Nice to have) : Méthodologie AGILE. Appétence pour l'analyse fonctionnelle (Business Analysis).

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1484 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous