Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 174 résultats.
CDI

Offre d'emploi
Développeur E-Commerce Magento

Publiée le

43k-50k €
Roncq, Hauts-de-France
Fed IT est un cabinet de recrutement dédié aux métiers de l'informatique, des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Notre client est un industriel international commercialisant un catalogue de 100 000 produits professionnels en France et en Europe. En tant que développeur expérimenté depuis au moins 5 ans vous aurez les responsabilités suivantes : - Conception et implémentation de solutions e-commerce en utilisant PHP, Magento et des frameworks JavaScript modernes. - Accompagner les développeurs et fournir un leadership technique. - Automatiser les tâches d'administration système et de développement - Analyser les indicateurs de performance - Participer au support et à la résolution de problèmes si nécessaire.
Freelance

Mission freelance
Développeur ETL (SEMARCHY)

Publiée le
Azure
ODI Oracle Data Integrator
Semarchy

24 mois
100-400 €
Orléans, Centre-Val de Loire
Le client souhaite accélérer la modernisation de sa plateforme décisionnelle pour répondre aux enjeux métiers, réglementaires et technologiques. Pour se faire, Le client a inscrit à sa roadmap 2026 / 2027, différents chantiers permettant de répondre à ces ambitions. D’une part, par la mise en œuvre d’un programme data innovant portant les aspects suivants : Renfort de la qualité de la donnée Mise en place d’une gouvernance de la donnée sur les indicateurs métiers stratégiques Migration des traitements ELT existants vers une solution technologique plus adaptée Refonte du modèle de données du Data Warehouse Et d’autre part, par le maintien en condition opérationnel du système d’information décisionnel existant portant les aspects suivants Analyse et la correction des incidents de production Développement de sujets relatifs à l’évolution de la réglementation
Freelance

Mission freelance
Ingénieur MLOps – Production de la chaîne d’intégration des modèles de Machine Learning

Publiée le
Apache Airflow
Docker
MLOps

3 ans
100-520 €
Lille, Hauts-de-France
Télétravail partiel
Livrable attendu Pipelines MLOps automatisés (CI/CD) pour entraînement, validation et déploiement. Infrastructure cloud (IaC) opérationnelle. Système de monitoring et alerting pour modèles ML en production. Documentation technique et bonnes pratiques MLOps. Compétences techniques (Impératives) Frameworks MLOps : ZenML, MLflow, Vertex AI ou équivalent. Python : Confirmé. Orchestration/Pipelines : Airflow, Kubeflow, Dagster ou Prefect. Conteneurisation : Docker, Kubernetes. CI/CD & IaC : Git/GitLab/GitHub, Terraform/Ansible. Data Quality/Versioning : Great Expectations, Deeque, Feast, MLflow Model Registry. Cloud : Maîtrise d’un cloud majeur (GCP fortement recommandé). Connaissances linguistiques Français : Courant (Impératif). Anglais : Professionnel (Impératif).
Freelance

Mission freelance
MOA Expert Entrepôt de données

Publiée le
MOA

2 ans
Paris, France
Télétravail partiel
Vous aimez relever des défis data ambitieux et piloter des sujets stratégiques au sein d’environnements exigeants ? Vous souhaitez évoluer au cœur d’un grand groupe bancaire en pleine transformation ? Cette opportunité est faite pour vous ! Nous recherchons un·e MOA Expert Entrepôt de données (7 à 10 ans d’expérience) pour accompagner notre client du secteur bancaire dans la structuration, l’optimisation et la gouvernance de son Data Warehouse. En tant que référent·e MOA sur le périmètre Entrepôt de données, vous serez en charge de : Prendre le lead sur les sujets Data Warehouse et assurer la cohérence fonctionnelle du périmètre Recueillir, analyser et formaliser les besoins métiers Définir les règles de gestion, les mappings fonctionnels et les spécifications MOA Piloter les évolutions et garantir l’alignement des solutions avec les exigences métiers et réglementaires Coordonner les équipes IT, Data, Métier et les parties prenantes projet Contribuer aux phases de recette : stratégie, cas de tests, exécution et analyse des anomalies Accompagner la mise en production et assurer le suivi post-déploiement Être force de proposition sur l’amélioration continue, la qualité des données et les bonnes pratiques MOA
CDI
Freelance

Offre d'emploi
Expert migration SAS vers Dataiku

Publiée le
Dataiku
Méthode Agile
SAS

2 ans
40k-65k €
400-550 €
Tours, Centre-Val de Loire
Télétravail partiel
Notre client souhaite migrer ses solutions analytiques et ses processus de traitement de données de l’environnement SAS vers la plateforme Dataiku . Dans ce cadre, vous interviendrez en tant qu’expert pour accompagner cette transformation, en garantissant la continuité des processus métiers et l’optimisation des performances. Missions principales : Analyser les processus existants sous SAS (scripts, macros, workflows) et identifier les dépendances. Concevoir des solutions équivalentes ou optimisées sur Dataiku, en collaboration avec les équipes métiers et techniques. Développer et tester les nouveaux workflows Dataiku, en assurant la compatibilité avec les systèmes existants. Former les équipes internes à l’utilisation de Dataiku et documenter les bonnes pratiques. Accompagner le déploiement progressif des solutions et assurer le support post-migration. Optimiser les performances des nouveaux processus et proposer des améliorations continues. Compétences techniques : Expertise confirmée en développement SAS (Base SAS, SAS Macro, SAS SQL, SAS DI Studio, etc.). Maîtrise avancée de Dataiku (création de workflows, utilisation des recettes, intégration avec d’autres outils, etc.). Connaissance des bonnes pratiques en migration de données et en gestion de projets data. Expérience avec les bases de données (SQL, Oracle, PostgreSQL, etc.) et les environnements Big Data . Familiarité avec les outils de versioning (Git) et les méthodologies Agile/DevOps . Compétences transverses : Capacité à travailler en équipe pluridisciplinaire (métiers, IT, data scientists). Pédagogie pour former et accompagner les utilisateurs finaux. Autonomie , rigueur et sens de l’organisation pour gérer des projets complexes. Excellente communication écrite et orale pour documenter et présenter les avancées.
Freelance

Mission freelance
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal

Publiée le
DBT
Snowflake

6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Freelance

Mission freelance
Chef de projet / Consultant Fonctionnel PDM – Déploiement Système PLM/PDM

Publiée le
PLM (Product Lifecycle Management)
SAP

6 mois
Saint-Denis, Île-de-France
Télétravail partiel
❗❗URGENT ❗❗ Mission : Chef de projet / Consultant Fonctionnel PDM – Déploiement Système PLM/PDM❗❗ IDF❗❗FREELANCE❗❗ Localisation : Saint-Denis (93) Démarrage : ASAP Durée : Mission longue durée Contexte de la mission : Dans le cadre d’un projet d’implémentation et de déploiement d’un système PDM (Product Data Management), vous intégrerez la DSI d’un grand groupe industriel en pleine transformation digitale. Vos principales missions ; ✅ Participer activement à la mise en œuvre, configuration et déploiement du PDM au sein des entités du groupe. ✅ Contribuer à la gestion des variantes produits et de la configuration technique (nomenclatures, structures produit, données techniques). ✅ Assurer la cohérence fonctionnelle entre le PDM et les modules SAP (SD, MM, WM, QM). ✅ Accompagner la DSI dans la montée en compétence interne sur les outils PDM/PLM. Profil recherché ✔️Compétences PDM/PLM, avec une expérience significative en implémentation ou déploiement international. ✔️ Solides connaissances en processus industriels, gestion du cycle de vie produit et intégration ERP.
Freelance
CDI

Offre d'emploi
Un Web analyste sur Saint Denis

Publiée le
UI design
UX design

2 ans
Saint-Denis, Île-de-France
Télétravail partiel
Je recherche pour un de mes clients un Web analyste sur Saint Denis La mission consiste à intégrer 1 profil : un Web Analyste Senior au sein du pôle Design D2D (Direction Design & Développement), rattaché au département UX & Analytics. Le prestataire travaillera aux côtés d’une équipe interne d’une trentaine de collaborateurs (UX/UI, researchers, web analystes, accessibilité, chefs de projets) et contribuera activement à l’ensemble des activités du pôle Analytics, notamment : Gouvernance Piano Analytics : gestion des licences, accès, conformité, reporting mensuel de consommation. Conseil en web analyse : analyses, tracking, refonte de plans de taggage, TMS, optimisation de conversion. Suivi du pôle Analytics : mise à jour roadmap, suivi des temps, reporting, suivi des facturations. Contribution commerciale : analyse de besoins, chiffrages, participation aux propositions commerciales. Animation de communauté : veille, webinars, communication interne, accompagnement des entités du client Ce rôle implique une forte autonomie, un leadership naturel et une capacité à accompagner divers métiers sur des problématiques analytiques. Livrables attendus Reporting mensuel Piano Analytics (consommation, gouvernance, accès). Plans de tracking, paramétrages TMS, analyses data et recommandations. Tableaux de bord automatisés. Documents de suivi : roadmap Analytics, suivi temps passés, éléments de facturation. Chiffrages, propositions commerciales, bilans d’activité. Supports de communication, supports de webinars, documentation d’usage. Charge nécessaire Début de mission : janvier 2026 Fin de mission : décembre 2027 Rythme : 2 jours par semaine sur toute la période Localisation & Modalités Campus Rimbaud – Paris Saint-Denis (pôle Design D2D) Présence requise 1 jour par semaine minimum. Télétravail possible 1 jour/semaine maximum. Open space, locaux accessibles PMR, à 10 min à pied du RER D. PC + VPN fournis au prestataire à l’arrivée. Aucun déplacement prévu.
Freelance
CDI
CDD

Offre d'emploi
Développeur .NET / Azure

Publiée le
.NET
.NET CORE
Azure

2 ans
Paris, France
Télétravail partiel
Description de la mission : Vous rejoignez l’équipe Referential pour travailler sur le projet qui consiste à migrer une application existante d’une plateforme On-Premise vers Microsoft Azure . Ce projet inclut également la connexion à un nouveau fournisseur de données , avec la mise en place des flux d’alimentation pour nos référentiels (instruments financiers, émetteurs, données extra-financières, etc.). Vous collaborerez de manière transverse avec les équipes IT et Business. Vos responsabilités : Développer les nouveaux composants applicatifs. Garantir la cohérence technique des modules et appliquer les bonnes pratiques (qualité du code, tests unitaires, modèles de données). Rédiger les spécifications techniques et documents d’architecture en collaboration avec le Business Analyst. Planifier et estimer les travaux, identifier les risques et points de blocage. Travailler avec les équipes Infrastructure pour définir et mettre en place l’environnement Azure. Tester et déployer l’application sur Azure, corriger les anomalies. Accompagner la phase de validation (UAT et production) et assurer la qualité des livrables. Effectuer les tests sur les outils/modules développés. Profil recherché : Formation : Bac+5 (école d’ingénieur ou équivalent). Expérience : 5+ ans en développement informatique. Expertise en Azure , .NET 8 , C# , Blazor WebAssembly/Server App . Développement d’API REST, ETL, batchs et services. Conception et développement de modèles et bases de données. Maîtrise des pratiques DevOps, qualité du code (Sonar), automatisation des tests (un plus). Expérience en environnement agile (SCRUM). Langues : Français et anglais courants. Atouts : Connaissance des produits financiers et des référentiels, intérêt pour la data.
Freelance
CDI

Offre d'emploi
Responsable audit réglementaire et conformité IT

Publiée le
DORA
Microsoft Access
RGPD

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
Contexte et périmètre Dans le cadre de prestations d’assistance en matière d’audit réglementaire et de conformité IT, le titulaire intervient en conseil, en suivi des recommandations et dans l’accompagnement de projets réglementaires. Le poste s’inscrit dans un environnement soumis à de fortes exigences réglementaires et vise à garantir l’efficacité, l’efficience et la conformité des processus de l’entreprise aux lois et réglementations applicables. La réalisation d’audits de Sécurité des Systèmes d’Information (SSI) est explicitement exclue du périmètre de la mission. Mission principale Assurer l’accompagnement de l’entreprise dans la gestion des risques, la mise en conformité réglementaire et le suivi des recommandations issues des audits internes, externes ou des autorités de contrôle, afin de garantir la conformité des opérations et des systèmes d’information. Responsabilités et activités 1. Prestations de conseil Apporter un accompagnement opérationnel dans la gestion des risques et la mise en œuvre des recommandations issues des audits internes, externes ou des régulateurs. Réaliser des évaluations indépendantes et objectives des opérations, processus et dispositifs de contrôle. Conseiller les équipes métiers et IT sur les bonnes pratiques de gouvernance, de conformité et de maîtrise des risques. Contribuer à l’amélioration continue des processus et dispositifs de contrôle interne. 2. Suivi des recommandations et contrôle permanent Assurer le contrôle permanent des procédures internes et de leur bonne application. Suivre les prestations de services externalisées et les dispositifs PS2E, en lien avec les exigences réglementaires. Déployer, piloter et suivre les actions issues de la matrice des risques opérationnels. Assurer le suivi des recommandations émises par l’audit au sein de la Direction des Systèmes d’Information (DSI). Structurer et maintenir la documentation de conformité : Répertoires documentaires, Outils de gestion documentaire (ex. Data Legal Drive), Matrices de risques, Fichiers et tableaux de suivi des actions. Suivre et piloter les plans d’actions liés à la cartographie des risques (gouvernance, production, support, etc.). 3. Prestations liées aux projets réglementaires Accompagner la mise en conformité avec les réglementations applicables, notamment : RGPD, DORA, Autres réglementations sectorielles. Tenir et mettre à jour les registres de traitements. Réaliser et suivre les PIA (Privacy Impact Assessment) et les BIA (Business Impact Analyses). Participer à la mise en œuvre et au suivi des dispositifs de lutte contre la fraude et le blanchiment. Contribuer aux projets réglementaires transverses impliquant les équipes IT, métiers et conformité.
Freelance
CDI

Offre d'emploi
Expert(e ) Proxy Skyhigh & Réseaux

Publiée le
Proxy

6 mois
55k-60k €
450-600 €
Paris, France
Télétravail partiel
Pour l’un de nos clients (secteur de l’assurance), nous recherchons un (e ) Expert(e ) Proxy & Réseaux. Missions Dans le cadre du renforcement des équipes Cyberdefens, vous interviendrez en tant qu’Expert (e ) Proxy & Réseaux pour accompagner les entités du groupe dans la reconfiguration de leurs proxys d’accès aux applications métiers. Vous intégrerez l’équipe Project Management Cyberdefense en charge du delivery des projets liés aux produits de sécurité (PAM, EndUser & Data, Network & Messaging, SOC, Application Security, Vulnerability Management). Vos tâches seront les suivantes : · Accompagner les entités du Groupe dans l’analyse et la reconfiguration de leurs proxys réseau. · Travailler en étroite collaboration avec le Product Expert Manager sur les politiques de sécurité Proxy. · Implémenter les politiques de sécurité dans Skyhigh (anciennement McAfee Web Gateway). · Analyser les demandes spécifiques des entités et proposer des solutions techniques adaptées. · Assurer la coordination des actions techniques dans un environnement international.
Freelance

Mission freelance
Testeur Technique / Intégrateur Industry 4.0 - BELGIQUE

Publiée le
MES (Manufacturing Execution System)

6 mois
550 €
Belgique
Télétravail partiel
Nous recherchons un(e) Intégrateur(trice) Industry 4.0 pour rejoindre l’équipe Manufacturing 4.0 d’un grand acteur de l’aéronautique, dans le cadre d’un projet ambitieux de modernisation des systèmes industriels et digitaux de l’usine du futur. Contexte : Les usines produisent des éléments de turboréacteurs en titane avec une précision extrême (jusqu’à 10 µm). L’équipe Manufacturing 4.0 apporte des outils digitaux et des moyens technologiques pour soutenir les équipes métiers et la production industrielle. Le projet vise à concevoir et déployer une solution Industry 4.0 intégrée, performante, sécurisée et scalable, incluant robotique, pilotage par la donnée et intelligence artificielle. Vos missions principales : Assurer l’intégration des différents modules du système d’information industriel. Préparer et réaliser les tests techniques du système « Usine du futur » : robustesse, performance, scalabilité, sécurité, traçabilité. Analyser les protocoles, flux et structures de données. Identifier et corriger les problèmes, proposer des améliorations. Participer à l’optimisation des performances du système et à la mise en place de la chaîne CI/CD. Collaborer étroitement avec les équipes IT, MES, UNS, PLM, maintenance et qualité industrielle. Profil recherché : Ingénieur ou bachelor expérimenté en informatique, avec 5+ ans sur des projets de grands systèmes d’information. Expérience en intégration de systèmes industriels et tests techniques approfondis (Recette, IVVQ, Qualification, Acceptance). Curiosité technique et capacité à résoudre les problèmes. Connaissance du monde industriel/OT et des architectures SI industrielles (atout). Bon relationnel, autonome et capable de travailler en équipe. Maîtrise du français à l’oral et à l’écrit ; anglais technique apprécié. Compétences techniques requises : Connaissance des architectures de systèmes d’information. Expérience sur cloud public (AWS, Azure, GCP). Idéalement : MES, conteneurs (Podman), IIOT, brokers (Kafka, MQTT), plateformes Big Data/Data Lakes. Certifications ISTQB, Katalon Practitioner ou équivalent appréciées. Conditions : Mission de 4 mois, possible extension. Présentiel sur le site industriel (Belgique) avec télétravail possible 1 à 2 jours/semaine. Horaires de jour, flexibles selon interventions. Qualités attendues : Autonomie, pro-activité, curiosité et esprit critique constructif. Esprit d’équipe, polyvalence et orientation résultat.
Freelance

Mission freelance
Expert DBA

Publiée le
Oracle

24 mois
400-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Le DBA est responsable de la gestion, de la performance, de la sécurité et de la disponibilité des bases de données de l’entreprise. Il garantit l’intégrité des données et accompagne les équipes IT et métiers dans l’exploitation optimale des systèmes d’information : Gestion avancée des plateformes Oracle : surveillance approfondie, optimisation continue, résolution d’incidents complexes et analyse fine des performances. Maintenance évolutive et corrective : installation des patchs, application des mises à niveau, suivi des roadmaps éditeur et anticipation des évolutions techniques. Contribution aux projets transverses : participation aux études d’architecture, aux opérations de migration et à la mise en place de mécanismes de haute disponibilité ou de continuité d’activité (PRA/PCA). Automatisation et industrialisation : création d’outils, de scripts et de procédures permettant de fiabiliser les opérations récurrentes et de réduire les interventions manuelles. Une solide maîtrise de l’écosystème Oracle (GoldenGate, DataGuard, RMAN, Data Pump, optimisation SQL) est indispensable, de même qu’une capacité à évoluer dans des contextes complexes et critiques. La mission peut impliquer des astreintes et des interventions en horaires décalés afin d’assurer la stabilité du SI.
CDI

Offre d'emploi
CTO / Lead Tech

Publiée le
Développement

Strasbourg, Grand Est
Construction de la plateforme data & mobile MyRacingCoach Localisation : Strasbourg, Grand Est, France Type de contrat : CDI / Freelance Date de début : Dès que possible Rythme : Télétravail et hybride Contexte : MyRacingCoach développe une application mobile dédiée à l’analyse de données GPS et télémétriques afin d’aider les pilotes de course à progresser plus vite. Notre cœur de valeur repose sur deux modules principaux : • un module d’analyse des données (trajectoire, freinage, vitesse, cohérence du pilotage), • un module d’intelligence artificielle capable de produire des recommandations personnalisées. Ces briques techniques deviennent centrales pour accompagner les pilotes dans leur performance globale. Nous entrons maintenant dans une nouvelle phase : passer de prototypes et POC métiers à une infrastructure robuste, intégrant les algorithmes, les flux de données, le backend, les APIs et l’application mobile. Le rôle du CTO est de concevoir, structurer et superviser toute l’architecture technique, tout en constituant une équipe solide. Missions principales : • Définir l’architecture globale de la plateforme (backend, APIs, base de données, pipelines data, sécurité). • Encadrer le développement des micro-services d’intégration, de traitement et d’exposition des données. • Collaborer étroitement avec l’ingénieur data pour industrialiser les algorithmes métiers. • Travailler avec le développeur mobile pour garantir une expérience fluide et cohérente. • Mettre en place les environnements cloud, CI/CD, monitoring et bonnes pratiques de qualité. • Structurer et faire grandir l’équipe tech (recrutement, mentoring, organisation). • Veiller à la scalabilité et à la performance sur des volumes croissants de sessions de pilotage. • Définir la roadmap technique avec le CEO et contribuer fortement à la vision produit.
Freelance

Mission freelance
Lead MLOps Python - Spécialiste IA/RAG

Publiée le
IA
MLOps
Python

3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
CDI
Freelance

Offre d'emploi
Product Manager - Epargne et Service Financier

Publiée le
Confluence
JIRA

12 mois
45k-55k €
400-500 €
Paris, France
Télétravail partiel
Contexte de la mission La Direction des Systèmes d’Information Epargne et Services Financiers (DSI ESF) souhaite renforcer sa capacité à piloter ses produits internes : applications, services techniques, plateformes, outils transverses, socles technologiques, référentiels, etc.. Pour ce faire elle recrute un Product Manager DSI ESF dont la mission sera d’incarner la vision, la stratégie et le cycle de vie de ces produits, au service des équipes internes DSI et des directions utilisatrices. Le poste s’inscrit dans une logique d’amélioration continue, d’industrialisation et de modernisation du SI. Il est en rapport direct avec une démarche d'urbanisation embrayée en septembre. Finalité du poste : Être garant pour le compte de la DSI en tant que métier spécifique, de la définition, vision, priorisation et gestion du cycle de vie d’un ou plusieurs produits SI internes, qu’ils soient métier-support (ex : gestion des identités, automatisation) ou techniques (ex : plateformes, pipelines, data, socles d’intégration, mécanismes d'échanges).

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1174 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous