Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 174 résultats.
Freelance

Mission freelance
Lead MLOps Python - Spécialiste IA/RAG

Publiée le
IA
MLOps
Python

3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
CDI
Freelance

Offre d'emploi
Product Manager - Epargne et Service Financier

Publiée le
Confluence
JIRA

12 mois
45k-55k €
400-500 €
Paris, France
Télétravail partiel
Contexte de la mission La Direction des Systèmes d’Information Epargne et Services Financiers (DSI ESF) souhaite renforcer sa capacité à piloter ses produits internes : applications, services techniques, plateformes, outils transverses, socles technologiques, référentiels, etc.. Pour ce faire elle recrute un Product Manager DSI ESF dont la mission sera d’incarner la vision, la stratégie et le cycle de vie de ces produits, au service des équipes internes DSI et des directions utilisatrices. Le poste s’inscrit dans une logique d’amélioration continue, d’industrialisation et de modernisation du SI. Il est en rapport direct avec une démarche d'urbanisation embrayée en septembre. Finalité du poste : Être garant pour le compte de la DSI en tant que métier spécifique, de la définition, vision, priorisation et gestion du cycle de vie d’un ou plusieurs produits SI internes, qu’ils soient métier-support (ex : gestion des identités, automatisation) ou techniques (ex : plateformes, pipelines, data, socles d’intégration, mécanismes d'échanges).
Freelance

Mission freelance
Consultant Fonctionnel certifié SAP Public cloud – Logistique (H/F)

Publiée le
SAP S/4HANA

7 mois
Paris, France
Télétravail partiel
Dans le cadre d’un projet SAP S/4HANA Public Cloud Edition déjà lancé, nous recherchons un consultant fonctionnel confirmé pour intervenir sur le périmètre Opérations et soutenir les équipes internes dans les phases d’intégration et de design. Missions : Contribuer à l’intégration SAP Public Cloud Edition avec les systèmes satellites (WMS, POS…). Animer les workshops et valider les spécifications d’intégration. Participer aux tests d’intégration et à la résolution des écarts. Accompagner la migration des données (master data et transactionnel). Apporter une expertise sur les processus standards SAP Public Cloud Edition et contribuer aux choix process/techniques. Participer aux réunions de revue/validation avec l’intégrateur. Collaborer avec les équipes Change. Contribuer à la montée en compétences des équipes internes.
Freelance

Mission freelance
Machine Learning Ops

Publiée le
MLOps
RAG

1 an
400-650 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Machine Learning Ops. Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée. Expertises requises dans le cadre de la réalisation de la prestation - 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production. - Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow). - Maîtrise de SQL pour l'accès et la manipulation des sources de données. - Pipeline MLOps et Outils : - Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets. - Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker. - Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML). - Expertise Modèles de Langage (LLM/NLP) - Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation. - Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production. - Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés - Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop). C ompétences souhaitées : - Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo). - Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware). - Techniques de Modélisation Avancées : - Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA). - Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models). - Qualité et Assurance IA : - Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).
CDI

Offre d'emploi
Treasury Manager

Publiée le

85k-100k £GB
Angleterre, Royaume-Uni
Treasury Manager required for an established Global leader in the FMCG sector with immediate and long term growth plans through organic scale up, Investment, acquisition and intelligent market vision. Very good degree of Hybrid working. This exciting opportunity sits within the Corporate offices and gives exposure to the senior leadership team across the UK and overseas. Role Overview: The Treasury Manager oversees the group’s cash management, liquidity, and debt facilities to ensure efficient use of funds and strong financial control. This role is responsible for cash flow forecasting, managing banking relationships, ensuring debt compliance, and implementing strategies to optimise cash movements across the group. The Treasury Manager also monitors financial risks and supports the development of frameworks that enhance liquidity, funding efficiency, and overall treasury performance. Key Stakeholders: Corporate CFO, BU Heads of Finance and Lenders Primary Responsibilities and duties include: Cash Management & Liquidity Manage daily cash positioning, ensuring adequate liquidity across all group entities. Monitor bank account structures, optimise cash pooling arrangements, and improve inter-company funding efficiency. Oversee bank relationships and manage banking platforms and signatory controls. Cash Flow Forecasting Develop, maintain, and continuously improve group-wide short-, medium-, and long-term cash flow forecasting models. Work closely with business units and finance teams to collect and validate forecast inputs. Analyse variances between forecast and actual cash flows to improve forecast accuracy. Debt Management & Compliance Manage the group’s debt portfolio, including revolving credit facilities and term loans. Ensure timely compliance with all debt covenants, reporting obligations, and facility agreements. Support negotiations for new financing arrangements and liaise with lenders as required. Treasury Strategy & Optimisation Design and implement cash management frameworks and treasury policies to enhance efficiency and control. Develop and execute strategies for optimal cash deployment across the group, minimising idle balances and with due reference to tax considerations Evaluate and implement treasury technology solutions to automate and streamline processes. Identify opportunities for centralising or optimising treasury operations across jurisdictions. Financial Risk Management Identify, assess, and manage financial risks, including foreign exchange, interest rate, and liquidity risks. Develop and maintain the group’s risk management policy and hedging strategy. Governance & Reporting Ensure compliance with internal controls, treasury policies, and regulatory requirements; ensuring full inter-company matrix and loan documents are in place. Prepare monthly and quarterly treasury reports for executive management and the Board. Collaborate with auditors and external advisors on treasury-related matters. Qualifications, Knowledge, Skills & Experience Strong analytical mindset with the ability to identify and implement process improvements and scalable solutions within treasury functions. Experience in a similar role (treasury management), ideally having worked in a Professional Services firm or in a multinational group. Financially savvy – comfortable navigating financial reporting (profit & loss account, balance sheet, cash-flow), analysing data and creating sophisticated financial models in Microsoft Excel. A working knowledge of working capital management, cash flow forecasting and FX management. Experience with the design and implementation of policies, controls and audit checks on the treasury function. Experience advising of the working capital requirements of large scale CAPEX projects. Excellent communication and interpersonal skills, with experience managing relationships with third parties and internal stakeholders. On offer is a generous overall package including, Car allowance, Bonus and excellent degree of Hybrid working (only one day per week required in the office) as well as core benefits. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at investigo.co.uk.
Freelance

Mission freelance
Consultant Infrastructure

Publiée le
AWS Cloud

6 mois
400-500 €
Villeneuve-d'Ascq, Hauts-de-France
Au sein de la Business Unit Data, les équipes Data Platform sont chargées des outils et des bonnes pratiques pour les différents profils des équipes data. Nous accompagnons au quotidien l’ensemble des acteurs de la Data au sein du groupe et sommes responsables du maintien en condition opérationnelle de l'infrastructure de la DATA. Nous offrons également un accompagnement aux équipes techniques. L’équipe Data InfraOps innove tous les jours pour répondre au mieux aux besoins de notre plateforme. Nos enjeux sont : Une plateforme data entièrement multi-cloud (AWS-GCP) De la haute disponibilité, avec une plateforme résiliente et des technologies innovantes La sécurité au coeur de nos projets Les besoins de nos data scientist, data engineers data analystes, et développeurs traduits en solutions techniques. La mission est d’intervenir sur plusieurs produits de l’équipe. Le premier concerne, l’offre de compute via le service AWS EKS: Faire évoluer le produit à l’état de l’art et automatisation Récolter, comprendre, analyser et challenger les besoins utilisateurs (internes et externes à la plateforme) ; Ajouter et automatiser les nouveaux besoins; Mise à disposition de nouvelles ressources et accès en self service pour les projets; Maintien en condition opérationnelle et Support Assurer le maintien de l’offre en condition opérationnelle; Apporter un support de niveau 3; Suivre les évolutions du produit kubernetes et tout l’environnement CNCF; Sécurité et Observabilité S’assurer de la conformité de la sécurité des clusters Ajouter et maintenir les éléments d’observabilités des clusters Garantir la maintenabilité, l’évolutivité et la fiabilité du produit La deuxième mission concerne l’APIsation de la plateforme. Recenser les problématiques Ops et les traduire en solution technique dans le cadre d’une intercommunication entre les services de la plateforme via des API; Architecturer, Développer et maintenir les API; Assurer l’évolutivité et la maintenabilité des API La troisième mission consiste à animer techniquement l’équipe infraOps sur les bonnes pratiques DevOps : Assurer une automatisation en bout en bout de la chaîne de delivery des services; S’assurer de la qualité des livrables; Automatiser les process consommateurs en temps humain et source d’erreur; Sensibiliser l’équipe aux bonnes pratiques DevOps Les plus pour réussir : Mindset "Owner" et proactif : Ne pas se contenter de répondre aux demandes, mais anticiper les évolutions (technologiques et besoins utilisateurs), proposer des solutions d’amélioration continue et prendre la responsabilité de la qualité et de la performance des produits. Aptitude à la simplification et à l'automatisation totale : Avoir la conviction que toute tâche récurrente ou source d'erreur doit être automatisée. Savoir concevoir des solutions élégantes qui garantissent un véritable "self-service" pour les utilisateurs et une chaîne de livraison "end-to-end" fluide. Excellence en communication technique et pédagogie : Être capable de traduire des problématiques Ops complexes en solutions API claires, de challenger les besoins utilisateurs avec un esprit critique constructif, et surtout, d'animer et de transmettre les bonnes pratiques DevOps à l'équipe. Rigueur sur la sécurité et l'observabilité : Considérer la sécurité et l'observabilité non comme des tâches annexes, mais comme des éléments fondamentaux intégrés dès la conception, notamment dans l'environnement critique des clusters EKS. Veille technologique et innovation : Maintenir une curiosité constante sur l'écosystème CNCF (Kubernetes, etc.) et les tendances AWS, afin de maintenir l'offre de compute à l'état de l'art. Compétences : E
Freelance
CDI

Offre d'emploi
Ingénieur Niveau 3 Nutanix

Publiée le
Nutanix
VMware

3 ans
40k-45k €
490 €
Tours, Centre-Val de Loire
Télétravail partiel
Dans le cadre d’un projet de migration de data centers vers une nouvelle infrastructure opérée par un partenaire externe, nous recherchons un renfort senior pour intervenir sur l’exploitation et la gestion de plateformes virtualisées. 🎯 Votre rôle Vous interviendrez en tant qu’expert opérationnel sur : L’exploitation et le maintien en conditions opérationnelles des environnements VMware et Nutanix. La participation aux projets de migration d’infrastructures. L’administration et la gestion des VM post-migration. L’exploitation des plateformes de stockage Huawei. Les opérations SAN / zoning en fonction des besoins. 🧰 Stack technique recherchée Compétences indispensables : Expertise VMware. Compétence Nutanix obligatoire (pas de profil junior). Environnements complémentaires : Stockage Huawei (production & sauvegarde). Zoning SAN. La sauvegarde n’est pas le point prioritaire, les compétences sont déjà présentes en interne.
CDI

Offre d'emploi
CPTO saaS

Publiée le
Management
Product management
SaaS

70k-85k €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Rattaché·e au Dirigeant, vous intégrerez le CODIR et vous prendrez la direction de 3 équipes : 2 de développement (Logiciel / Data), chacune incluant un profil orienté Product, et une équipe dédiée à la partie Delivery / MCO. Vous aurez aussi à piloter directement une poignée de profils transverses pour un total de près de 20 personnes en tout sur votre pôle. Vous aurez à la fois un rôle de pilote opérationnel, en vous assurant au mieux du respect des délais et de la roadmap de chaque équipe, et un rôle plus organisationnel / structurel, en accompagnant la structuration des équipes sur le plan méthodologique via l'application de bonnes pratiques en matière de gestion de projets et d'assurance qualité au sein de chacune des équipes. Les attentes seront fortes sur l’optimisation des process, l’automatisation, l'amélioration du modèle SaaS, ainsi que sur l’efficience interne en réduisant notamment au minimum possible les tâches manuelles. Vous aurez aussi pour mission de peaufiner les KPIs afin de mesurer la performance de vos équipes tout en insufflant une atmosphère studieuse mais décontractée. De manière ponctuelle, vous pourriez être amené·e à effectuer des déplacements à l'étranger à la rencontre de clients. Enfin, votre intronisation au CODIR impliquera d'avoir une vision stratégique transverse pour piloter en équipe restreinte la transversalité des enjeux techniques, business et financiers.
Freelance

Mission freelance
Développeur Java Core - 2 jours TT

Publiée le
Java
Web service

6 mois
400-570 €
Paris, France
Télétravail partiel
Développeur senior sur un projet de gestion des données de référence - MDM Concevoir, développer et tester Fournir une expertise technique sur la technologie Java Soutenir toute l'équipe TA et BA pour fournir les meilleures solutions en matière de conception et de résolution de problèmes Ressources pour les mentors juniors Respect des normes de codage, examens constructifs et génération d'utilitaires communs dans la mesure du possible Assurer la coordination avec les autres groupes responsables de la livraison du produit de travail assigné Fournir des mises à jour sur l'état d'avancement du produit de travail selon les échéanciers convenus. Fournir des estimations pour les nouveaux projets initiés Expérience dans les activités de gestion des incidents, des changements, des versions, de la configuration et des problèmes S'assurer que les livraisons respectent les délais et les efforts convenus Intérêt pour la compréhension des notions fonctionnelles derrière les domaines techniques Anglais Courant : Premier entretien en anglais Core Java / Web Services / Multithreading / SOLID principles / Spring / Autonomy /Proacting /Open-mindedness / Communication / Reporting / Master Data Management / SpringBoot
Freelance

Mission freelance
ARCHITECTE TECHNIQUE ON PREMISE & CLOUD AZURE ET GCP

Publiée le
Azure
Cloud

24 mois
325-650 €
Paris, France
Télétravail partiel
Nous recherchons plusieurs Architectes Technique OnPrem & Cloud pour une mission longue chez l'un de nos clients. Niveau expérimenté à senior requis. CONTEXTE DE LA MISSION Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation - Accompagnement de la stratégie Move2Cloud - Co-construction des solutions - Accompagnement des équipes d'exploitation et de développement Environnement général - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION - Etude des besoins issus des équipes de développement - Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services - Rédaction des documents d'architecture et d'intégration générale et détaillée - Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition - Contribution à l'évaluation budgétaire des solutions mises en œuvre - Support N3 des équipes d'exploitation Démarrage souhaité : au plus tôt Durée de la mission : Longue Paris
Freelance

Mission freelance
DataOps / Ops GCP

Publiée le
Ansible
BigQuery
Google Cloud Platform (GCP)

1 an
400-500 €
Paris, France
Télétravail partiel
Notre client, recherche un Ingénieur DataOps / Ops GCP confirmé (H/F) dans le cadre d'une longue mission. Renforcement de l’équipe Data dans le cadre d’un fort accroissement de la charge projet. Le consultant interviendra sur l’ensemble des environnements GCP en lien avec les équipes Architecture, Infra et Études. - Exploitation et mise en production des projets sur Google Cloud Platform (GCP) - Diagnostic, résolution d’incidents et suivi opérationnel quotidien - Définition et pilotage de plans d’actions pour améliorer la qualité de service, sécuriser la production et optimiser la productivité - Amélioration continue des performances des environnements GCP - Participation aux projets techniques et métiers : mise en place d’environnements, déploiements, automatisations - Contribution à l’industrialisation et à l’évolution des outils d’automatisation - Collaboration régulière avec les équipes Architecture - Rôle orienté delivery projet (pas de RUN centré)
Freelance
CDI

Offre d'emploi
Référent Applicatif PL/SQL (connaissance finance)

Publiée le
Finance
PL/SQL

3 ans
40k-70k €
400-640 €
Paris, France
Télétravail partiel
Contexte Au sein de la direction Finance / Investissements d’un groupe d’assurance, le poste s’inscrit dans un environnement fortement réglementé et orienté gestion d’actifs. Le rôle est centré sur l’exploitation, l’analyse et la fiabilisation des données financières issues des systèmes d’information, en lien étroit avec les équipes métiers et IT. Missions principales Exploiter et analyser les données financières via des requêtes PL/SQL (sans activité de développement applicatif). Assurer la cohérence, la qualité et la fiabilité des données liées aux investissements. Intervenir sur les périmètres OPCVM, fonds, titres vifs et opérations sur titres (OST). Comprendre et analyser les flux financiers entre les systèmes de gestion d’actifs, comptables et décisionnels. Participer au suivi et à la résolution des anomalies de données ou de restitution. Produire des extractions, contrôles et analyses à destination des équipes métiers (finance, investissements, risques). Être l’interface entre les équipes métiers, IT, data et éditeurs de solutions. Contribuer aux projets d’évolution des outils et des référentiels (recette fonctionnelle, validation des données). Documenter les processus, règles de gestion et schémas de données.
Freelance
CDI

Offre d'emploi
Développeur C++ / C# – Environnement Bancaire / Salle de Marché

Publiée le
C#
C/C++
Summit

3 ans
46k-57k €
400-500 €
Île-de-France, France
Contexte Nous recherchons un Développeur C++/C# expérimenté pour intervenir au sein d’un environnement bancaire exigeant , au cœur des activités de marché (Front Office / Middle Office) . Vous intégrerez une équipe de développement dédiée aux systèmes critiques utilisés par les traders, analystes et quants. Vos Missions Développer, maintenir et optimiser des applications C++ et C# à forte contrainte de performance et de fiabilité. Participer à la conception de nouvelles fonctionnalités pour les plateformes de trading, pricing, risk management ou gestion de données de marché. Travailler sur des bases de données SQL : optimisation de requêtes, gestion de données temps réel, workflows et automatisation. Collaborer étroitement avec les équipes Quant, IT, Trading, Risk pour comprendre les besoins métier. Contribuer aux revues de code, à l’amélioration continue et aux bonnes pratiques de développement. Participer à la gestion des incidents et analyser les anomalies en production (forte réactivité demandée). Assurer la qualité du code : tests unitaires, tests de performance, documentation technique. Compétences Techniques Requises Développement Maîtrise C++ (moderne : C++11/14/17) . Maîtrise C# Maitrise Summit Base de données Solides compétences SQL (T-SQL, scripts, optimisation de requêtes). Connaissance des architectures data en salle de marché : flux temps réel, stockage haute volumétrie.
Freelance

Mission freelance
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal

Publiée le
DBT
Snowflake

6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Freelance

Mission freelance
Program / Project Management Lead (Workday)

Publiée le
Workday

8 mois
400-550 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de l’équipe Program, Project & Service Management , notre client – acteur majeur de l’industrie Media & Content (musique, télévision, cinéma, jeux vidéo) – recherche un Program / Project Management Lead . La mission s’inscrit dans un contexte de programmes Workday à forte valeur stratégique , impliquant plusieurs équipes et parties prenantes métiers et IT. Responsabilités principales En tant que Program / Project Management Lead , vous serez responsable de la bonne exécution globale du programme / projet , depuis la définition du périmètre jusqu’à l’atteinte des résultats business. Vos responsabilités incluent notamment : Piloter la delivery globale du programme/projet en garantissant le respect des objectifs, délais et engagements Définir le périmètre, planifier et suivre l’exécution des livrables Coordonner et communiquer avec l’ensemble des parties prenantes (métiers, IT, équipes transverses) Gérer les attentes, risques, dépendances, problématiques et arbitrages Prendre des décisions au niveau de l’équipe et contribuer aux décisions clés impliquant plusieurs équipes Apporter des solutions concrètes aux problématiques rencontrées Animer des sessions de planification stratégique pour aligner les objectifs projet avec les objectifs business Faciliter des ateliers afin de recueillir les besoins et assurer l’engagement des parties prenantes Produire et maintenir une documentation projet complète (planning, suivi, reporting, décisions) Mettre en œuvre une gestion proactive des risques Favoriser un environnement collaboratif orienté amélioration continue et performance collective Compétences et expertise requises Compétences indispensables : Maîtrise experte de Workday Advanced Compensation Solide expérience en pilotage de projets / programmes complexes Capacité avérée à évoluer dans des environnements multi-équipes et multi-interlocuteurs Compétences fortement recommandées : Bonne maîtrise du PMBOK (Project Management Body of Knowledge) Workday HCM Security Workday HCM Operational Reporting Workday Advanced Reporting Workday EIB Data Load Profil recherché Expérience confirmée en Program / Project Management Forte posture de leadership et capacité à fédérer Excellentes compétences en communication et en facilitation Capacité à prendre des décisions structurantes et à gérer la complexité Orientation résultats et résolution de problèmes
Freelance

Mission freelance
Développeur Dataiku Expérimenté (>5 ans)

Publiée le
Dataiku

12 mois
400-610 €
Paris, France
Télétravail partiel
Contexte Dans un programme stratégique de convergence Risques / Finance , le client vise à unifier et fiabiliser la production des reportings réglementaires (FINREP, COREP, SURFI…). L’objectif : mettre en place un socle unique pour la collecte, la préparation, le contrôle et la traçabilité des données réglementaires. Le consultant interviendra sur les volets Collecte et/ou Socle Technique , autour du développement de nouvelles fonctionnalités ou de l’amélioration du existant, dans un cadre méthodologique en V au sein d’une équipe fonctionnant en Scrum . Une montée en responsabilités vers un rôle de référent Dataiku est prévue selon la maîtrise des sujets. Missions Développer des fonctionnalités data au sein de Dataiku (recettes, scénarios, pipelines). Améliorer les bonnes pratiques de développement, d’industrialisation et de tests. Participer à la conception avec la Product Team et challenger les solutions proposées. Réaliser les tests , diagnostics et optimisations des pipelines existants. Contribuer au partage de connaissances et à la montée en compétence des développeurs juniors. Participer activement à la vie de l’équipe agile (daily, sprint planning, refinement, reviews). Compétences Techniques Requises Dataiku (recettes avancées, scénarios, API, partitions) – certifications appréciées. Python (manipulation data, librairies standards). Datastage . Spark . Unix / Shell . Bases de données relationnelles : DB2, Oracle… SQL avancé. Compétences appréciées Environnements OpenShift / Kubernetes / Docker . Connaissances en programmation objet (Java, C#…). Culture data dans des environnements Risk/Finance ou réglementaire bancaire. Profil recherché Minimum 5 ans d’expérience en développement Dataiku dans des contextes complexes. Capacité à évoluer en mode produit et à travailler en interaction avec Risques, Finance, IT. Autonomie, rigueur, capacité d’analyse et communication claire. Expérience en environnement bancaire fortement appréciée.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1174 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous