Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 426 résultats.
Freelance

Mission freelance
Data Quality Engineer Senior

INFOGENE
Publiée le
Bloomberg
Data Engineering
Data quality

6 mois
500-1k €
Paris, France
Contexte & Enjeux Les données de marché de référence (futures, yields, FX, indices, obligations) présentent de nombreuses anomalies non détectées, non tracées et souvent corrigées manuellement. Cette situation entraîne une perte de temps significative et impacte la confiance des équipes Research & Prediction. Objectif de la mission Structurer, fiabiliser et industrialiser les contrôles de qualité sur les données de marché, avec une approche à la fois technique et analytique. Les 3 axes principaux 1. Audit Cartographie complète des contrôles existants Identification des gaps par classe d’actifs Construction d’un backlog priorisé 2. Implémentation Développement d’une librairie modulaire de quality checks en Python Remédiation des données historiques Gestion des escalades avec les fournisseurs de données (Bloomberg) 3. Industrialisation & IA Mise en place d’un monitoring automatisé (dashboards KPI, alerting) Industrialisation des contrôles en production Réalisation d’un POC basé sur des LLMs pour : Génération semi-automatique de contrôles Analyse des causes racines des anomalies
Freelance

Mission freelance
Data Engineer Sénior (H/F)

Sapiens Group
Publiée le
Agile Scrum
Apache Spark
BigQuery

12 mois
550-580 €
Île-de-France, France
Missions principales Vous contribuerez à la construction et à l’évolution de la plateforme Data afin de garantir la collecte, la centralisation, la gouvernance et la fiabilité des données. Vos responsabilités Participer activement aux phases de conception, planification et réalisation des sujets techniques avec l’équipe Concevoir, développer et maintenir des pipelines data robustes, performants et scalables Centraliser et intégrer des sources de données hétérogènes Structurer et optimiser les solutions de stockage des données Garantir la qualité, la conformité et la sécurité des données Déployer et maintenir des infrastructures cloud évolutives sur GCP Mettre en place et maintenir les workflows CI/CD Accompagner les équipes dans l’exploitation et le requêtage des données Participer aux initiatives de gouvernance des données Contribuer à l’amélioration continue des bonnes pratiques Data Engineering Assurer la stabilité, la sécurité et l’évolutivité des environnements techniques Participer aux communautés et instances Data Engineering Maintenir une documentation technique claire et à jour Réaliser une veille technologique active sur les sujets Data & Cloud Environnement techniqueLangages & Frameworks Python SQL Spark Cloud & Data Platform Google Cloud Platform (GCP) BigQuery Dataproc Pub/Sub Cloud Storage Dataplex Universal Catalog Data Engineering & Orchestration Airflow Delta Lake Infrastructure & DevOps Terraform Terragrunt GitLab GitLab CI/CD Méthodologies Agile Scrum Kanban
Freelance

Mission freelance
Data Engineer Senior

Comet
Publiée le
Azure
Data Lake
Pandas

24 mois
400-650 €
Paris, France
Objectifs et livrables Dans le cadre du lancement de notre nouveau projet, nous recherchons une prestation de Data Engineer senior pour concevoir et mettre en œuvre des pipelines de données dans un environnement serverless exigeant. Le prestataire Data Engineer senior doit être capable de produire, mais aussi de comprendre les enjeux métier, de cadrer les sujets en amont, de faire les bons choix de conception et de diffuser son savoir-faire au sein de la squad. Missions principales : Concevoir et développer des pipelines de données en Python Implémenter des traitements batch et des orchestrations via Azure Durable Functions Manipuler des données volumineuses, notamment au format Parquet Mettre en place des validations de schémas et des contrôles de qualité de données Assurer l’intégration avec des APIs externes Participer à la modélisation et à l’optimisation des bases Azure SQL Mettre en œuvre l’observabilité de la solution : traces, métriques, logs Industrialiser les déploiements via CI/CD • Garantir la qualité et la sécurité du code Contribuer à l’analyse des besoins et au cadrage des sujets avant implémentation Porter une réflexion de conception sur les choix techniques, les compromis et la maintenabilité Utiliser l’IA comme un levier d’ingénierie concret : accélérer l’exécution, explorer des options, challenger des choix, améliorer la qualité et gagner en efficacité, sans déléguer la réflexion ni baisser le niveau d’exigence Partager ses pratiques, expliciter ses choix et contribuer à la montée en compétence de la squad Travailler efficacement dans un environnement international, y compris en anglais sur des sujets techniques et de conception Profil recherché : Capable de comprendre rapidement les enjeux métier et de les traduire en solutions robustes et pragmatiques Capable de penser le problème avant de se focaliser sur l’implémentation Doté d’une vraie expertise d’ingénierie et de conception, au-delà de la seule maîtrise d’un langage, d’un framework ou d’une version spécifique Capable d’utiliser les outils d’IA de manière avancée, critique et pertinente, et non comme un simple générateur de code Proactif, précis et honnête sur ses capacités, ses limites et les risques associés à ses choix Capable de produire de la synthèse utile à la décision Attiré par l’immersion dans les sujets, le partage, la transmission et le travail transverse Compétences requises : Langage : Python Cloud : Expérience des Azure Functions, notamment Durable Functions v2 Capacité à récupérer et exploiter des données depuis différentes sources Azure : Data Lake, Blob Storage, Azure DB Data processing: Pandas Polars PyArrow Langues : Bon niveau d’anglais, permettant de participer de manière autonome à des échanges techniques et de conception, à l’écrit comme à l’oral La valeur attendue réside aussi dans la capacité à comprendre les enjeux, concevoir les bonnes solutions, utiliser l’IA avec discernement, expliciter les choix et faire progresser l’équipe. Compétences demandées PYTHON - Expert POLARS - Confirmé PYARROW - Confirmé PANDAS - Confirmé Fonctions Azure - Expert Niveau de langue Anglais - Courant
CDI

Offre d'emploi
Chef de Projets Data H/F

JEMS
Publiée le

45k-60k €
Nantes, Pays de la Loire
Nous recherchons un Chef de Projets Data pour venir renforcer nos équipes Delivery. Vous serez responsable de la gestion complète des projets de déploiement de nos plateformes data chez nos clients, en garantissant le respect des délais, du budget et de la qualité des livrables. Nous attendons de vous des compétences fortes en Management et Leadership. Vous aurez la charge de : • Superviser l'ensemble du cycle de vie des projets en mode forfaitaire ou en mode dispositif à engagements, jusqu'au déploiement en production • Définir et formaliser les besoins clients en étroite collaboration avec les équipes techniques et les stakeholders • Chiffrer les différentes étapes du projet, identifier les compétences nécessaires, élaborer les plannings, définir le plan de charge (montée en charge des ressources nécessaires) • Assurer un suivi rigoureux des coûts, des délais et des risques, en identifiant et en gérant les éventuels écarts de périmètre • Initialiser et maintenir le plan d'assurance qualité à jour • Encadrer et animer les équipes projets, en motivant et en assurant un suivi efficace de la performance de l'équipe • Garantir la qualité des livrables en supervisant les tests, la validation des fonctionnalités et la conformité aux exigences spécifiées • Participer à l'amélioration continue des processus et méthodologies de gestion de projets (plan de progrès) • Préparer des rapports réguliers sur l'état d'avancement des projets et les résultats obtenus. Référence de l'offre : v6lc4tkq0y
Freelance

Mission freelance
Data SSIS expérimenté (Bordeaux)

CAT-AMANIA
Publiée le
Microsoft Power BI
Microsoft SQL Server
Microsoft SSIS

3 mois
320-450 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre d’un projet de refonte du datawarehouse et des flux dits opérationnels, nous sommes à la recherche d'un Consultant Data SSIS expérimenté. Les principales missions qui vous seront confiées sont : · Participation à la conception et mise en place d’un nouveau datawarehouse et de datamarts · Conception et développement des tables ainsi que des flux de données SSIS et scripts TSQL pour l’alimentation du datawarehouse · Rédaction des documentations projet notamment les spécifications techniques · Assurer le support de recette et les mises en production dans le respect des normes en vigueur
Freelance

Mission freelance
Data Analyst / VBA Developer – Data Quality & KYC Transformation - Paris

Net technologie
Publiée le
Data quality
Powershell
SQL

6 mois
400-420 €
Paris, France
📊 Data Analyst / VBA Developer – Data Quality & KYC Transformation Dans le cadre d’un programme stratégique de transformation Client Lifecycle / KYC , nous recherchons un profil Data / VBA pour assurer la qualité et la continuité des flux de données entre systèmes legacy et une plateforme cible. 🎯 Enjeu : garantir la fiabilité des données , piloter les réconciliations et accompagner les migrations jusqu’au décommissionnement des outils historiques. 🚀 Missions Maintenance et évolution du code VBA (Excel/Access) Pilotage des réconciliations data (quotidiennes & hebdomadaires) Exécution et suivi des processus bulk de remédiation Administration et migration SharePoint Online Suivi des KPI et continuité des flux de production Contribution à la migration vers les outils cibles Documentation, support et coordination avec équipes internationales 📌 Répartition : 50% dev / 50% production & monitoring
Freelance

Mission freelance
Product Manager Data Mesh

SURICATE IT
Publiée le
Data Mesh
Product management

3 ans
400-750 €
La Défense, Île-de-France
Product Manager Data Mesh 📍 Localisation : Puteaux 📅 Type de mission : Mission longue 🏠 Télétravail : 1 jour / semaine (non négociable) 💰 TJM : 750€ Max 🏦 Secteur d’activité : Finance 🚨ATTENTION : Expérience pratique du Data Mesh obligatoire Contexte de la mission Dans un contexte de transformation data à grande échelle, notre client recherche un Senior Data Product Manager pour piloter la conception, la construction et le déploiement de sa plateforme Data Mesh (Group Data Platform – GDP). Il s’agit d’un rôle stratégique mais fortement opérationnel, avec une responsabilité directe sur la livraison, l’industrialisation et l’adoption de la plateforme à l’échelle de l’entreprise. Vos missions 🎯 Pilotage produit & amélioration continue Recueillir les besoins utilisateurs et définir la vision produit Construire et piloter la roadmap Suivre les KPIs d’usage et de valeur Améliorer en continu l’expérience utilisateur et développeur 🏗️ Delivery de la plateforme Data Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité…) Mettre en place les standards techniques et les patterns d’architecture Prendre des décisions techniques et valider les solutions ☁️ Architecture Cloud & Infrastructure Coordonner l’architecture cloud et hybride (AWS / Azure) Piloter l’intégration des systèmes on-premise Garantir la sécurité et la conformité 🚀 Exécution & delivery Piloter le cycle de vie produit (backlog, priorisation, releases) Gérer les déploiements en production Suivre performance, fiabilité et risques 📊 Déploiement & adoption Data Mesh Déployer la plateforme dans les différents domaines métiers Accompagner les équipes dans la création de data products Structurer et piloter l’adoption du modèle Data Mesh 📚 Gouvernance & documentation Formaliser les standards, processus et bonnes pratiques Assurer la conformité avec la gouvernance data du Groupe 📢 Communication & pilotage Assurer le reporting auprès des parties prenantes et du top management Produire dashboards, KPIs et supports de pilotage Animer les comités de suivi 🌟 Évangélisation & adoption Promouvoir la plateforme en interne Construire une communauté autour de la data Développer des cas d’usage et démonstrateurs Indicateurs de succès Plateforme déployée et opérationnelle en production Adoption effective par les métiers Qualité et volume des data products livrés Performance et fiabilité de la plateforme Satisfaction utilisateurs Réduction du time-to-market des cas d’usage data
CDI

Offre d'emploi
Chargé des Systèmes d'Information & Data

FED SAS
Publiée le

50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris 11ème, un Chargé des Systèmes d'Information & Data H/F dans le cadre d'un CDI. Rattaché(e) à la Direction Financière, le/la Chargé(e) SI & Data est le référent technique de l'entreprise sur l'ensemble du périmètre informatique. Véritable profil couteau-suisse, il/elle intervient aussi bien sur la gestion de la donnée que sur l'architecture des logiciels métiers, l'infrastructure réseau du siège et la gestion du parc matériel. Il/elle est l'interlocuteur(trice) de confiance des équipes internes pour tout sujet lié aux systèmes d'information. Missions principales Data * Collecter, structurer et fiabiliser les données issues des différents systèmes (ventes, opérations, RH, finance) * Mettre en place et maintenir les outils de reporting et de visualisation de données (dashboards, tableaux de bord) * Accompagner les équipes métiers dans l'exploitation et l'analyse de leurs données * Garantir la qualité, la sécurité et la conformité des données (RGPD) * Participer à la définition et au déploiement de la stratégie data de l'entreprise Logiciels & architecture SI * Administrer et maintenir les logiciels métiers du siège (ERP, CRM, outils de caisse, plateformes SaaS) * Gérer les intégrations entre les différentes applications et assurer la cohérence de l'architecture SI * Piloter les projets de déploiement ou de migration logicielle : cahier des charges, suivi prestataires, recette * Assurer le support de niveau 2/3 auprès des utilisateurs internes * Maintenir la documentation technique et fonctionnelle des systèmes en place Infrastructure réseau * Administrer et superviser l'infrastructure réseau du siège (LAN, Wi-Fi, VPN, pare-feu) * Assurer la disponibilité, la performance et la sécurité des connexions et des accès * Gérer les accès utilisateurs, les droits et les politiques de sécurité informatique * Coordonner les interventions des prestataires télécoms et réseaux * Contribuer à l'extension du réseau IT vers les sites et points de vente du groupe Parc matériel * Gérer le parc informatique : ordinateurs, serveurs, terminaux de caisse, tablettes, périphériques * Assurer les achats, la configuration, le déploiement et le renouvellement du matériel * Mettre en place et suivre l'inventaire du parc et les contrats de maintenance associés * Diagnostiquer les pannes et coordonner les interventions de maintenance ou de remplacement
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Cybersécurité OT - Hardening

RIDCHA DATA
Publiée le
Android
Center for Internet Security (CIS)
Cybersécurité

1 an
Boulogne-Billancourt, Île-de-France
🎯 Contexte Dans le cadre d’un programme international de cybersécurité industrielle, une grande organisation souhaite renforcer la sécurité de ses systèmes d’information industriels (OT/IT). La mission s’inscrit dans une démarche globale de renforcement, standardisation et amélioration continue des politiques de sécurité appliquées aux environnements industriels. 🧩 Périmètre technique Postes industriels IT (environnements OT) Postes industriels OT Équipements mobiles industriels (tablettes, devices) Serveurs MES (Manufacturing Execution System) 🚀 Missions principales Réaliser un audit des politiques de sécurité existantes Identifier les écarts entre les politiques définies et les configurations réelles Conduire des audits de configuration des équipements Analyser les dispositifs de contrôle existants Proposer des solutions d’ automatisation et d’amélioration Définir et formaliser des politiques de sécurité adaptées Participer à une organisation en mode Agile Collaborer avec des équipes internationales et pluridisciplinaires 📦 Livrables attendus Rapport d’état des lieux des politiques de sécurité Analyse des dispositifs de contrôle existants Documentation des politiques de sécurité Analyse de risques Plan de remédiation (mesures correctives) Comptes rendus des réunions
Freelance
CDD
CDI

Offre d'emploi
Testeur Data confirmé

SARIEL
Publiée le
Azure
Databricks
Google Cloud Platform (GCP)

12 mois
40k-53k €
320-420 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne (dans le 92) un testeur Data confirmé (4-10 ans d’expérience). Objectif Global : Testeur confirmé avec compétences Data Analyste Contrainte forte du projet Remplacement d'un prestataire en fin de mission Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks ou GCP ou big Query- Confirmé - Important Environnement azure microsoft - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour notre client. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : - Participer aux ateliers/rituels agiles - Réaliser la stratégie de test - Identifier et réceptionner les environnements de test - Analyser et évaluer les cas d'usage/User Story - Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données - Exécuter les cas de tests - Créer et suivre les défauts avec les différentes parties prenantes - Maintien du référentiel de test - Réaliser le PV de recette - Présentation des sujets en CAB pour passage en production - Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité. Savoir Faire : - Expérience minimum de 4 ans en tant que QA avec des compétences de data analyste - Profil technico fonctionnel - SQL Server - JIRA/XRAY - Environnement Microsoft azure - DataBricks ou GCP ou big Query - Utilisation de l'IA dans les tests (Génie Code) - Outils de reporting Power BI, Microstratégy Savoir Etre : - Collaboratif - Entraide - Force de proposition - Implication/Engagement - Amélioration Continue - Communication fluide - Qualité organisationnelle Définition du profil ORGANISATION ET CONCEPTION DES TESTS Contribue à l'élaboration de la stratégie de tests avec le Test Lead, en lien avec les Chefs de Projets et/ou Responsables d'applications Analyse les exigences utilisateurs et les spécifications fonctionnelles ou techniques fournies par le Responsable d'application Estime les charges DÉROULEMENT ET REALISATION DES TESTS En fonction de la stratégie établie, rédige les plans de tests, identifie les prérequis et spécifie les jeux de données (données de tests, résultats attendus) qu'il fait valider par le CP et/ou Responsable d'Application Réceptionne son environnement de tests et s'assure de sa conformité en termes de versions applicatives Exécute les tests manuellement ou en utilisant des outils d'exécution automatique des tests Consigne les résultats de tests et remonte les anomalies au Chef de Projet et/ou Responsable d'application Met à jour le référentiel de tests Peut coordonner une équipe d'analystes de test en tant que référent SYNTHESE DES TESTS Réalise un bilan des tests effectués Date de démarrage 08/06/2026 Lieu de réalisation CHATILLON (92) Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Freelance

Mission freelance
Senior Data Engineer - Financial

Phaidon London- Glocomms
Publiée le
Apache Airflow
Azure DevOps
CI/CD

6 mois
400-550 €
Paris, France
Concevoir et implémenter des pipelines de données robustes et évolutifs Optimiser les performances et la rentabilité (optimisation des requêtes, clustering, stratégies de stockage) Implémenter des pipelines CI/CD et des frameworks d'observabilité pour améliorer la fiabilité des données Collaborer étroitement avec les architectes et les parties prenantes métiers pour s'aligner sur les objectifs stratégiques Promouvoir les bonnes pratiques en matière de gouvernance, sécurité et conformité des données Encadrer les ingénieurs et contribuer aux bonnes pratiques et aux normes d'ingénierie Assurer le support des environnements de production, résoudre les problèmes et effectuer des analyses de causes profondes Contribuer à l'amélioration continue de la plateforme de données
Freelance

Mission freelance
PRODUCT OWNER

SKILLWISE
Publiée le
Big Data

3 mois
400-550 €
Île-de-France, France
Au sein de la Direction des Technologies, vous intégrez le pôle Produits Publicitaires en tant que Product Owner Offre . Vous intervenez sur un produit stratégique dédié à la gestion des catalogues d’offres, de l’inventaire et du pricing sur des environnements TV et Digital. En collaboration avec un autre Product Owner et des équipes pluridisciplinaires, vous êtes responsable de la vision produit, de la priorisation et du delivery dans un environnement agile. Vos missions principales : Vision & stratégie produit Définir et porter la vision produit Construire et piloter la roadmap Garantir l’alignement avec les enjeux métiers (marketing, revenue management) Gestion du backlog Recueillir et analyser les besoins métiers Rédiger les spécifications fonctionnelles (user stories) Prioriser et maintenir le Product Backlog selon la valeur métier Pilotage du delivery Coordonner les équipes techniques (développement, data, API…) Suivre l’avancement en méthodologie agile Garantir le respect des délais, de la qualité et des coûts Recette & mise en production Organiser et piloter la recette fonctionnelle Valider les livrables Assurer les mises en production RUN & amélioration continue Suivre la performance du produit Gérer les incidents et évolutions Optimiser en continu les fonctionnalités Accompagnement au changement Accompagner les utilisateurs dans l’adoption des outils Assurer la communication produit Faciliter la conduite du changement Responsabilités clés : Ownership du Product Backlog Priorisation basée sur la valeur métier Cohérence du SI avec les autres produits Pilotage de la valeur délivrée Qualité des livrables à chaque sprint
CDD

Offre d'emploi
DATA MANAGER SAP H/F

PROMAN EXPERTISE
Publiée le
SAP

6 mois
40k-45k €
Marignane, Provence-Alpes-Côte d'Azur
Au sein d’une équipe internationale de 15 personnes, vous intervenez dans le cadre d’un projet visant à mettre à jour et optimiser les données des contrats d’achats stratégiques. Votre poste s’articule principalement autour des points suivants : - Gestion de l'activité SAP : o Mise à jour des données Achats selon un processus rigoureux. o Réalisez une analyse critique en amont pour valider ou rejeter les demandes de modification. - Traitement de la Data : Nettoyage, structuration et fiabilisation des bases de données fournisseurs et articles. - Contribution Projets : Participation active aux projets d'amélioration continue liés au Data Management et à l'évolution des systèmes d'information
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance

Mission freelance
Business Analyst Data / MLOps – Plateformes Data Science (H/F)

CELAD
Publiée le

1 an
600-680 €
Paris, France
Contexte de la mission Vous intervenez au sein d’une Squad dédiée à la mise en place et à l’exploitation des outils Data Science et MLOps utilisés par les équipes Data (Data Scientists, Data Engineers) d’un grand groupe bancaire (réseau de 39 entités). Le périmètre couvre : Une plateforme Big Data basée sur Cloudera Des outils open source Data Science : JupyterLab, TensorFlow, librairies Python Un portail de services facilitant l’accès aux ressources Data Des services associés (accès aux données SI, environnements de travail, composants MLOps) Vous êtes un point central entre les utilisateurs métiers Data et les équipes techniques. Missions principales 1. Analyse fonctionnelle & cadrage Recueillir et analyser les besoins des utilisateurs (Data Scientists, Data Engineers) Animer des ateliers de cadrage et de conception Traduire les besoins en spécifications fonctionnelles et user stories Maintenir une documentation claire et exploitable 2. Pilotage de projets Data / MLOps Piloter les projets liés aux plateformes Data et outils IA Coordonner les équipes techniques et les parties prenantes Assurer le suivi des livraisons et des dépendances Contribuer à la roadmap produit avec le Product Owner 3. Gestion du backlog & Agile Rédiger et prioriser les user stories dans Jira Gérer le backlog produit et suivre son avancement Participer aux rituels Agile (daily, sprint planning, reviews) 4. Tests & qualité Concevoir et exécuter les campagnes de tests fonctionnels Rédiger les plans de tests et scénarios de recette (XRAY) Identifier, analyser et suivre les anomalies Garantir la qualité des livraisons 5. Gestion des risques & conformité Analyser les risques métiers liés aux solutions Data Travailler avec les équipes SSI, conformité et juridique Intégrer les contraintes réglementaires : RGPD, gouvernance des données Assurer la conformité des usages Data (sécurité, confidentialité, éthique) 6. Accompagnement des utilisateurs Produire la documentation fonctionnelle et supports de formation Assurer l’assistance fonctionnelle aux utilisateurs (Caisses Régionales) Accompagner les migrations et la conduite du changement 7. Amélioration continue Collecter les feedbacks utilisateurs Analyser les usages et proposer des optimisations Contribuer à l’évolution des plateformes et services Environnement technique Big Data : Cloudera, Hadoop ecosystem Data Science : Python, TensorFlow, JupyterLab Requêtage : SQL / HQL Outils : Jira, XRAY Méthodologie : Agile Contexte : SI bancaire, plateformes Data & MLOps Accès aux données Accès à des données à caractère personnel via plateforme ZEUS (en production) Respect strict des règles de sécurité, confidentialité et conformité
Freelance
CDI
CDD

Offre d'emploi
Architect Puits de logs / Log Management

RIDCHA DATA
Publiée le
Backlog management
Security Information Event Management (SIEM)
SOC (Security Operation Center)

1 an
Île-de-France, France
🚀 Contexte de la mission Dans le cadre du renforcement d’un Security Operations Center (SOC) , nous recherchons un Architecte Data Visibility / Log Management afin d’accompagner la structuration, le déploiement et l’exploitation de la chaîne de collecte des logs de sécurité. 👉 La mission couvre l’ensemble du cycle de vie de la visibilité des données : du cadrage des besoins jusqu’à l’exploitation opérationnelle. 🎯 Objectifs de la mission Renforcer la couverture de détection du SOC Structurer les besoins en log management Déployer une chaîne de collecte robuste et sécurisée Assurer la pérennité et l’évolutivité de la visibilité data 🧩 Vos missions 🔍 Lot 1 : Cadrage & Architecture Exploiter les audits existants et identifier les écarts Définir l’architecture cible de collecte des logs Traduire les besoins en choix techniques et principes d’architecture Rédiger le cahier des charges Participer aux consultations (RFP) Définir une trajectoire d’évolution adaptée ⚙️ Lot 2 : Implémentation Élaborer le plan de déploiement (roadmap, dépendances, tests) Piloter la mise en place de la chaîne de collecte (agents, pipelines, SIEM) Garantir la qualité des logs (format, complétude, horodatage) Conduire les phases de tests et de validation Produire la documentation technique complète Assurer le transfert de compétences aux équipes internes 📦 Livrables attendus Cahier des charges & dossier d’architecture cible Dossier RFP complet Feuille de route de déploiement Plans de tests & comptes rendus de recette Documentation d’exploitation et troubleshooting Support de transfert de compétences 🛠️ Environnement technique SOC / SIEM Log management & data visibility Collecte et traitement des logs (parsing, normalisation, enrichissement) Protocoles de collecte et sécurisation des flux Environnements hybrides (on-premise / cloud) Contraintes de volumétrie, performance et résilience
1426 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous