Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 733 résultats.
Freelance

Mission freelance
Data Engineer

Signe +
Publiée le
Deep Learning
MLOps
Python

6 mois
400-480 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients un Data Engineer. Missions : En tant que Data Engineer, vous serez en charge de : Concevoir, développer et maintenir des data pipelines robustes et scalables en Python Collecter, transformer et valoriser de grands volumes de données Mettre en œuvre des traitements géospatiaux et 3D (GDAL, PDAL ou équivalents) Participer à l’industrialisation des modèles de données dans des environnements MLOps (MLflow, Kubeflow) Orchestrer les workflows data via des outils tels que Argo ou Prefect Déployer et exploiter les solutions dans des environnements Docker / Kubernetes Intervenir sur des plateformes Cloud (AWS, GCP ou Azure) Collaborer étroitement avec les équipes Data Science, DevOps et Métiers Participer aux bonnes pratiques data : qualité, performance, sécurité et observabilité
Freelance
CDI

Offre d'emploi
Business Analyst DATA H/F

Karma Partners
Publiée le
Big Data

6 mois
40k-55k €
400-600 €
Croix, Hauts-de-France
POSTE EN PRE-EMBAUCHE : 6 mois en prestation suivi d'un CDI Vous êtes le point d’entrée des différentes directions métiers France et Pays pour recueillir leurs besoins et les accompagner. Vous comprenez, challengez ces besoins business pour les traduire en besoins datas. Vous êtes en charge de la modélisation des données. Vous travaillez en lien avec des architectes pour décliner les concepts métiers en solution applicative, afin que les équipes IT alimentent le socle data en fonction. Vous vous appuyez sur le data steward pour assurer la mise en qualité des données et la gouvernance du Data Catalog.
CDD

Offre d'emploi
INGENIEUR SUPPORT DATA H/F

PROMAN EXPERTISE
Publiée le
PLM (Product Lifecycle Management)

6 mois
41k-55k €
Marignane, Provence-Alpes-Côte d'Azur
Intégré à une équipe de 8 personnes, votre contribuez à l’amélioration des outils informatiques à disposition des bureaux d’études et notamment Windchill. Dans ce cadre, vos missions sont les suivantes : Comprendre les besoins métiers Coordonner les modifications nécessaires suite aux remontées des équipes techniques (correctifs, bugs, …) Rédaction de la documentation technique associée Maintien des outils / interfaces existants Support technique à l’équipe sur l’activité de contrôle opérationnel de données (documentation, équipements, …) Participation aux phases de conduite du changement. Pour mener à bien cette mission, vous êtes amené(e) à travailler en collaboration avec les équipes projets, bureaux d’études, fonctionnelles.
Freelance

Mission freelance
Product Manager Referentiel et data

Freelance.com
Publiée le
Confluence
Gherkin
JIRA

1 an
580-600 €
Île-de-France, France
Dans le cadre d’un programme stratégique au sein d’un grand acteur du financement et de l’assurance, nous recherchons un Product Manager Data & Référentiel pour intervenir sur un environnement SI métier complexe et transverse . La mission s’inscrit dans un train SAFe dédié aux applications métiers , avec une forte interaction entre plusieurs équipes produits et data. Le Product Manager interviendra sur deux domaines structurants : Référentiel et composants transverses Data / Infocentres Ces équipes couvrent les besoins mutualisés de plusieurs produits métiers et participent à la transformation des plateformes data. Vous serez amené à piloter des initiatives transverses impliquant différentes équipes et trains agiles, notamment autour de projets de modernisation data et d’amélioration continue des solutions. Une attention particulière est portée à l’intégration de l’IA dans les pratiques produits et dans la chaîne de delivery , afin d’améliorer la performance collective des équipes. En tant que Product Manager , vous serez garant de la vision produit et de la valeur délivrée : Définir des solutions désirables, viables et réalisables répondant aux besoins métiers Construire et porter la vision produit et la roadmap Élaborer et maintenir : la Roadmap Solution (vision pluriannuelle) la Roadmap PI (planification des features sur les Program Increment) Identifier et initier les Features et Enablers dans le backlog Gérer la priorisation du backlog produit Collaborer étroitement avec les métiers et les équipes Agile Animer des ateliers de recueil de besoins Traduire les besoins métiers en solutions livrables par les équipes techniques Piloter des projets transverses impliquant plusieurs équipes Contribuer à l’amélioration continue des pratiques produit et data
CDI

Offre d'emploi
Data Analyst

CAT-AMANIA
Publiée le
Business Object
Qlik Sense

40k-61k €
Maisons-Alfort, Île-de-France
Element de contexte et organisation : Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme, piloté par le Chief Data Officer (CDO) et sous sponsoring de la Direction Générale, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le cœur du SI. En parallèle, le chantier de transformation Cloud en cours induit d’importantes adhérences avec les travaux d’industrialisation de la plateforme Data & IA. L'organisation projet est réalisée avec SAFE. Objectif poursuivi pour cette mission : La mission porte sur la réalisation du socle Financement et contentieux dont il s'agira d'assurer un rôle de Data Analyst avec pour objectif de: - spécifier les besoins en terme de données Financement et Contentieux permettant de servir les usages bancaires des filières : -- Crédit Bail équipement, -- Crédit Immobilier, énergie & environnement, -- Court terme, -- Immatériel - modéliser les entités permettant de représenter les données des métiers du Financement et du Contentieux - spécifier les Data Product nécessaire pour couvrir : -- les besoins des filières (Reporting opérationnels, Agents opérationnels, suivi d'activité, reporting conventionnels,...) -- les besoins de l'équipe chargée d'exploiter le socle Financement et Contentieux (Reporting transverses, études de prospection, cross-selling, ...) - définir et contrôler la Qualité des données véhiculées au sein du socle - réaliser les recettes des données collectées Compétences métier souhaitables : Mission(s) réussie(s) dans le domaine Bancaire dans le cadre de reportings de Financement. Bonne connaissance des métiers bancaires (Crédit, crédit bail, court terme, ...) Très bonne connaissance des données bancaires du financement Forte appétence pour la donnée La connaissance de l'écosystème (notamment le Legacy) serait un plus Liste des technologies : Le comptoir de données est réalisé sur le Cloud AWS. Outil de restitution de la donnée : Business Objects, QlikSense Bon niveau en SQL
Freelance

Mission freelance
Data Architect Orion

Nicholson SAS
Publiée le
Architecture
Data analysis
Data governance

9 mois
1 300 €
Paris, France
Vous êtes un architecte de la donnée passionné par la haute précision ? Rejoignez le programme stratégique de mon client pour façonner l'avenir de la Data au sein de cette marque Iconic. Votre Mission Une fois la Data Factory opérationnelle, vous deviendrez le garant de l'intelligence structurelle de nos données. Votre rôle sera central pour : Architecturer le futur : Concevoir et piloter la modélisation au sein d'une architecture Médaillon (Bronze, Silver, Gold). Innover en réseau : Déployer des modèles de données dans un environnement Data Mesh complexe. Standardiser l'excellence : Définir le modèle de données canonique , les spécifications techniques et l'intégrité des relations (clés, tables, jointures). Votre Profil Expertise : +7 ans d'expérience en Data Architecture Orion. Technique : Maîtrise avancée d' Oracle et de la modélisation complexe. Méthodologie : Vous évoluez avec aisance dans des environnements Agile et SaFe . Soft Skills : Esprit de synthèse, rigueur analytique et capacité à traduire des besoins métiers en structures de données performantes. Prêt à relever ce défi au sein d'une société de légende ?
Freelance

Mission freelance
Data Scientist – Forecasting / Snowflake

CHOURAK CONSULTING
Publiée le
Data science
Machine Learning
Python

1 mois
400-500 €
Lille, Hauts-de-France
Nous recherchons un Data Scientist pour intervenir sur une mission autour d’un sujet R&D en prévision des ventes , au sein d’un acteur du secteur retail. L’objectif de la mission est d’améliorer les stocks cibles en magasin grâce à la mise en place d’un modèle de prévision performant. Contexte de la mission Dans un environnement data existant reposant notamment sur Snowflake , vous interviendrez sur la mise en place des bases data et d’un système d’algorithmes de prévision des ventes . La mission se fera en collaboration étroite avec les équipes métiers , avec une approche itérative orientée résultats. Missions principales Mettre en place les prérequis data nécessaires aux travaux de modélisation. Développer un modèle de prévision des ventes . Exploiter et analyser les données disponibles dans Snowflake . Construire et tester des algorithmes de forecasting . Travailler en interaction directe avec les équipes métiers. Adopter une démarche R&D / POC avec itérations rapides .
CDI

Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F

DSI group
Publiée le
Azure Data Factory
Azure DevOps

45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Freelance

Mission freelance
Data Architect (Secteur Luxe)

Nicholson SAS
Publiée le
Azure DevOps
Git
Github

8 mois
1 200 €
Paris, France
Pour le compte de l’un de nos clients basé à Paris, nous recherchons un Data Architect (Secteur de Luxe) afin d’intervenir sur une mission stratégique autour de l’architecture et de la valorisation des données. Missions: Concevoir et mettre en œuvre des solutions de données de bout en bout dans Azure Fabric (Lakehouse, Data Warehouse, modèles sémantiques). Intégration avec Power BI et modèles d'évolutivité. Définir les zones/hiérarchie de données (couches Bronze, Argent, Or). Établir des cadres de gouvernance des données. Modélisation des données et conception de pipelines ETL/ELT. Définir la logique de transformation et les règles métier. Gérez les charges incrémentielles, les dimensions et les contrôles de qualité. Optimisez les performances des requêtes et l’efficacité du stockage. (Outils : SQL, Python (PySpark), Azure Data Factory, Fabric Notebooks, dbt). Expertise en développement Python et SQL : rédigez des scripts Python efficaces (PySpark) pour la transformation des données dans Fabric Notebooks. SQL pour les requêtes complexes, les agrégations et l'optimisation des performances. Développer des bibliothèques de code et des fonctions réutilisables. Gérer la validation de la qualité des données et la gestion des erreurs. Représentation du fata dans la propriété finale du tableau de bord. Gestion du pipeline CI/CD et du contrôle de version GitHub : mettre en œuvre des flux de travail CI/CD pour le déploiement de produits de données. Gestion des référentiels de codes, stratégies de branchement. Suivre les modifications et maintenir des pistes d'audit. Outils : GitHub, Azure DevOps Pipelines, GitHub Actions, Git CLI, règles de protection des branches. Gouvernance des données, sécurité et contrôle d'accès basé sur les rôles (RBAC) : définissez des politiques de gouvernance pour le traçage des données, la gestion des métadonnées et les normes de qualité des données. Implémentez le contrôle d’accès basé sur les rôles (RBAC) pour les espaces de travail et les ensembles de données Fabric. Configurez la sécurité au niveau de l’espace de travail, de l’ensemble de données et des lignes. Établir des schémas de classification des données.Outils : Azure Fabric RBAC, Azure AD/Entra ID, Purview (gouvernance des métadonnées), rôles d'espace de travail Fabric, Power BI RLS (Row-Level Security). Cartographie des données E2E et définition des KPI : Documentez le lignage complet des données depuis les systèmes sources (D365, bases de données héritées) jusqu'aux magasins de données finaux. Créez des documents de cartographie détaillés (champs sources → colonnes cibles). Définissez la logique métier et les règles de transformation à chaque couche. Identifier et définir des KPI alignés avec les objectifs business. Établir la logique de calcul, les seuils et le suivi des KPI. Créez des dictionnaires de données et des glossaires métier. Outils : Confluence (documentation), Visio/Lucidchart (diagrammes de flux de données), Excel (matrices de cartographie), Power BI (tableaux de bord KPI). Documentation du cadre, normes et composants de ressources : établir des normes d'architecture de données et une documentation sur les meilleures pratiques. Conventions de dénomination, structures de dossiers, modèles de conception. Créez des modèles pour les blocs-notes, les scripts SQL et les fichiers de configuration. Définir les règles de qualité des données et les cadres de validation. Documenter les procédures de déploiement, les guides de dépannage et les runbooks. Tenir à jour les enregistrements de décisions d'architecture (ADR). Fournir des guides d'intégration pour les nouveaux membres de l'équipe. Profil : Data Architect Nombre d’années d’expérience : +7 ans Site : Paris ; sur site Prix d’achat max : 1200 euros Date de démarrage : asap Date de fin : 31/12/2026 Compétences techniques requises : Microsoft Azure Microsoft Azure Service Fabric Azure DevOps Pipelines SQL PySpark Git CLI, GitHub Power BI RLS
Freelance

Mission freelance
Expert Data migration SAP

Montreal Associates
Publiée le

15 mois
650-700 €
France
Bonjour, 🚫 𝐏𝐀𝐒 𝐃𝐄 𝐒𝐎𝐔𝐒-𝐓𝐑𝐀𝐈𝐓𝐀𝐍𝐂𝐄!🚫 Je recherche actuellement pour un de mes clients plusieurs profils : 🔔 𝟑 𝐂𝐨𝐧𝐬𝐮𝐥𝐭𝐚𝐧𝐭𝐬 𝐞𝐧 𝐃𝐚𝐭𝐚 𝐌𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑑𝑜𝑛𝑛𝑒́𝑒𝑠 𝐵𝑜𝑛𝑛𝑒 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 𝑆𝐴𝑃, 𝑖𝑑𝑒́𝑎𝑙𝑒𝑚𝑒𝑛𝑡 𝑆4 𝑀𝑎𝑖𝑡𝑟𝑖𝑠𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑒́𝑡ℎ𝑜𝑑𝑜𝑙𝑜𝑔𝑖𝑒 𝐷𝑇𝑀 𝐶𝑎𝑝𝑎𝑐𝑖𝑡𝑒́ 𝑎̀ 𝑡𝑟𝑎𝑑𝑢𝑖𝑟𝑒 𝑙𝑒𝑠 𝑠𝑝𝑒́𝑐𝑖𝑓𝑖𝑐𝑖𝑡𝑒́𝑠 𝑑𝑒𝑠 𝑜𝑏𝑗𝑒𝑡𝑠 𝑒𝑛 𝑢𝑛𝑒 𝑠𝑡𝑟𝑎𝑡𝑒́𝑔𝑖𝑒 𝑒𝑡 𝑢𝑛𝑒 𝑚𝑒́𝑡ℎ𝑜𝑙𝑜𝑔𝑖𝑒 𝑠𝑡𝑟𝑢𝑐𝑡𝑢𝑟𝑒́𝑒𝑠 𝐹𝑜𝑟𝑡 𝑖𝑛𝑡𝑒́𝑟𝑒̂𝑡 𝑝𝑜𝑢𝑟 𝑙𝑒 𝑝𝑎𝑟𝑡𝑎𝑔𝑒 𝑑𝑒𝑠 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒𝑠, 𝑙𝑎 𝑓𝑜𝑟𝑚𝑎𝑡𝑖𝑜𝑛 𝑒𝑡 𝑙𝑎 𝑚𝑖𝑠𝑒 𝑒𝑛 𝑜𝑒𝑢𝑣𝑟𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑒́𝑡ℎ𝑜𝑑𝑜𝑙𝑜𝑔𝑖𝑒 𝐸𝑥𝑐𝑒𝑙𝑙𝑒𝑛𝑡𝑒 𝑎𝑝𝑡𝑖𝑡𝑢𝑑𝑒𝑠 𝑎̀ 𝑎𝑛𝑖𝑚𝑒𝑟 𝑢𝑛𝑒 𝑐𝑜𝑚𝑚𝑢𝑛𝑎𝑢𝑡𝑒́ 🎯 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐏𝐚𝐫𝐭𝐢𝐜𝐢𝐩𝐞𝐫 𝐚̀ 𝐥𝐚 𝐦𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐝𝐞 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬 𝐝𝐞 𝐥𝐚 𝐩𝐫𝐞́𝐩𝐚𝐫𝐚𝐭𝐢𝐨𝐧 𝐚̀ 𝐥'𝐞𝐱𝐞́𝐜𝐮𝐭𝐢𝐨𝐧. -Permettre aux équipes locales de mener à bien la définition de l'approche de migration jusqu'à la validation des données métier. -Piloter le calendrier d'exécutions des objets. -Assurer l'analyse de premier niveau des anomalies - Apporter un soutien aux responsables d'applications en fournissant les informations nécessaires à la propagation des données. - Définir la stratégie de néttoyage des données, les indicateurs (KPI) et le suivi - Garantir la cohérence entre les régions et soutenir l'amélioration continue - Définir et maintenir les modèles de migration, les rapports et tableaux de bord de qualité des données, la base de connaissances. - Arbitrer les écarts par rapport à la méthodologie et gérer l'impact des demandes de dérogation sur leur périmètre. - Former et animer la communauté sur le périmètre des objets. 🔊 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐜𝐨𝐮𝐫𝐚𝐧𝐭 obligatoire 📍𝐈𝐃𝐅 - 3j semaine sur site 🕐 Début mars - 𝟔 𝐦𝐨𝐢𝐬 𝐫𝐞𝐧𝐨𝐮𝐯. 💶 𝐓𝐉𝐌 : 700€ max Montreal Associates is acting as an Employment Business in relation to this vacancy.
CDI

Offre d'emploi
Data Steward / Référent Qualité et Gouvernance des Données

Enterprise Digital Resources Ltd
Publiée le
Data governance
Data Lake
PL/SQL

Paris, France
Data Steward / Référent Qualité et Gouvernance des Données. Rattaché(e) au Responsable équipe Data, vos missions s'articuleront autour des volets suivants : Gouvernance et gestion de la donnée Définir et maintenir les règles de gouvernance de données (standards, nomenclatures, référentiels). Assurer la gestion du data catalog et la documentation des jeux de données. Identifier les propriétaires de données ( data owners ) et coordonner les processus de validation. Qualité des données Mettre en place et suivre les indicateurs de qualité (complétude, exactitude, unicité, fraîcheur…). Gérer et suivre les incidents et anomalies de qualité. Proposer des plans d’amélioration et suivre leur mise en œuvre avec les équipes techniques et métiers. Sécurité et conformité Veiller au respect des règles RGPD, sécurité et conformité interne liées aux données. Participer aux analyses d’impacts (DPIA) et aux audits de conformité. Support et coordination métier Comprendre les besoins métiers et garantir l’adéquation entre les données disponibles et leur usage. Former et accompagner les utilisateurs sur les bonnes pratiques de gestion des données. Servir de point de contact entre l’équipe Data et les équipes métier.
Freelance

Mission freelance
Un Expert Dynatrace sur Nanterre

Almatek
Publiée le
Big Data
Dynatrace
Hadoop

6 mois
Nanterre, Île-de-France
Almatek recherche pour un de ses clients, Un Expert Dynatrace sur Nanterre Profil recherché : Expert Dynatrace Activités : Profil Sénior en capacité de transférer la connaissance, de délivrer rapidement Supervision, Monitoring de kub, openshift, big data , TDP (trunk data platform) qui vise a remplacer distribution Haddop rachetée par Hortonworks Expertise dans la configuration et l'utilisation de l'outil Dynatrace. Localisation : Nanterre Démarrage : 06 avril Durée : 6 mois R Almatek recherche pour un de ses clients, Un Expert Dynatrace sur Nanterre Profil recherché : Expert Dynatrace Activités : Profil Sénior en capacité de transférer la connaissance, de délivrer rapidement Supervision, Monitoring de kub, openshift, big data , TDP (trunk data platform) qui vise a remplacer distribution Haddop rachetée par Hortonworks Expertise dans la configuration et l'utilisation de l'outil Dynatrace. Localisation : Nanterre Démarrage : 06 avril Durée : 6 mois R
CDI
Freelance

Offre d'emploi
Chef.fe de projet Data senior

Atlanse
Publiée le
Agile Scrum
Gestion de projet
Méthode Agile

6 ans
55k-65k €
400-550 €
Paris, France
En tant que Chef.fe de projet Data senior – flux de données, vous pilotez la structuration, l’intégration et la fiabilisation des flux alimentant une base annuaire centrale. Votre rôle Cadrage et structuration des flux data · Piloter les études de cadrage avec les partenaires internes et externes · Formaliser les besoins fonctionnels et les exigences en matière de qualité de données · Challenger les demandes du commanditaire au regard des contraintes techniques et d’architecture · Définir les formats d’échange et standards d’intégration (API, fichiers, JSON…) · Identifier les risques (techniques, organisationnels, partenaires) · Définir la feuille de route projet en cohérence avec les enjeux stratégiques et politiques Organisation et fiabilisation des intégrations · Structurer une base annuaire alimentée par des flux multiples (API, fichiers, imports batch…) · Superviser l’intégration progressive de nouvelles sources et fournisseurs de données · Mettre en place ou cadrer les processus de nettoyage, normalisation et déduplication · Définir les mécanismes d’automatisation et de contrôle des flux · Garantir la qualité, la cohérence et la traçabilité des flux intégrés Pilotage projet et coordination transverse · Coordonner les équipes métiers, techniques et partenaires externes · Arbitrer les priorités, suivre les charges, délais et budgets · Organiser les phases de recette et valider la conformité aux exigences définies · Assurer la gouvernance projet et le reporting auprès des instances décisionnelles · Défendre les contraintes techniques et les positions du client face aux parties prenantes Supervision et cohérence globale · Challenger les choix d’architecture en lien avec les équipes techniques · Veiller à la robustesse et à la performance des flux de données · Superviser les mécanismes d’échanges inter-applicatifs · Assurer la cohérence globale entre l’application centrale et les applications connectées
Freelance

Mission freelance
ACHETEUR Domaine Market Data/

WorldWide People
Publiée le
Pilotage

12 mois
Paris, France
ACHETEUR Domaine Market Data . Acheteur senior spécialisé dans les données de marché, avec une solide expérience auprès des fournisseurs de données financières et une excellente compréhension des cas d'utilisation en salle des marchés. Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Freelance

Mission freelance
Consultant Data gouvernance Collibra (BCBS 239)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Collibra
Data management

9 mois
Île-de-France, France
Contexte : Cadre réglementaire pour les banques : Exigences Bâle 2 renforcée, besoin de données fiables pour piloter les risques et pression sur qualité et traçabilité de données Objectifs : Implémentation de Collibra (choix du siège) comme levier RDARR : La plateforme de gouvernance des données ❖ Glossaire, dictionnaire, référentiels ❖ Rôles et responsabilités (ownership) // Documentation et workflows ❖ Data lineage ❖ Cohérence et transparence des données utilisées Missions Phase Data Owner Assignment : suivant la définition théorique que nous avons donné en interne sur les rôles et Responsabilités, 4 profils : Data Owner, Stewart, Producer et User ❖ Préparer et faire valider la matrice des R&R auprès des Data Owner à partir du scope CONNECT ❖ Faire valider les Rôles et Responsabilités auprès des Data Owner sur les IDP Connect (Local file, Mapping table, RDT, Scoring, Rating …) Phase Alimentation Collibra : ❖ « Ecosystème input CONNECT » Use case de l’implémentation dans Collibra) 1/ Préparer les différents templates (par entités CONNECT) pour Collibra avec les besoins fonctionnels demandés pour Collibra 2/ Identifier les sources de données (avec l’aide de spécifications techniques) 3/ Faire compléter le lineage de data par l’IT 4/ Tester les templates sur K dans l’import Collibra et valider les schémas (Vérifier que le lineage fonctionne correctement avec les données attendues en provenance des systèmes) 5/ Mettre en production les templates 6/ Effectuer et Organiser les correctifs nécessaires en partenariat avec l’IT. 7/ Participer au meetings bi-weekly avec le siège sur l’avancement des travaux – Fournir l’avancement nécessaire dans JIRA et/ou au Data Officer ❖ «Ecosysteme Autres » Selon le siège, « nous » livrons des spreadsheets pour le compte du regulatory reporting. Cadrage encore flou. Cependant l’idée serait d’auditer certains services pouvant « toucher » aux outils du siège (suivant liste pré définie) afin de vérifier que des données sont envoyées au siège et par quel biais. - Prendre les outils recensés par le siège (Check si ces outils génèrent des flux pour les besoins des reportings règlementaires au siège) - Sonder sur les User de ces outils et les flux existants - Organiser la description de ces flux en vue de l’intégration dans Collibra . - Vérifier que le flux soient déclarés en interne dans la cartographie des outils avec architecte IT
Freelance

Mission freelance
Data Analyst Sénior

CAT-AMANIA
Publiée le
Data analysis

3 ans
Lyon, Auvergne-Rhône-Alpes
🎯 Taches principales - activités BI - Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage - Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers - Présenter les résultats aux équipes métiers - Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital - Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue 🎯 Une connaissance fonctionnelle de l’analyse data dans le domaine bancaire pour apporter un regard critique et répondre aux problématiques d’analyse de donnée des métiers 🎯 Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : - Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage - Réaliser les spécifications et recettes du tracking - Collecter et extraire les données nécessaires à l’analyse - Construire des tableaux de bord - Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. - Présenter le rendu aux squads métiers En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : • Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI) • Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées ⚠️ Soft skills indispensables du fait du positionnement Chapitre : Autonome, Adaptable, Bonne communication / Pédagogue, Sait challenger les besoins / Prise de Lead Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : • Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey • Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses.
1733 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous