Find your next tech and IT Job or contract Data governance
Your search returns 50 results.
Contractor job
Expert MlOps Data IA / LLM(Secteur Bancaire)
Published on
AI
API Platform
Azure Data Factory
12 months
550-600 €
Paris, France
Le Lab Data connaît une forte accélération et un passage à l’échelle. Les équipes construisent et opèrent un Data Mesh , un Datalake , ainsi qu’une plateforme complète permettant de rendre accessibles les données, les analytics et les produits IA. Le périmètre inclut : Conception du magasin Workspace pour accès aux données Connectivité avancée du Data Lab Mise en production de nombreux agents et modèles (≈60) Montée en puissance sur l’ observabilité , le Go-to-Market , l’orchestration, et l’optimisation de la vitesse de livraison L’objectif : accélérer , scaler , et professionnaliser la chaîne de valeur Data & IA pour soutenir une croissance forte du nombre d’utilisateurs. Mission principale Rejoindre le Lab Data pour : Accélérer l’évolution du Data Mesh et du Datalake Renforcer l’observabilité, la qualité, et la fiabilité des pipelines Structurer et opérer la plateforme agentique (LLM, agents, graph, orchestration) Améliorer la vitesse et la maturité en production (MLOps & LLMOps) Accompagner l’onboarding rapide des nouveaux utilisateurs et experts Contribuer au Go-to-Market et à la montée en maturité du produit Participer au développement interne des outils d’automatisation et d’orchestration Responsabilités clésData Engineering & Analytics Développer et opérer des pipelines Spark / SQL performants Contribuer au Data Mesh, Datalake, et aux connecteurs Workspace Gestion de la consommation via API, Spark, Elastic Search Déploiement et optimisation Power BI & DataViz avancée Participer à la construction du catalogue de données / agents Orchestration & Infrastructure Concevoir et opérer les workflows sur Kubernetes Infrastructure as Code (Terraform – un plus) Observabilité appliquée au Data & IA (logs, metrics, traces) Contribution à la refonte de n8n interne Gestion DAG & orchestrateurs internes / agentiques ML Ops & LLM Ops Gestion du cycle de vie ML & LLM Mise en production d’agents LLM (60+ agents en prod) Context engineering : gestion dynamique du contexte partagé, hiérarchie, rationalisation Deep Search, Knowledge Graph, Neo Forging Monitoring, optimisation et sécurité des modèles Plateforme agentique : supervision, versioning, fiabilité Développement Applicatif API robustes (Python / FastAPI) Application front (React – un plus, avec sensibilité design) Automatisation et intégration dans la plateforme
Contractor job
Expert IA / CP Cybersécurité (Sénior)
Published on
AI
Cybersecurity
Data governance
12 months
550-650 €
Ile-de-France, France
Hybrid
Contexte du poste Dans un contexte d’accélération des usages de l’IA et d’exigences croissantes en cybersécurité et conformité réglementaire (NIS2, RGPD, AI Act, bonnes pratiques ISO/IEC 42001, 27001/27005…), l’organisation souhaite structurer et formaliser sa politique de cybersécurité appliquée à l’IA. Le Chef de projet IA / Cybersécurité jouera un rôle clé dans la définition du cadre, sa mise en œuvre opérationnelle, et l’accompagnement des équipes techniques et métiers. Missions principales 1. Élaboration de la politique de cybersécurité appliquée à l’IA Construire une politique cybersécurité dédiée aux projets IA (purs ou intégrant des briques IA). Définir les exigences de sécurité adaptées aux différents types d’IA (ML, LLM, modèles embarqués, services cloud, etc.). Intégrer les enjeux liés aux données (qualité, confidentialité, gouvernance, gestion des jeux d’entraînement). 2. Définition du processus de prise en compte de la cybersécurité dans le cycle de vie des projets IA Conception d’un processus de sécurité couvrant tout le cycle : idéation, cadrage, conception, entraînement, validation, déploiement, exploitation. Coordination avec les métiers, les équipes d’ingénierie, les architectes, le juridique, la data gouvernance et le RSSI. Intégration du processus dans la gouvernance projet et dans les instances existantes. 3. Rédaction du livrable de référence : “Politique de prise en compte de la cybersécurité dans les projets et produits IA” Le livrable inclura notamment : L’organisation cible et les rôles/responsabilités (Métiers, Data, RSSI, Architectes, Juridique, Achats…). Les jalons de validation et exigences à contrôler à chaque étape. Les points de contrôle cyber spécifiques aux projets IA (robustesse des modèles, attaques adversariales, données sensibles, dérives de modèle, dépendances cloud…). Les grilles d’évaluation et matrices de risques cyber appliquées à l’IA (risques modèles, risques données, risques d’exploitation). Les clauses contractuelles types pour appels d’offres et contrats incluant de l’IA : obligations de sécurité, exigences de gestion et protection des données, auditabilité et monitoring, obligations de conformité (AI Act, RGPD…), obligations en matière de gestion de vulnérabilités IA. 4. Préparation de la phase opérationnelle Préparer le passage de la politique à l’opérationnel. Former et sensibiliser les équipes (ingénierie, métiers, achats, juridique). Participer à la structuration du dispositif opérationnel et soutenir l’Expert IA / Cybersécurité. Contribuer à la mise en place des outils de suivi, audit, monitoring sécurité des modèles.
Contractor job
Data Architecte (Secteur Energie / Industrie)
Published on
Apache Airflow
Apache Spark
Architecture
12 months
690-780 €
Rennes, Brittany
Hybrid
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Contractor job
Master Data
Published on
Data quality
6 months
Rennes, Brittany
Hybrid
🚀Mission Freelance – Responsable Master Data / Data Governance 🚀 📅 Durée : 6 mois 🌍 Localisation : Bretagne ( 3x/semaine : frais de déplacements + logement pris en charge 🚀Démarrage ASAP -> Entretiens Vendredi Je recherche un profil pour piloter un projet Master Data & Data Governance au sein d’un groupe industriel en pleine transformation digitale (ERP Dynamics 365). Contexte : Projet de structuration et migration des données. Données complexes liées aux produits et machines de production. Pas de process existants : rôle clé dans la définition et la formalisation des process. Missions : Cartographier et valider les données ERP (clients, fournisseurs, produits). Assurer la qualité, la cohérence et la gouvernance des données. Accompagner les métiers et la DSI dans la structuration et la migration des données. Préparer et suivre les tests unitaires, UAT et Go Live. Profil recherché : Expérience en Master Data Management, data governance, migration et nettoyage de données. Rigueur, esprit de synthèse et capacité à interviewer les métiers pour capter les besoins réels. Autonomie et aptitude à piloter un projet transverse dans un environnement multi-outils. Je vous laisse m'envoyer un DM !
Contractor job
Directeur de programme DATA/ Product Manager - Montpellier
Published on
Backlog management
Cloudera
Data governance
12 months
550-670 €
Montpellier, Occitania
Hybrid
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Démarrage : ASAP Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Job Vacancy
Chief Data Officer - DfE - SCS2
Published on
microsoft
£155k
England, United Kingdom
Hybrid
The key responsibilities of the role are: Strategic data planning: Leading strategic data transformation across the education and care sectors, ensuring that our data strategy supports effective public service delivery including the departmental mission of Opportunity for all, and ensuring alignment with government-wide data standards. Enterprise Data Leadership and AI: Provide strategic oversight of the Department’s data architecture to ensure it is robust, secure, interoperable, and scalable ensuring the Department’s data architecture supports its strategy, innovation, data-sharing and AI objectives. Data Governance Leadership: Drive excellent data governance, ensuring an appropriate level of risk tolerance. Ensure compliance with relevant data protection, privacy, security, and transparency regulations such as GDPR. Data Risk Management: Create an environment where risk standards, policies and processes are valued, enabling data to be used and shared while protected. Data Innovation: work with Ministers and policy and delivery officials to identify and implement innovations in how data can support policymaking and drive delivery of outcomes for children and adult learners, and represent the Department in cross-government data initiatives and collaborate with other departments to share best practices and drive consistency. Data Capability Building: Ensure the Department has the specialist data skills it needs and champion a culture of data literacy and evidence-based decision-making across the Department.
Contractor job
Directeur de Programme Data / IA
Published on
Cloudera
Data analysis
Data governance
12 months
520-660 €
Montpellier, Occitania
Hybrid
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Product Lead / Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Job Vacancy
Data operations analyst
Published on
1 month
SW1A 2AH, London, England, United Kingdom
. Overall Purpose of Role Responsible for ensuring the accuracy, integrity, and availability of asset-related data across the organisation. Supports asset lifecycle management, compliance, and operational reporting to enable effective decision-making and adherence to regulatory and audit requirements. Key Accountabilities Maintain accurate and consistent asset records across systems. Implement and monitor data governance frameworks for IT assets. Analyse asset utilisation, lifecycle trends, and inventory data. Produce regular reports on asset performance, compliance, and cost optimisation. Support forecasting for asset procurement, refresh, and disposal. Assist in managing asset-related incidents and changes. Ensure asset management processes comply with internal and external standards. Provide documentation and evidence for audits and regulatory checks. Skills & Experience Strong analytical and problem-solving skills. Proficiency in SQL, Excel, and asset management tools (e.g., ServiceNow, SCCM). Understanding of IT asset lifecycle and configuration management. Familiarity with data governance and compliance standards. Excellent communication and stakeholder engagement skills. Please click to find out more about our Key Information Documents. Please note that the documents provided contain generic information. If we are successful in finding you an assignment, you will receive a Key Information Document which will be specific to the vendor set-up you have chosen and your placement. To find out more about Computer Futures please visit Computer Futures, a trading division of SThree Partnership LLP is acting as an Employment Business in relation to this vacancy | Registered office | 8 Bishopsgate, London, EC2N 4BQ, United Kingdom | Partnership Number | OC387148 England and Wales
Contractor job
Développeur Python AWS - Data & Gen AI ( Databricks)
Published on
Agile Method
AI
Amazon DynamoDB
12 months
550-680 €
Paris, France
Hybrid
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Contractor job
Architecte Entreprise SI (Secteur Energie / Industrie)
Published on
Amazon S3
Apache Kafka
API
12 months
700-810 €
Paris, France
Hybrid
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. 🧱 Missions principales1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats
Job Vacancy
IT Director
Published on
London, United Kingdom
IT Director Our Client is an established bank with offices in the City London. Position Summary: We are seeking a seasoned IT Director with extensive experience in software and application development within the investment and private banking sectors. The ideal candidate will have a proven track record of managing IT transformation projects, delivering solutions across multiple customer channels, and leading both software development and infrastructure technology teams. This role will report to the Board at the bank and involve collaborating with various stakeholders across the business, including HR, Finance, Treasury, Risk and Compliance, Data Governance, and Business Transformation. The Director of IT will be responsible for overseeing the day-to-day operations of the IT department, managing IT projects, implementing and maintaining network security measures, and developing IT strategies. Key Responsibilities: Oversee and manage the IT department, encompassing both software application development and infrastructure technology teams. Lead and execute software and application development projects from inception to deployment, ensuring high-quality and timely delivery. Drive IT transformation initiatives within the banking environment to enhance operational efficiency and customer satisfaction. Deliver IT solutions across multiple customer channels, including online banking, mobile apps, and in-branch systems. Develop and implement IT policies, procedures, and best practices. Collaborate with senior management and stakeholders, including HR, Finance, Treasury, Risk and Compliance, Data Governance, and Business Transformation, to identify IT needs and develop strategies to address them. Ensure compliance with industry regulations and standards. Manage IT budgets, resources, and vendor relationships. Report to the Board, on IT strategy, progress, and performance. Foster a culture of innovation and continuous improvement within the IT department. IT Management and Information Technology skills Experience in IT Operations and IT Strategy Knowledge of Network Security Strong leadership and project management abilities Excellent problem-solving and decision-making skills Qualifications: Bachelor’s or Master’s degree in Computer Science, Information Technology, or a related field. Minimum of 10 years of experience in IT management, with a strong background in software and application development. Extensive experience in leading IT transformation projects within investment and private banking environments. Proven success in delivering IT solutions across multiple customer channels. Strong understanding of banking operations, regulations, and compliance requirements. Demonstrated ability to manage both software development and infrastructure technology teams. Excellent leadership, communication, and project management skills. Ability to work effectively with various stakeholders, including HR, Finance, Treasury, Risk and Compliance, Data Governance, and Business Transformation. Strategic thinker with the ability to execute methodically. Experience with emerging technologies and digital banking trends. Preferred Skills: Experience with Agile and DevOps methodologies. Knowledge of cybersecurity best practices in the banking sector. Familiarity with cloud computing and data analytics. This is a hybrid position with at least 3 days in the office in London. The salary will be in the range £140K - £175K + Benefits. Do send your CV to us in Word format along with your salary and notice period, do include why you think you would be the right person for this position.
Contractor job
Product Owner Technique – Data Platform
Published on
Agile Scrum
AWS Cloud
AWS Glue
12 months
400-510 €
Paris, France
Hybrid
Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.
Contractor job
Data Analyst
Published on
6 months
£300-320
Stony Stratford, England, United Kingdom
Hybrid
Our client is looking for a Data Analyst to join their team on a 12 month initial contract, working 2 days a week onsite in Milton Keynes. This role would be working via an umbrella company. Job Description * Skilled in data analysis & understanding of systems, platforms and integration patterns * Good working knowledge of databases, data warehousing (star schema, extended star schema), big data platforms, ETL, Data Governance, BI & Analytics * Interpret data field specifications including definitions, data types, and data quality (DQ) rules. * Perform initial sizing and impact assessments for each data field * Lead workshops with business stakeholders to gather data logic and understand system dependencies. * Coordinate with data owners, business users, and compliance to define accurate business logic. * Prepare comprehensive Developer Forms, including pseudo-code, table/field names, and mapping logic. * Support development and testing teams during implementation with clarifications and updated logic as required. * Collaborate with the DQM development team to track, investigate, and resolve data defects. * Prior experience in a regulatory reporting or data-heavy Data Analyst role (ideally within financial services) * Strong understanding of data lineage, data quality principles, and reporting frameworks * Proficient in SQL and JIRA; experience with Confluence, SharePoint, or similar tools is a plus * Exceptional communication skills * Ability to work independently and manage multiple projects simultaneously * Experience coordinating across business, data governance, and technical teams LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
Contractor job
Data Steward Lyon H/F
Published on
Data quality
Database
6 months
400-500 €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Nous recherchons un Data Steward pour une mission de 6/12 mois afin de garantir la qualité, la cohérence et la gouvernance des données d'une société en pleine migration de son SI. L'objectif est d'amorcer un gros chantier d'alimentation/ documentation de données métiers afin de sensibiliser les collaborateurs. Au sein d'une équipe de 6 personnes, vous aurez pour missions principales d'assurer: la qualité des données : mettre en place et suivre les règles de contrôle (DQM, définition de principes, règles, contrôle qualité). la gouvernance : appliquer les standards définis par la Data Governance (data catalogue, glossaire métier, référentiels, dashboard, alerting). la documentation : enrichir et maintenir le dictionnaire de données, les métadonnées et les règles de gestion. le support aux métiers : accompagner les équipes dans l’usage et la compréhension des données. la collaboration IT/Business : assurer le lien entre les équipes techniques et les métiers pour garantir la pertinence des données. En somme, vous formalisez le cycle de vie de la data et harmonisez/structurez les process de documentations.
Contractor job
Product Owner Data Expert
Published on
Agile Scrum
Architecture
Azure Data Factory
12 months
600-630 €
Ile-de-France, France
Hybrid
Contexte de la mission La mission s’inscrit dans un programme de refonte des traitements de données Ventes et Client, visant à fiabiliser et valoriser les données au service des métiers. L’objectif est de transformer les jeux de données existants en Data Products clairs, robustes et pérennes, tout en optimisant la valeur de l’ensemble décisionnel actuel. L’environnement est hybride , combinant : des composants legacy à maintenir et fiabiliser, essentiels au pilotage opérationnel, et des chantiers de refonte et de modernisation menés dans une logique produit et Data Mesh . La mission s’inscrit dans un contexte de modernisation de la stack data (architecture Lakehouse) et de montée en maturité des pratiques Produit au sein des équipes Data. Missions principales Le prestataire assurera le rôle de Product Owner Data , en pilotant une équipe pluridisciplinaire (Produit, Tech, Data). Ses responsabilités incluront : Conduire la refonte et la valorisation des données Ventes , du cadrage des besoins métiers jusqu’à la livraison des Data Products. Piloter la roadmap produit data dans une logique Data Mesh : gouvernance, qualité, exploitabilité. Maintenir l’existant (legacy) en garantissant la continuité de service et la fiabilité des indicateurs clés. Collaborer étroitement avec le Product Manager et les autres PO Data pour aligner la vision et assurer la cohérence transverse. Animer les échanges métiers autour de la valeur d’usage, des indicateurs de succès et de la qualité des livrables. Contribuer activement à la communauté Produit & Data , en partageant les bonnes pratiques et en favorisant la montée en maturité collective. Livrables attendus Roadmap produit claire et priorisée (vision, jalons, backlog). Cadrages et spécifications fonctionnelles des Data Products (règles de gestion, contrats d’interface, indicateurs de succès). Plan de maintien et d’amélioration continue du legacy (cartographie, fiabilisation, suivi qualité, documentation). Pilotage agile et reporting régulier sur l’avancement et les risques. Documentation consolidée (catalogue, dictionnaire de données, fiches produit, gouvernance).
Contractor job
Architecte / Expert MongoDB Atlas sur Azure
Published on
.NET CORE
Apache Kafka
ARM architecture
6 months
530-620 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
50 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k