The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 78 results.
Contractor job
Data Scientist Service Medior
Published on
Data science
Git
Python
12 months
€400-600
Brussels, Brussels-Capital, Belgium
Hybrid
Mission In this mission, you will contribute to the realization of the client's project: 'EMS Digital Evolution'. As the person responsible for migration and quality within the 'Data' stream, you will work within the company teams and in collaboration with our supplier to ensure the smooth migration of various project aspects from the current software version to the new version. You will participate in the different testing phases of the project up to its commissioning. Project “EMS Digital Evolution”: The EMS (Energy Management System) is the most critical system within the company. It includes real-time monitoring and control of the high-voltage grid, management of associated visuals (single-line diagrams), and maintenance of related databases. The project is carried out in collaboration with an external supplier. The goal is to upgrade the current EMS system to a new version and ensure readiness to support the digital future by making EMS data more broadly available. Service description : • Responsible for synchronization between the current EMS version (Network Manager 9.2) and the new version (Network Manager 10) across different project phases • Ensure data integrity in the new version (network, visuals, operator data, etc.) • Collaborate with operational database management teams to test the new user interface for database maintenance. Ensure integrity of software services and their migration • Update quality control scripts used by the operational maintenance team; develop new quality controls aligned with the new software capabilities • Analyze and/or develop supporting tools (in Access, Python, others) for EMS database data entry • Document tests, migration procedures, new operational procedures, and new templates for database maintenance • Ensure knowledge transfer of the new software to users (mainly Front Office database maintenance) • Actively support fellow engineers in writing clean, maintainable, and high-quality code by sharing best practices, conducting code reviews, and fostering a culture of continuous improvement.
Job Vacancy
Data Engineer Senior Scala/Spark (H/F)
Published on
Apache Maven
Apache Spark
Azure
10 days
Saint-Denis, Ile-de-France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Pour le compte de l'un de nos clients grands comptes du secteur transport, ous sommes à la rercherche d'un Profil Data Engineer Senior Scala/Spark (H/F) Client : Secteur d’activité Transport Poste : Architecte technique DSM Expérience : plus de 8 ans Localisation : Saint-Denis Durée : Mission très longue
Job Vacancy
Data Analyst with SQL Server SSIS
Published on
£40k-45k
London, United Kingdom
Data Analyst with SQL Server and SSIS Our Client a bank based in Central London is seeking a highly motivated Data Analyst to play a key role in building and maintaining a robust digital data infrastructure. This position supports data users across the business, ensuring high-quality data extraction, reporting, and analytics capabilities. Working closely with the IT Manager and various business units, you will help strengthen compliance and regulatory risk management through effective management information (MI) reporting and analytical insights. Responsibilities Develop, maintain, and enhance the Branch’s digital data infrastructure to ensure reliability and accessibility. Deliver accurate and timely data extraction, MI analysis, and reporting to support operational, compliance, and regulatory needs. Work collaboratively with IT and business departments to understand data requirements and provide analytical support. Explore, evaluate, and propose new technologies/tools to improve data management, governance, and reporting efficiency. Ensure data integrity and support the implementation of best practices in data governance. Assist in identifying and managing data-related risks, supporting the Branch’s compliance and regulatory frameworks. Must have: Strong analytical skills with experience in data extraction, transformation, and reporting. Proficiency in SQL Server, data visualisation tools (e.g., Power BI, Tableau), and data management technologies. Understanding of data governance, regulatory reporting, and compliance requirements (banking/financial sector experience a plus). Excellent problem-solving skills and attention to detail. Ability to collaborate effectively with cross-functional teams and communicate complex information clearly. Coming from an IT support function is a bonus Data Analysis and Management Maintain and develop SSIS packages Perform ad-hoc data extraction and analytics based on requirements from business Develop data visualisation for business Work with business to enhance the data available to the data warehouse Assist in testing reporting solutions developed by external vendors Support and maintain the generation of internal MI reports Support and advise the business on data related matters and automation possibilities Any other responsibilities / tasks as assigned by the Head of IT from time to time Business Performance Support the department’s operations as and when needed and any other tasks assigned by the business stakeholders. Work with the Managers to ensure the business is in compliant with applicable rules and regulations that falls within the department’s remit. Work with the business to ensure timely submission of relevant department’s reports To adhere and follow all Bank/Group applicable policies and procedures. Data accuracy and ownership duties To ensure all data worked on and or/shared with internal/external clients are accurate. Escalate any data issue to the business promptly and without delays. Ensuring any data sharing requests are discussed with business/DPO so that prior authorisation is given and follows GDPR / department’s SOPs. Regulatory Compliance duties Comply with all applicable individual conduct rules (especially the FCA Conduct Rules, Regulations, Bank policies and procedures and the banking Compliance. Technical/Functional skills - Knowledge in SQL query is essential - Working experience in administration and development with SQL (experience with SQL Server and SQL Server Integration Service is preferred) - Experience in working with data visualisation tools such as Power BI - Experience in working with scripting language such as VBA and Python - Experience in working with Power Automate is a plus - Required understanding of the business and business units Personal skills (Soft Competencies [Core/Leadership]) - Personal integrity and ethics - Good judgement in enabling the provision of sound advice on regulation and practice, proactive management of compliance and regulatory risk You will have at least 3 to 5 years’ relevant experience working in the data field, preferably in an established bank or financial institution. Qualifications (Basic Degree/Diploma) Bachelor's Degree or Professional Qualification in the relevant discipline (Degrees in Statistic, Information Systems, or similar) This is an exciting position within a bank with interesting projects. The salary for this position is in the range £40K- £45K. Please do send your CV to us in Word format along with you salary and availability.
Contractor job
POT8806 - Un Architecte Data sur Massy Palaiseau
Published on
Architecture
6 months
Massy, Ile-de-France
Hybrid
Almatek recherche pour l'un de ses clients Un Architecte Data sur Massy-Palaiseau. Besoin : Au sein d’une équipe pluridisciplinaire client, composée d’un chef de projet à la DPT, de fonctions DSI (architect cloud, digital factory …), d’architectes d’entreprises DSI et métiers, de data managers, l’objectif de la prestation sera : Proposer une architecture de data platform (potentiellement plusieurs) respectant la sensibilité des données Si plusieurs data platforms, celles-ci devront être interopérables et équivalentes en termes de fonctionnalités. Identifier la logique d’organisation des données et préciser les conditions (données entrantes) pour une utilisation finale optimale et au niveau attendu par les opérationnels. Idéalement, étudier la possibilité d’avoir un moyen (interface ? ) unique pour les requêtes de data sets. Proposer une logique projet « built » et le « run » associé, c’est dire l’ensemble du processus Proposer une gouvernance adaptée (qui, comment, accès, outputs, temporalité etc. ) Proposer une stratégie de documentation et une trame. Le client souhaiterait avoir un accompagnement externe d’un data architect confirmé. La proposition devra prendre en compte les éléments suivants : Connaissant le cloud AWS et l’architecture de platform on Premise Connaissance des pratiques d’urbanisation des applications (Fiche d’identité/Fact sheet, Cartographie des flux) Très bonnes compétences SI générales. Capacité à animer des comités de pilotage Capacité à travailler avec autonomie, à solliciter avec discernement les parties prenantes et à animer des échanges. Un savoir-être orienté vers la proactivité, la communication et la capacité à questionner les usages lorsque nécessaire. Anglais (obligatoire – échanges avec l’Inde) Prestation Attendue : Il est attendu du prestataire une assistance : Une architecture détaillée de data platform répondant aux besoins opérationnels et aux contraintes de sensibilité des données Un plan de mise en œuvre de cette architecture (feuille de route détaillant les étapes, la mobilisation des acteurs à solliciter, les relais associés, l’accompagnement au changement, le processus) Une proposition de gouvernance pour l’alimentation et l’utilisation des données. Comptes rendus de réunions et décisions prises lors des instances de gouvernance (Comités de suivi, Ateliers d’arbitrage) Suivi des sollicitations / réponses obtenues KPI d’avancement et de performance L’animation de la campagne sera animée en autonomie avec les sachants et donneront lieu à un suivi d’avancement. Le prestataire veillera à respecter le cadre de mis en œuvre définit par l’encadrement du chantier. Localisation : Massy Palaiseau + TT
Job Vacancy
Architecte Expérimenté (Infra, Cloud, DevOps, Digital ou Data) H/F
Published on
60k-70k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : 03rvj14eas
Contractor job
Ingénieur Cloud (H/F)
Published on
ARM architecture
Azure DevOps
CI/CD
24 months
430-580 €
Ile-de-France, France
Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data. Votre mission principale sera de participer au déploiement des projets data du client. La plate-forme utilisée est le Cloud Microsoft Azure. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Vos missions seront de : -construire des infrastructures Cloud Public (principalement sur Azure) -Industrialiser les architectures cibles et configurer les équipements (CI / CD) -mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures -participer aux phases de validation technique lors des mises en production ou des évolutions -collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation La mission longue prévoit deux jours de télétravail par semaine
Job Vacancy
Developpeur Fullstack JAVA/ANGULAR/GCP h/f
Published on
Apache Kafka
Cloud
Git
3 years
40k-45k €
360-390 €
Annecy, Auvergne-Rhône-Alpes
Hybrid
🚀 Nous renforçons nos équipes en Île-de-France ! Nous recherchons 2 profils seniors passionnés pour travailler sur un projet stratégique pour notre client, avec possibilité de télétravail partiel. 📌 Profils recherchés : 1️⃣ Développeur / / 2️⃣ Développeur / 🎯 Séniorité : Minimum 3 ans d’expérience ⌚ Démarrage : ASAP 📍 Localisation : Île-de-France Compétences communes exigées : 👉Maîtrise d‹e , , et principes 👉Maîtrise des bases de données / NoSQL 👉Expérience sur projets / Event-driven / Streaming data 👉Connaissances sur , Storage, , ou 👉Anglais opérationnel 👉La maîtrise du cloud est impérative 💡 Vous êtes passionné par le développement cloud et les architectures modernes ? Rejoignez-nous et participez à un projet à fort impact ! N'hesitez pas à nous envoyer votre candidature sur 📩
Contractor job
Chef de Projet Data Client Technico-fonctionnel
Published on
Conceptual Data Model (CDM)
Data quality
Digital transformation
3 months
550-600 €
Guyancourt, Ile-de-France
Hybrid
🔍 Nous recherchons Chef de projet Data / PO Data Client capable de piloter des projets Data transverses dans un environnement digital exigeant et multi-métiers. Un vrai CP/PO Data techno-fonctionnel , à l’aise autant sur la compréhension métier que sur les sujets techniques Data : ✅ Piloter des projets Data transverses (Digital / CRM / Customer Data) ✅ Assurer le mapping de données , la qualité , la modélisation et la cohérence globale ✅ Échanger avec toutes les équipes : Produits, Digital, Data, CRM, Web ✅ S’imposer comme référent Data dans les échanges — leadership indispensable ✅ Produire ou challenger du reporting , des KPIs, des modèles de données ✅ Cadrer les besoins, structurer les cas d’usage et garantir l’alignement métier ✅ Contribuer à la transformation Data/Digital (agile + V, contexte hybride, parfois “pompiers”)
Job Vacancy
Workday Digital Product Manager
Published on
Workday
2 years
40k-65k €
400-690 €
Lille, Hauts-de-France
Hybrid
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Digital product manager Workday pour une grande entreprise internationale ! Missions: ✨ Piloter la maintenance et l’évolution de Workday HR Core, en garantissant la priorisation des demandes métiers via un portail dédié et en gérant le backlog des fonctionnalités selon les besoins locaux et globaux. ✨ Coordonner la transition vers HR Core, en dirigeant les intégrations et l’architecture pour assurer une migration fluide et conforme aux exigences opérationnelles. ✨ Assurer le développement et la maintenance continus de la couche ACL (Anti-Corruption Layer). ✨ Garantir la continuité des flux d’intégration entre Workday, les systèmes de paie locaux (PECI) et les solutions tierces telles que SAP SuccessFactors et TrueHR (HR Core local), en supervisant leur bon fonctionnement. ✨ Superviser la migration des données RH vers Workday, en veillant à leur qualité, leur cohérence et leur sécurité, tout en industrialisant les processus d’intégration et d’extraction via des ETL pour de nouveaux déploiements. ✨Maintenir et contrôler les flux de données garantissant leur intégrité et leur disponibilité pour les besoins analytiques. ✨ Superviser les stratégies d’accès — SSO, gestion des rôles et des permissions — afin de garantir la sécurité et la conformité d’accès aux données RH. ✨ Prendre en charge la maintenance opérationnelle de Workday : surveillance des flux, gestion des incidents et déploiement des correctifs pour assurer une disponibilité optimale. ✨ Accompagner les Business Units dans l’adoption des nouvelles fonctionnalités de Workday et la résolution des anomalies, maximisant ainsi la valeur opérationnelle du produit. ✨ Coordonner une équipe internationale de développeurs, intégrateurs, ingénieurs data et experts Workday afin d’assurer la cohérence des évolutions de la plateforme. Démarrage rapide . Durée de la mission : longue. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), tu verras le status sur Turnover en rejeté. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Contractor job
Développeur CRM Salesforce Marketing Cloud
Published on
Data Lake
Salesforce Sales Cloud
1 year
400-550 €
Nantes, Pays de la Loire
Hybrid
Recherche – Développeur CRM Salesforce Marketing Cloud (Nantes | 2 à 3 jours/semaine) Dans le cadre d’une consultation sur le contrat-cadre AST & Digital , nous recherchons un Développeur CRM Salesforce Marketing Cloud (expérimenté ou senior). 📅 Démarrage prévu : 4 décembre 2025 ⏱️ Rythme : mi-temps (2 à 3 jours par semaine) 📍 Présence sur site : lundi, mardi et jeudi 🎯 Missions principales Développer, maintenir et intégrer des solutions Salesforce Marketing Cloud : Emails, Push, Journey Builder, Automations, Datorama. Créer et personnaliser des parcours clients et des contenus dynamiques (HTML, AMPscript, responsive design, gestion de Data Extensions, Interactive Email Form). Implémenter des API et SDK SFMC sur applications mobiles natives, gérer la synchronisation CRM/Datalake et les processus automatisés RGPD . Assurer la gestion opérationnelle , les releases , le monitoring et l’ optimisation des performances (tracking, délivrabilité, réputation IP). Apporter support et conseil aux équipes métiers et digitales, dans un environnement agile et collaboratif.
Contractor job
Ingénieur DevOps Cloud Azure – Confirmé / Expert (Data & BI)
Published on
ARM architecture
Azure
Azure DevOps
6 months
Ile-de-France, France
Description du poste : Intégré au Data Lab de la Direction Digital & Data d'un grand groupe Retail, vous pilotez l'architecture et l'industrialisation des projets BI et Data sur le Cloud Microsoft Azure. Au sein d'une équipe Agile d'une dizaine de personnes, vous assurez la liaison entre les équipes techniques (Dev, Sécurité, Ops) et projets. Vos missions s’articulent autour de trois axes majeurs : Construction et Déploiement : Vous concevez et dimensionnez les infrastructures Cloud Public (Azure). Vous déployez les architectures cibles pour les projets Big Data (DataLake, EventHub, Databricks). Industrialisation (DevOps) : Vous garantissez l'approche "Infrastructure as Code" (IaC) via ARM et YAML. Vous configurez et maintenez les pipelines CI/CD (Azure DevOps, Git) pour automatiser les déploiements. Exploitation et Sécurité : Vous mettez en place la supervision et assurez la haute disponibilité des services. Vous gérez le Maintien en Condition Opérationnelle (MCO), les sauvegardes, les accès et la sécurité, tout en participant aux validations techniques et aux audits.
Job Vacancy
Data Architect - 12 months - Brussels
Published on
Data governance
Data management
Data Warehouse
12 months
Brussels, Brussels-Capital, Belgium
Data Architect - 12 months - Brussels Our important client is currently looking for a Data Architect for a 12-month contract based in Brussels. Hybrid with 2 to 3 days onsite mandatory. Please find the description below: This role involves designing and maintaining the enterprise architecture framework, guiding digital transformation, and overseeing enterprise data architecture to ensure data is treated as a strategic asset. Key Responsibilities Enterprise strategy Participate in strategic discussions on company level. Have a clear overview of business units, their functions and processes. Impact estimation of possible strategic decisions on the organisation, processes and technology Architecture Strategy & Governance Define and maintain enterprise architecture principles, standards, and roadmaps. Ensure architectural alignment with business objectives and regulatory requirements. Design and maintain the overall application landscape and the mapping of these applications with their business functionalities Ensure there is a design of an integration framework through which data flows between these applications Solution Design & Integration Design scalable, secure, and cost-effective solutions in collaboration with business and IT stakeholders. Oversee integration of systems across business units and platforms. Evaluate emerging technologies and recommend adoption strategies. Enterprise Data Architecture Define and maintain the enterprise data architecture roadmap aligned with business and IT strategies. Establish data standards, principles, and best practices for modeling, integration, mastar data management and governance. Integration & Interoperability Design data integration patterns (ETL/ELT, APIs, Service bus, streaming) for on-premises and cloud environments. Enable interoperability between transactional- and operational systems but also analytics systems (data warehouse, data lake,...) Lifecycle Management Manage the lifecycle of applications, platforms, and infrastructure. Define modernization and cloud migration strategies. Stakeholder Engagement Translate business needs into architectural requirements and technical solutions. Communicate architectural decisions and their impact clearly to non-technical stakeholders. Governance & Compliance Identify architectural risks and propose mitigation strategies. Ensure compliance with data protection, cybersecurity, and industry standards. Required Skills & Qualifications Education: Master’s in Computer Science, Information Systems, or related field. Experience: 10+ years in data architecture, data engineering, or enterprise architecture roles. Technical Expertise Strong knowledge of relational and NoSQL databases, data modeling, and data integration, Experience with Azure and Microsoft related data technologies (Azure synapse, data lake storage, Fabric), Experience with integration technologies in Azure like Logic apps, Azure functions,... Soft Skills: Excellent communication and stakeholder management. Strategic thinking with hands-on problem-solving ability. Ability to integrate into an organisation and identify skills and characters in order to outline governance models. If you are interested please send me your CV and I will contact you as soon as possible with further details.
Contractor job
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Published on
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 month
750 €
Paris, France
Hybrid
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Contractor job
Ingénieur DevOps Cloud Azure & Data - Confirmé 5 ans xp
Published on
Azure
Cloud
Databricks
1 year
Ile-de-France, France
Hybrid
Description du contexte Au sein de la Direction Digital et Data, le consultant intégrera le Data Lab , en charge de l’ensemble des projets BI et Data du groupement. La plateforme cible est le Cloud Microsoft Azure . Dans le cadre des projets de transformation, l’Ingénieur DevOps participera au déploiement et à l’industrialisation des solutions data. Polyvalent et à l’aise dans la communication avec les équipes techniques, il devra également contribuer aux sujets de sécurité, aux ateliers, et au suivi des recommandations issues des audits. L’environnement est Agile , et l’équipe composée d’une dizaine de collaborateurs. Missions principales Construire des infrastructures Cloud Public (principalement Azure) Industrialiser les architectures cibles & configurer les équipements (CI/CD) Mettre en place outils & procédures de supervision garantissant la haute disponibilité Participer aux phases de validation technique (mise en production & évolutions) Collaborer étroitement avec les équipes Développement, Sécurité et Projets
Contractor job
Business Data Analyst
Published on
90 months
BS1 2BD, Bristol, England, United Kingdom
Role: Business Analyst Rate: inside IR35 Location: Bristol or London 3 days per week Duration: 6 months * Data governance and compliance - ability to interpret GDPR, UK Data Protection Act, and contractual data-handling obligations; practical experience preparing and maintaining ROPA, DPIA, and lawful-basis assessments. * Data mapping and lineage documentation - proficiency in identifying and visualising data flows across complex systems, recognising interfaces, transformations, and data dependencies. * Business analysis (data focus) - ability to translate business and regulatory requirements into structured artefacts and traceable documentation, ensuring compliance is evidenced through auditable deliverables. * Stakeholder management - experienced in working across Legal, Digital, Architecture, and external Authority teams to align data-handling practices and achieve timely approval of deliverables. * Risk and issue management - capable of identifying compliance gaps, defining mitigations, and escalating appropriately through governance forums. * Process improvement - able to recommend and embed sustainable data-handling processes and control mechanisms for future operations. * Communication and assurance - confident in drafting reports and presenting compliance progress to senior leadership and Authority representatives. Experience you would be expected to have MANDATORY * Must be comfortable working in often high levels of uncertainty on a fast moving programme. * Clear evidence of experience as a business analysist supporting successful data governance initiatives, preferably in the telecomms sector. PREFERRED * Experience of working on complex government led programmes an advantage. Please send latest CV LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
Job Vacancy
Business Analyst Data & Géodonnées H/F
Published on
API
Data analysis
1 year
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Hybrid
La mission s’inscrit dans le cadre de la construction d’un GeoDataHub , une plateforme visant à collecter, centraliser et diffuser des données géographiques externes (open data ou données payantes). L’objectif est de rendre ces données accessibles aux différentes équipes métiers (climat, BtoB, digital, data, etc.) afin de : Modéliser les risques climatiques Optimiser les leviers de tarification et de souscription Développer des dispositifs de prévention et d’alerte Appuyer la gestion de crise en cas d’événements climatiques majeurs Objectifs du GeoDataHub Le projet vise à construire et enrichir plusieurs référentiels géographiques : Connaissance du territoire Climat / météo Caractérisation des bâtiments d’une adresse donnée (MVP prévu pour T4 2025) Caractérisation de l’aléa climatique (scores géoclimatiques – planifié pour 2026) Missions principales S’approprier les parcours métiers et décrire les parcours utilisateurs en lien avec les équipes métier et design. Assurer le lien entre les acteurs métier et techniques (développeurs, testeurs, data engineers). Analyser les anomalies et identifier les causes (outils, parcours, données). Évaluer l’impact métier des solutions livrées (durée de traitement, performance, usage). Concevoir des solutions fonctionnelles cohérentes et alignées sur les besoins exprimés. Rédiger les expressions de besoin et challenger les demandes métiers. Rédiger et découper les User Stories (HU), définir les critères d’acceptation et les spécifications fonctionnelles détaillées (SFD IHM / SFD API). Contribuer à la priorisation du backlog et signaler les alertes ou points de blocage. Livrables attendus Expression de besoin (sous forme d’User Stories) Spécifications fonctionnelles (API, ingestion de données, solutions) Études d’impacts Spécifications de tests & PV de validation Compte-rendus d’activités hebdomadaires Documentation technique en Markdown Compétences techniques et fonctionnelles Rédaction de spécifications d’API et de flux d’ingestion de données Analyse d’anomalies et recettes fonctionnelles Maîtrise des outils : GDR, GAP, VSI Automatisation de tests API Support aux développeurs Bonne compréhension des processus de tarification/souscription (produits IARD ou habitation) Intérêt pour la donnée géographique et climatique Environnement et collaboration Mission réalisée en interaction avec : Les équipes métiers (tarification, souscription, prévention), Les équipes techniques (développement, data, API), Des experts climat et data (modélisation, visualisation).
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- Graphic Design Skills Build a graphic design career
- What are the main phases of Game Development?
- most effective way to design responsive web pages ?
- How do you choose a good app development agency
- Best Crypt>ocurrency Recovery Company: (Autopsy,Mainnet,Recovery) – The Most Legitimate Crypt>o Recovery Service
- BEST CERTIFIED COMPANY IN RECOVERING CRYPT>O (AUTOPSY,MAINNET,RECOVERY)
Jobs by city
Jobs by country
78 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k