Find your next tech and IT Job or contract Data integrity

Your search returns 15 results.
Contractor

Contractor job
Data Integration Specialist H/F

Published on
Apache Kafka
API REST
Apigee

6 months
500-550 €
Paris, France
Hybrid
Nous recherchons un Data Integration Specialist pour rejoindre un grand groupe international du secteur Luxe & Cosmétique dans le cadre d’une mission stratégique visant à moderniser et optimiser ses flux d’intégration de données. Le consultant interviendra au sein d’équipes IT et métier exigeantes, dans un environnement fortement orienté qualité, performance et continuité de service. Localisation : Aulnay-sous-Bois Télétravail : 2 à 3 jours par semaine Démarrage : Janvier 2026 Durée : 6 mois renouvelables Description du poste Le Data Integration Specialist sera en charge de concevoir, développer et maintenir les flux d’intégration entre les différentes applications du groupe (SAP, Salesforce, plateformes internes, outils Data, etc.), en environnement temps réel et batch. Les principales responsabilités incluent : Concevoir, implémenter et optimiser des flux d’intégration basés sur APIs, événements et web services. Comprendre et analyser les besoins des équipes métier, puis les traduire en solutions techniques robustes. Développer et maintenir les modèles de données, mappings, schémas d’intégration et documentation associée. Superviser et exécuter les tests fonctionnels, techniques, de performance et de charge. Assurer le support de niveau avancé sur les flux existants, diagnostiquer les incidents et garantir leur résolution. Participer à l’amélioration continue des standards techniques, des pratiques d’intégration et des outils.
Contractor

Contractor job
Développeur Oracle Data Integrator (ODI)

Published on
ODI Oracle Data Integrator

24 months
300-430 €
Brest, Brittany
Hybrid
Au sein d’une équipe couvrant tous les métiers de notre client (commerce, gestion, marketing, finance, risque, etc. ), nous recherchons à renforcer notre équipe par l’intégration d’un nouveau Consultant ODI. En tant que consultant maitrisant parfaitement Oracle Data Integrator, vos tâches consistent à : - Analyse des besoins fonctionnels, cadrage technique, études - Préparation les plans d’actions techniques : architecture, documentation, charge, dépendances, délais, bonnes pratiques... - Accompagner les développeurs BI dans la réalisation de leur projet - Revue des solutions techniques - Apporter votre expertise technique lors des phases de préparation, de conception et de priorisation - Participation à tous les rituels agile de votre Feature Team - Réalisation des développements ETL sous Oracle Data Integrator - Suivi et la sécurisation des traitements de production - Amélioration de l’existant, gestion des tickets
Contractor

Contractor job
Consultant Oracle ODI

Published on
ODI Oracle Data Integrator

6 months
100-500 €
Lille, Hauts-de-France
Hybrid
Nous recherchons un Consultant Oracle ODI expérimenté pour rejoindre notre équipe basée à Lille et accompagner nos clients dans leurs projets d’intégration de données à forte valeur ajoutée. Participer à la conception, au développement et à l’optimisation des flux d’intégration sous Oracle Data Integrator (ODI) Analyser les besoins métiers et proposer des solutions techniques robustes Assurer la maintenance évolutive et corrective des traitements existants Contribuer aux phases de test, de déploiement et de documentation Collaborer avec les équipes BI, Data et les partenaires métiers
Contractor

Contractor job
Expert Talend / Talend Data Integration Specialist

Published on
ETL (Extract-transform-load)
Talend

12 months
Paris, France
Hybrid
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Contractor

Contractor job
Développeur ETL (SEMARCHY)

Published on
Azure
ODI Oracle Data Integrator
Semarchy

24 months
100-400 €
Orléans, Centre-Val de Loire
Le client souhaite accélérer la modernisation de sa plateforme décisionnelle pour répondre aux enjeux métiers, réglementaires et technologiques. Pour se faire, Le client a inscrit à sa roadmap 2026 / 2027, différents chantiers permettant de répondre à ces ambitions. D’une part, par la mise en œuvre d’un programme data innovant portant les aspects suivants : Renfort de la qualité de la donnée Mise en place d’une gouvernance de la donnée sur les indicateurs métiers stratégiques Migration des traitements ELT existants vers une solution technologique plus adaptée Refonte du modèle de données du Data Warehouse Et d’autre part, par le maintien en condition opérationnel du système d’information décisionnel existant portant les aspects suivants Analyse et la correction des incidents de production Développement de sujets relatifs à l’évolution de la réglementation
Contractor

Contractor job
Consultant·e Data Integration – Talend / Stambia

Published on
Stambia
Talend

6 months
400-490 €
Hauts-de-Seine, France
Hybrid
Nous recherchons un·e Consultant·e Data Integration expérimenté·e , intervenant sur des projets de migration et de décommissionnement d’outils d’intégration de données . Le contexte est stimulant, avec un environnement technique riche et une équipe orientée delivery. Missions principales Assurer la maintenance évolutive et corrective des flux existants sous Stambia et Talend . Participer à la migration et au décommissionnement progressif de l’environnement Stambia vers Talend. Concevoir, développer et optimiser des processus d’intégration de données . Contribuer à la qualité, la performance et la sécurité des flux . Rédiger la documentation technique et assurer la traçabilité des développements. Collaborer avec les équipes projet, production et architecture.
Contractor

Contractor job
Cyber Recovery and Data Integration Specialist

Published on

3 months
£600-624
Birmingham, United Kingdom
We are seeking a highly skilled Cyber Recovery and Data Integration Specialist with deep expertise in Superna and Dell PowerScale technologies. This role will focus on integrating PowerScale data into an existing Dell Vault environment (based on Data Domain and Cyber Recovery Manager) using Superna Eyeglass software. The ideal candidate will have hands-on experience with Superna-driven workflows, PowerScale architecture, and Cyber Recovery solutions. You will lead technical workshops, support integration planning, and ensure secure, policy-driven data movement into the vault. Please note that this role requires onsite present in Birmingham and the rate is £75-78 per hour inside IR35. The working week is 37.5 hours. This is initially a 3 months contract with a good possibility of extension. Key Responsibilities * Lead technical workshops with the customer to define integration requirements and validate architecture. * Design and implement the integration of PowerScale data into the Dell Vault using Superna Eyeglass. * Configure and manage Superna workflows, replication policies, and automation for cyber recovery use cases. * Ensure alignment with existing Cyber Recovery Manager (CRM) and Data Domain (DD) vault infrastructure. * Validate and test data movement, immutability, and recovery workflows. * Provide documentation, knowledge transfer, and operational handover to customer teams. * Support ongoing optimization and troubleshooting of the integrated solution. * Ensure compliance with Dell's cyber recovery best practices, including air gap, isolation, and retention lock. Required Skills & Experience * Strong hands-on experience with Superna Eyeglass, including configuration, replication, and automation. * Deep knowledge of Dell PowerScale (Isilon) architecture and data protection strategies. * Familiarity with Dell Vault environments, including Data Domain, Cyber Recovery Manager, and CyberSense. * Experience with PowerProtect Cyber Recovery workflows and integration points. * Understanding of cyber recovery principles: air gap, immutability, secure copy, and recovery validation. * Ability to work independently in a customer-facing role, with strong communication and documentation skills. * Experience with object storage (ObjectScale) and hybrid cloud environments (AWS/Azure) is a plus. Preferred Qualifications * Dell or Superna certifications (e.g., PowerScale, Cyber Recovery, Superna Eyeglass) * Experience with CyberSense analytics, PPDM and Networker * Familiarity with REST APIs and automation scripting for integration and monitoring * Knowledge of security best practices in data protection and recovery LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
Contractor

Contractor job
Data Engineer

Published on
Apache Spark
Java
ODI Oracle Data Integrator

3 years
400-550 €
Tours, Centre-Val de Loire
Hybrid
En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data
Contractor

Contractor job
AMOA Oracle Cloud – Domaine Comptabilité

Published on
ODI Oracle Data Integrator
Open-source Ticket Request System (OTRS)
Oracle

12 months
600-670 €
Ile-de-France, France
Hybrid
Contexte de la mission La direction MOA en charge du Système d’Information de Gestion (SIG) recherche un consultant fonctionnel confirmé pour renforcer l’équipe de support sur le domaine comptabilité . Le consultant interviendra sur les modules AP (Accounts Payable), AR (Accounts Receivable), GL (General Ledger) et ETax d’ Oracle Cloud . Objectif de la mission Assurer le traitement des tickets de support (assistance, incidents, anomalies et évolutions) sur le périmètre comptable, en lien avec la chef de projet fonctionnelle, tout en garantissant la qualité et la continuité du service aux utilisateurs. Responsabilités principales Assurer le traitement des tickets de niveau 1 et 2 : Assistance utilisateurs, incidents, anomalies et demandes d’évolution. Analyse des problèmes et reproduction des incidents. Identification des causes et proposition de solutions correctives ou d’amélioration. Participer à la résolution des tickets complexes nécessitant une expertise fonctionnelle et des actions de paramétrage dans Oracle Cloud. Rédiger et exécuter les cas de tests fonctionnels dans le cadre des évolutions applicatives. Mettre à jour et produire la documentation fonctionnelle : modes opératoires, guides utilisateurs, supports de formation. Collaborer étroitement avec la chef de projet et les équipes techniques pour garantir la cohérence des évolutions. Contribuer à la qualité du support SIG et au respect des procédures internes. Compétences requises Expertises fonctionnelles et techniques Maîtrise confirmée des modules Oracle Cloud AP, AR, GL et ETax . Connaissance approfondie des processus comptables : comptabilité générale, auxiliaire, clôtures, déclaration de TVA. Expérience avérée dans le paramétrage fonctionnel des modules Oracle Cloud. Connaissance d’ OTBI (Oracle Transactional Business Intelligence) appréciée. Compétences transverses Solides capacités d’analyse et de résolution de problèmes. Rigueur, sens du service et autonomie dans la gestion des priorités. Bonnes qualités rédactionnelles (documentation, cas de tests, procédures). Excellentes qualités relationnelles et esprit d’équipe, notamment dans un environnement de support multi-interlocuteurs. Capacité à s’adapter à un contexte organisationnel complexe .
Contractor

Contractor job
Data Engineer AI Integration

Published on
Generative AI
Python
Pytorch

10 months
460-590 €
Ile-de-France, France
Hybrid
Le Data Engineer aura pour mission principale d’interagir avec les parties prenantes pour capturer les besoins en données, extraire les data dumps, configurer des Vector Databases (VDBs) et développer/configurer une compétence RAG (Retrieval-Augmented Generation) afin d’améliorer la performance des solutions d’IA générative. Il sera en charge de tester les data pipelines pour garantir des processus efficaces en lien avec les besoins métiers et IA. Ses principales responsabilités incluent : Être le premier point de contact pour les utilisateurs internes concernant les besoins en données des applications d’IA générative Collaborer étroitement avec les Product Owners, développeurs et ingénieurs IA pour recueillir et documenter les besoins Capturer et documenter les besoins et lacunes de données et proposer des stratégies correctives Valider la qualité des données extraites (complétude, exactitude, pertinence) Configurer et optimiser l’utilisation de bases de données vectorielles pour l’accès rapide aux données Tester et ajuster les compétences RAG pour garantir la pertinence contextuelle des informations générées Effectuer des tests complets sur les pipelines de données, participer à l’évaluation de la performance des modèles IA
Contractor

Contractor job
Data Architecte (Secteur Energie / Industrie)

Published on
Apache Airflow
Apache Spark
Architecture

12 months
690-780 €
Rennes, Brittany
Hybrid
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Contractor

Contractor job
BI Engineer & Analytics Engineer (Tableau / dbt)

Published on
Azure Data Factory
BI
Big Data

12 months
400-470 €
Lille, Hauts-de-France
Hybrid
L’équipe People Data a pour vocation de soutenir la stratégie RH d’une entreprise internationale en accompagnant le développement, le bien-être et la performance de ses collaborateurs. Au cœur de la transformation de l’organisation, cette équipe met la donnée au service des équipes RH, Talent Development, Engineering et Product afin de piloter, comprendre et anticiper les dynamiques humaines et organisationnelles. Composée de Data Product Managers, Data Analysts, BI Engineers, Analytics Engineers, Data Engineers et d’experts en gouvernance de données, elle développe des produits et des solutions innovants de People Analytics à forte valeur ajoutée. Dans ce cadre, nous recherchons un(e) BI Engineer & Analytics Engineer (Tableau / dbt) pour accompagner les équipes Talent Development sur un périmètre international. 🎯 Mission principale Concevoir, développer et maintenir des solutions de reporting et de data visualisation fiables, automatisées et pertinentes, au service des équipes Talent Development et RH. 🧩 Responsabilités Développer et maintenir des reportings auditables, légaux ou stratégiques à destination des équipes Talent Development. Assurer la réconciliation et la cohérence des données issues de différentes sources et pays. Garantir la qualité, la fiabilité et la traçabilité des données et des indicateurs produits. Concevoir, optimiser et automatiser des dashboards Tableau pour le suivi des KPIs RH. Participer à toutes les phases du cycle projet : du cadrage au déploiement en production, puis assurer le run des solutions. Proposer des visualisations et modèles de données pertinents et adaptés aux usages métiers. Contribuer aux rituels agiles (daily, sprint review, rétrospective). Rédiger et maintenir la documentation technique (modèles dbt, dashboards, pipelines, bonnes pratiques). Collaborer avec les équipes Data et RH (Data Product Managers, Data Engineers, métiers Talent Development, etc.). 🧠 Compétences requises Techniques CompétenceNiveau requis Tableau Confirmé dbt Confirmé SQL Confirmé Python Avancé Modélisation de données Confirmé Git / GitHub Confirmé Méthodologie Agile (Scrum, Kanban) Avancé Soft Skills Forte autonomie et sens de la responsabilité. Capacité d’analyse et regard critique sur la qualité des données. Aisance dans la communication avec des profils non techniques . Esprit d’équipe, collaboration et partage des bonnes pratiques. Orientation produit et business , avec une bonne compréhension des enjeux RH et Talent Development. 📍 Localisation & modalités Lieu : Lille Télétravail : possible de manière occasionnelle Langues : Français courant, Anglais professionnel
Contractor

Contractor job
Data Analyst

Published on

3 months
£400-430
SW1A 2AH, London, England, United Kingdom
Hybrid
Our client is looking for a Data Integration and Risk Management specialist to join their team on a short term initial contract with further extensions to follow. This role would be working 2/3 days a week onsite in London and via an umbrella company. Key Responsibilities * Data Platform Management: o Utilize Teradata Vantage for data warehousing and advanced analytics. o Optimize queries and data structures for efficient risk data aggregation. * Data Integration & ETL Development: o Design, develop, and optimize ETL workflows using Informatica PowerCenter and related tools. o Manage large-scale data integration projects across multiple platforms, ensuring high performance and scalability. o Perform data quality checks and implement controls for risk-related datasets. * Risk Modelling & Analytics: o Work with SAS, Python, and other analytical tools to support risk model development and validation. o Integrate risk models into data pipelines for automated reporting and analysis. o Collaborate with quantitative teams to operationalize risk metrics and dashboards. * BCBS239 Compliance: o Implement and maintain risk data aggregation and reporting processes in alignment with BCBS239 principles. o Collaborate with risk management teams to ensure data accuracy, completeness, and timeliness for regulatory reporting. o Support governance and lineage documentation for risk data flows. Required Skills & Experience * Strong experience in Teradata and Informatica PowerCenter for data integration and ETL development. * Strong experience in writing and understanding the complex SQL queries and data warehousing concepts. * Knowledge of BCBS239 principles and regulatory risk data aggregation requirements. * Good if you have experience with risk modelling tools (SAS, Python) and ETL frameworks. * Familiarity with data governance, lineage, and metadata management. * Excellent problem-solving and communication skills. LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
Contractor

Contractor job
Architecte / Expert MongoDB Atlas sur Azure

Published on
.NET CORE
Apache Kafka
ARM architecture

6 months
530-620 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Fixed term

Job Vacancy
Automation Project Manager - Digital Integration

Published on

12 months
Ireland
Hybrid
Automation Project Manager - Contract Role (Pharma) Location: Grangecastle, Ireland (Hybrid) Duration: 6-12 months (potential extension) Real Life Science is currently recruiting an Automation Project Manager for a global pharma manufacturer based their Grangecastle site. The Automation Project Manager will lead multiple automation and digital integration projects within a regulated pharmaceutical environment. Key Responsibilities Manage automation and digital integration projects across the site, ensuring delivery on scope, schedule, budget, and quality . Lead major initiatives including: Installation of an offline DCS control system for training/validation. Upgrade of Yokogawa DCS software and OT network infrastructure. Replacement of legacy control systems and lifecycle upgrades. Act as primary liaison with automation, IT/OT, and control system vendors. Drive integration of plant automation with manufacturing OT/IT systems for data integrity and performance management . Prepare and manage project documentation: URS, design specs, RFPs, risk assessments, and business cases. Oversee FAT/SAT, commissioning, qualification, and validation activities. Ensure compliance with GMP, 21 CFR Part 11, Annex 11 , and company standards Coordinate training and handover to operations and support teams. Requirements 5+ years' experience in project management within pharmaceutical or biopharma environments. Strong knowledge of automation/control systems (DCS/PCS/SCADA - Yokogawa experience desirable). Proven ability to manage full project lifecycle: feasibility, design, vendor selection, implementation, and handover. Familiarity with OT network infrastructure, system security, and data integration concepts. Excellent stakeholder management, communication, and leadership skills. Why Join? Work on high-impact automation projects in a global pharma environment. Collaborate with cross-functional teams and cutting-edge technologies. Competitive contract terms with potential for extension. Please click to find out more about our Key Information Documents. Please note that the documents provided contain generic information. If we are successful in finding you an assignment, you will receive a Key Information Document which will be specific to the vendor set-up you have chosen and your placement. To find out more about Real, please visit Real Staffing, a trading division of SThree Partnership LLP is acting as an Employment Business in relation to this vacancy | Registered office | 8 Bishopsgate, London, EC2N 4BQ, United Kingdom | Partnership Number | OC387148 England and Wales

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

15 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us