Find your next tech and IT Job or contract Google Cloud Platform (GCP)
What you need to know about Google Cloud Platform (GCP)
Google Cloud Platform (GCP) is a suite of cloud computing services offered by Google, enabling businesses and developers to build, deploy, and scale applications, websites, and services using the same infrastructure that Google uses for its own products, such as search or Gmail. GCP offers an extensive range of products and services, including computing solutions with Compute Engine for virtual machines, App Engine for application deployment, and Google Kubernetes Engine for container orchestration. In the storage and database domain, GCP offers tools like Cloud Storage for object storage, Cloud SQL for relational databases, and BigQuery for large-scale data analysis. For networking, services such as Virtual Private Cloud (VPC), Cloud Load Balancing, and Cloud CDN help optimize performance and content distribution. For artificial intelligence and machine learning, GCP offers Vertex AI for learning model development, as well as pre-trained APIs for visual recognition, language processing, and speech synthesis. Finally, GCP includes management and development tools such as Cloud Deployment Manager for resource deployment, and Cloud Console for service management. Thanks to its global infrastructure, GCP provides high performance, flexible scalability, and advanced security solutions, helping businesses innovate and succeed in their digital transformation.
Contractor job
Administrateur Google Workspace
PAS DE FULL REMOTE Au sein de l’équipe Service Delivery du département SoCC, vous serez responsable de l’administration des outils de la Google Workspace, en étroite collaboration avec les experts de la plateforme. Vous intégrerez une équipe d’ingénieurs de production et participerez activement à la supervision des outils, au diagnostic et à la résolution des incidents techniques et utilisateurs. Vous contribuerez également à la mise en œuvre des évolutions (services et changements), à la rédaction de la documentation technique et fonctionnelle, ainsi qu’à l’accompagnement des phases de tests et de déploiement en production. Les livrables attendus incluent : la validation des exigences non fonctionnelles, la documentation d’installation et de configuration, les guides d’usage pour les équipes de support N1 et N3, et le traitement des incidents et demandes de service dans le respect des SLA et des processus ITSM.

Job Vacancy
Développeur Java/VueJs (F/H)
CDI/Freelance/Portage 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille – 5 ans d'expérience minimum Vous êtes passionné(e) par les nouvelles technologies et souhaitez mettre vos compétences au service de projets innovants pour un acteur majeur du retail ? Cette mission est peut-être faite pour vous ! 🚀 Vos missions : Développer et maintenir des applications web en Java et Vue.js, en lien avec les besoins métiers et les évolutions fonctionnelles. Participer à la conception technique et à l’implémentation d’APIs REST robustes ainsi que d’interfaces utilisateur réactives. Contribuer à la qualité du code (tests, revues, documentation) et à l’amélioration continue de l’architecture logicielle.

Contractor job
Data Engineer F/H - LILLE
Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)

Contractor job
Mission Longue de Consultant Snowflake
Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.

Contractor job
Data Engineer – GCP / BigQuery / DBT
Contexte de la mission Nous recherchons un Data Engineer expérimenté afin de renforcer l’équipe Data et contribuer à la mise en place, l’optimisation et l’industrialisation de la plateforme de données sur Google Cloud Platform (GCP) . Vous interviendrez sur des problématiques de modélisation, transformation et exploitation de données avec BigQuery et DBT , en collaboration avec les équipes métier et analytics. Vos missions Concevoir, développer et maintenir les pipelines de données dans un environnement GCP. Implémenter et optimiser des modèles de données dans BigQuery . Mettre en place et maintenir les transformations avec DBT (Data Build Tool). Garantir la qualité, la performance et la fiabilité des traitements de données. Participer aux choix techniques et bonnes pratiques (CI/CD, documentation, monitoring). Collaborer avec les équipes Data Analysts / Data Scientists pour assurer la disponibilité et la pertinence des données.

Contractor job
Développeur Python GenAI (F/H)
Objet de la prestation : Dans le cadre du programme Augmented, une équipe Lab Tech-genAI, en charge d’étudier les capacités des innovations genAI, est en création. Cette équipe vient renforcer les équipes genAI déjà en place. Le Lab Tech-genAI s’appuie sur l’environnement Google Cloud Platform (GCP). Le développement est réalisé en Python. Les composants techniques sont réalisés dans une architecture micro-services. Ils sont à développer, à intégrer dans l’écosystème, à maintenir et à faire évoluer. La prestation concerne principalement : - Le développement de services permettant de tester des nouveautés genAI et comment les utiliser à l’échelle - l’intégration de nouveaux services d’agent dans l’architecture existante, - L’amélioration et l’optimisation des composants d’ingestion de données non structurées - L’évaluation d’outils de dev basés sur l’IA - Le développement de cas d’usage IA innovant et généralisables Livrables : Contribuer au développement des services du Lab Tech-Genai, évaluer et tester des solutions innovantes Genai et proposer des guidelines d’intégration de ces solutions aux autres équipes Genai du Groupe Sont attendus les livrables suivants : - Le code des développements demandés, conçus et mis en œuvre en production de manière satisfaisante - Le code des tests unitaires et d’intégrations automatisés - La documentation du code expliquant les programmes et algorithme - Le développement de l’application est en méthode Agile/Scrum avec des sprints de 2 semaines. - Participation à l’élaboration des User Stories - Conception, développement et mise en production d’applications nécessaires aux fonctionnalités souhaitées - Mise en place de tests unitaires, d’intégration et fonctionnels bout-en-bout - Participation aux discussions d'équipe autour de solutions techniques et d'idées de produits dans les revues de conception, la programmation en binôme et la revue de codes, participation à l’élaboration de bonnes pratiques sur le projet

Job Vacancy
Product Owner DevOps (H/F)
Objectif global : Piloter le backlog de la Production Applicative Contrainte forte du projet Product Owner avec une forte appétence technique Contexte : Nous sommes à la recherche d'un Product Owner Technique pour rejoindre notre service Production Data Métiers. Notre équipe dynamique et jeune, forte de 10 membres, est à la recherche d'un(e) successeur(e) passionné(e) et expérimenté(e) pour renforcer notre effectif. Le(a) candidat(e) idéal(e) aura une expérience solide en milieu de production, ayant travaillé dans des environnements industrialisés et sur le cloud public avec des bases solides en DevOps, mais surtuout une connaissance pointue des méthodes agiles et de l'accompagnement d'équipes techniques. Les principales missions qui vous seront confiées : Echanger avec les clients / utilisateurs pour identifier les besoins et les traduire en tâches pour l'équipe Prioriser la backlog en fonction des exigences et des capacités de l'équipe Préparer les rituels en collaboration avec le scrum master Compétences techniques : Cloud GCP/Azure - Confirmé - Important Administration et MCO de la production - Confirmé - Important Architecture Technique - Confirmé - Important DevOps - Expert - Important

Job Vacancy
Architecte data / IA (F/H)
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Architecte Data & IA (FH) pour accompagner l’un de nos clients, acteur majeur du secteur assurantiel. Le poste est à pourvoir ASAP pour une durée de 6 mois dans le cadre d’un contrat CDD / Freelance chez TALEO , et est situé à Paris . Suite à cela, un recrutement interne en CDI chez notre client est privilégié. Contexte Vous intégrez un environnement dynamique traitant de la Data, de l'IA et adressant l'ensemble des métiers de l'entreprise. Vous travaillerez dans un écosystème Data comportant, entre autres, les meilleurs outils Data modernes du marché. Vous serez au cœur de projets de transformation, qui ont démarré fin 2023 et vont s'opérer sur les années à venir dans le cadre d'un plan stratégique très ambitieux. Responsabilités : Vous exercerez les missions d'Architecte Data : · Prendre en charge les dossiers d'architecture des projets en garantissant la cohérence avec la stratégie, le cadre d'architecture et la Roadmap du Patrimoine Data. · Accompagner les Product Owners/Managers et les équipes métiers dans l'évolution du Patrimoine Data. · Identifier les évolutions d'architecture induites par les nouveaux usages métiers. · Alimenter et porter les décisions d'architecture en Instance Architecture Data, ou dans les instances ad-hoc de la DSI groupe. · Alimenter la Roadmap Data dans sa dimension architecture. · Apporter une expertise technique et fonctionnelle sur les sujets IA / MLOps dans le contexte des transformations liées à la migration cloud (GCP) du Patrimoine Data. · Apporter une expertise d'intégration des outils Data et de leur gouvernance dans l'écosystème Data groupe. · Référencer et tenir à jour les patterns d'architecture Data. · Promouvoir le cadre d'architecture Data auprès du Data Office, des Architectes de la DSI et des équipes métiers. · Être en veille sur les tendances et les nouveautés technologiques des solutions Data. · Vous êtes un(e) interlocuteur(trice) privilégié(e) des métiers et par votre rôle, participez à l'éclairage des décisions stratégiques du Groupe pour l'amélioration de sa performance grâce, entre autres, à une meilleure exploitation, fiabilisation et un cheminement de qualité de la Data.

Contractor job
Data Scientist GCP adtech
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur des medias Description 🎯 Contexte du projet L’équipe BI, Analytics & Data Science (10 personnes : Data Analysts, Data Scientists, ML Engineers) travaille en transverse pour l’ensemble des marques et métiers du groupe (abonnement, vente au numéro, régie publicitaire…). L’activité couvre un spectre large : analyses ad hoc, dashboards, projets data science et IA. La stack technologique est entièrement sur Google Cloud Platform (BigQuery, Airflow, Vertex AI). Face à la montée en charge et à des besoins spécifiques en AdTech (audience, publicité digitale, personnalisation), l’équipe recherche un Data Scientist confirmé pour renforcer ses capacités sur la fin d’année. 🛠️ Missions principales Intervenir sur des projets AdTech : audience, ciblage publicitaire, recommandations de contenu, personnalisation, pricing. Gérer des projets end-to-end : Collecte et préparation des données, Feature engineering et modélisation, Déploiement et mise en production des modèles (Vertex AI, Airflow). Développer et industrialiser des modèles de machine learning prédictif (pas de focus sur l’IA générative). Collaborer avec les équipes Data, BI, régie publicitaire et métiers internes. Produire des analyses et recommandations pour soutenir la stratégie publicitaire et marketing.

Job Vacancy
Expert Cloud GCP
Vous serez intégré au sein de l’équipe plateforme LandingZone sur GCP fonctionnant en mode agile (PO, Agile Master, Lead Tech). L’équipe est responsable du Build, Run, MCO et astreinte de la plateforme. Vos tâches : Contribuer aux activités de la LandingZone GCP en mode agile (Scrum / Kanban). Définir des solutions techniques alignées avec le backlog priorisé par le PO. Travailler en binôme avec un équipier et en trinôme avec le PO DevSecOps et les architectes Cloud . Assurer un rôle de conseil, vulgarisation et formation auprès des membres de l’équipe. Accompagner et fédérer autour de nouvelles pratiques et outils. Participer au Build / Run / MCO , incluant des astreintes HNO (1 semaine toutes les 6).

Job Vacancy
4 Missions - Cloud & DevOps – Freelance / Portage - Lille - Longue durée
Pour l’un de mes clients, je recherche pour 4 missions ouvertes à Lille : CloudOps Engineer : Kubernetes, Terraform, AWS/GCP, scripting (Bash/Python/Go) DevOps AWS : Data Platform multi-cloud, AWS EKS, Terraform, Python (API REST), CI/CD Développeur Cloud Sénior : GCP, Terraform, Python, GitOps, développement plateforme interne DevOps Réseau / Public Network : Terraform, Python, GCP/AWS, sécurité (Firewall, DNS, WAF, LB) Conditions : Freelance ou portage salarial ( accompagnement possible sur votre passage en portage ) Mission longue (3 ans) Disponibilité max 1 mois Présence 3 jours/semaine sur Lille (non négociable) 3‑5 ans d’expérience sur un rôle similaire ou plus Si vous êtes intéressé et que votre profil correspond à la demande, merci de postuler avec votre CV à jour . Je reviendrai vers vous rapidement.

Contractor job
Data Engineer IA GCP
🎯 Contexte Dans le cadre d’un projet stratégique IA Générative , notre client met en place une infrastructure Data et IA pour un programme innovant de transcription d’appels en temps réel à grande échelle. L’objectif est de créer une plateforme robuste et scalable sur GCP , capable de traiter des flux massifs de données vocales clients via des modèles Speech-to-Text et d’intégrer ces données dans les applications métiers. 🛠️ Missions principales Concevoir et déployer l’ infrastructure Data et IA sur GCP pour supporter des charges massives. Développer des pipelines de données en Python pour l’ingestion, la transformation et l’exploitation temps réel. Collaborer avec les équipes IA/ML pour l’intégration des modèles de transcription vocale (Speech-to-Text) . Garantir la scalabilité , la résilience et les performances de la plateforme. Mettre en place les bonnes pratiques de monitoring, sécurité et optimisation des coûts (FinOps). Participer aux choix techniques structurants liés à l’IA générative et aux architectures temps réel.

Contractor job
Responsable des systèmes applicatifs
Oracle PL SQL - Junior - Impératif scripting linux - Junior - Souhaitable GCP (google cloud platform) - Junior - Serait un plus Connaissances linguistiques: Français Courant (Impératif) Description détaillée L'administrateur N3 sur le produit MBA (métier de bouche Auchan) prendra en charge : - le traitement des incidents sous EasyVista concernant son produit - le traitement des problèmes en relation avec l'éditeur Stef IT - une partie des sujets de la backlog du produit sous la responsabilité du PO Il contribuera aux projets impliquant le produit "Frais MBA"

Job Vacancy
PO CRM
PS : C'est un poste en prestation pré-embauche, dans la région lilloise ! Contexte de la mission Dans le cadre de la transformation digitale du groupe, le pôle IT & Digital souhaite renforcer son équipe CRM avec un Product Owner HubSpot expérimenté. L’objectif est d’optimiser l’usage du CRM dans la gestion du cycle de vie client, de l’acquisition à la fidélisation, tout en améliorant l’intégration avec d’autres outils du SI, notamment Odoo (ERP). Missions principales Piloter la roadmap CRM HubSpot, en lien avec la stratégie commerciale et marketing. Recueillir, challenger et prioriser les besoins métiers (marketing automation, gestion des leads, sales pipeline, reporting…). Assurer la conception fonctionnelle et la documentation des évolutions du CRM. Coordonner les développements et les intégrations techniques avec les équipes internes et partenaires (HubSpot, Odoo, Data, ERP, etc.). Mettre en place les bonnes pratiques de gouvernance CRM : qualité des données, conformité RGPD, standardisation des processus. Superviser les tests utilisateurs (UAT) et garantir la mise en production des nouvelles fonctionnalités. Former et accompagner les utilisateurs sur les nouvelles fonctionnalités et les bonnes pratiques. Suivre la performance des campagnes et des usages CRM à travers des KPI et dashboards. Compétences requises CRM & outils : Maîtrise approfondie de HubSpot CRM (modules Sales, Marketing, Service Hub). Connaissance d’Odoo (ERP) et des intégrations API entre systèmes. Bonne compréhension des processus de lead management, pipeline, marketing automation et reporting. Méthodologie & pilotage : Expérience confirmée en Product Ownership / Product Management dans un contexte Agile (Scrum/Kanban). Capacité à définir, prioriser et suivre un backlog produit. Excellentes compétences en recueil de besoins, formalisation fonctionnelle et communication transverse. Techniques : Notions en intégration API / middleware. Connaissance de l’écosystème SaaS / Cloud / Data marketing. Capacité à travailler en lien avec les équipes techniques (dev, data, IT).

Contractor job
Data Engineer (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Contexte : L'objectif principal est de standardiser et maintenir l'ensemble des KPI, revoir et mettre au propre les modèles de données avec la création d'un dictionnaire de données issue de notre Data Catalog , accompagner le PO dans les échanges autour de la DATA avec les BU et traiter la dette technique et sujets demandés par les équipes transverses et Product Manager. Les missions attendues par le Data Engineer (H/F) : Collecte et préparation des données : Identifier, collecter et agréger les données pertinentes issues de diverses sources (logs applicatifs, bases de données transactionnelles, données partenaires). Modélisation et développement : Concevoir et construire des flux de données (ETL/ELT) optimisés pour le traitement de gros volumes de données. Industrialisation : Mettre en production des scripts et modèles d'analyse de données, en assurer la maintenance et garantir leur bon fonctionnement. Data Analyse et Visualisation : Traduire les besoins métier en indicateurs de performance (KPIs). Collaboration : Travailler en étroite collaboration avec les Data Scientists pour l'intégration de modèles prédictifs, et avec les équipes métier (analystes fraude, experts assurance) pour bien comprendre les enjeux et affiner les solutions.

Job Vacancy
Consultant MLOps GenAI
Contexte Dans le cadre du renforcement de notre pôle Data & IA, nous recherchons un(e) Consultant(e) confirmé(e) Data Engineer / MLOps spécialisé(e) GenAI . Le profil idéal se situe à mi-chemin entre le Data Engineering et le MLOps , avec une solide expertise sur GCP, une appétence pour la GenAI , et la capacité à résoudre des problématiques de production . Missions principales Concevoir, industrialiser et maintenir des pipelines data sur GCP (BigQuery, Dataflow, Pub/Sub). Mettre en place et optimiser des modèles et services IA/GenAI via Vertex AI . Assurer l’ industrialisation et la mise en production de modèles (CI/CD, monitoring, optimisation). Développer en Python des outils et composants réutilisables pour les projets Data/IA. Implémenter des transformations et orchestrations de données avec DBT . Diagnostiquer et résoudre les incidents de production liés aux pipelines, modèles ou API IA. Collaborer avec les équipes Data Science, DevOps et métiers pour assurer la qualité, robustesse et performance des solutions. Compétences techniques recherchées Langages : Python (avancé), SQL. Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Vertex AI). Data Engineering : DBT, orchestration (Airflow, Cloud Composer). MLOps / GenAI : Vertex AI pipelines, modèles LLM/GenAI, monitoring et déploiement en prod. CI/CD : GitLab CI/CD, Terraform, Docker, Kubernetes. Observabilité : Logging, monitoring, optimisation de pipelines et modèles en prod. Soft skills Esprit analytique et orienté résolution de problèmes . Capacité à travailler en transverse avec des équipes Data Science, IT et métiers. Autonomie, proactivité et rigueur , avec une approche pragmatique. Intérêt marqué pour les dernières évolutions IA et GenAI . Profil recherché Expérience : 3 à 6 ans en Data Engineering et/ou MLOps, avec une exposition significative à GCP. Bonus : une première expérience réussie sur des projets GenAI (LLM, Vertex AI, APIs d’IA générative).
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- Recommendations for the Best Marble Vanity Top Brands
- RECOVER HACKED FUDS GO TO VIRTUAL FUNDS RESURRECTION
- PYRAMID HACK SOLUTION BEST CRYPTOCURRENCY RECOVERY SERVICES 100% LEGIT
- PYRAMID HACK SOLUTION // TRUSTED EXPERTS FOR FAST AND SECURE RECOVERY
- ETHEREUM & USDT RECOVERY SOLUTION REVIEW: HIRE FUNDS RECLAIMER COMPANY
- HOW CAN SOMEONE RECOVER A STOLEN CRYPTO FROM A SCAMMER'S WALLET? CONTACT FUNDS RECLAIMER COMPANY
Jobs by city
Jobs by country
Contract roles and jobs for Google Cloud Platform (GCP)
DevOps Engineer (Cloud)
The DevOps Engineer (Cloud) uses Google Cloud Platform to automate deployment, infrastructure management, and optimize development processes in Cloud environments.
Explore contract role and jobs for DevOps Engineer (Cloud) .
Find out the jobsCloud Architect
The Cloud Architect designs infrastructure and architecture solutions on Google Cloud Platform, ensuring applications are secure, scalable, and optimized for the Cloud.
Explore contract role and jobs for Cloud Architect .
Find out the jobsSystems & Networks Engineer
The Systems & Network Engineer manages resources and services on Google Cloud Platform, configuring and administering virtual machines, databases, and associated Cloud services.
Explore contract role and jobs for Systems & Networks Engineer .
Find out the jobsInfrastructure and Production Manager
The Infrastructure and Production Manager supervises the management of Google Cloud Platform infrastructures, ensuring performance, security, and scalability, while ensuring smooth integration with other systems in the company.
Explore contract role and jobs for Infrastructure and Production Manager .
Find out the jobs