The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 520 results.
Job Vacancy
Security OPS Engineer – Senior
Published on
HashiCorp Vault
Linux
Terraform
12 months
Brussels, Brussels-Capital, Belgium
Hybrid
En tant qu’ Ingénieur IT Operations en sécurité , vous rejoignez l’équipe IT Security Production et serez au cœur des initiatives de sécurité clés. Vos missions principales : Administrer et faire évoluer les environnements HashiCorp Vault (politiques, services, sécurité). Gérer la clé de chiffrement et les sujets cloud associés. Mettre à jour et améliorer les procédures de gestion des clés. Contribuer à renforcer la posture de sécurité globale du groupe.
Job Vacancy
QA Engineer Sénior - Cypress (h/f)
Published on
Cypress
Salesforce Commerce Cloud
Salesforce Sales Cloud
1 year
55k-62k €
450-550 €
Paris, France
Hybrid
Intervenir au sein de la Digital Factory d’un client majeur du secteur de l’énergie et accompagner une équipe Scrum en garantissant la qualité des livraisons sur un périmètre applicatif stratégique, En tant que QA Engineer Sénior spécialiste en Cypress (h/f) , vous serez responsable de la stratégie de test et de la qualité de bout en bout des applications de votre périmètre. Vous évoluerez dans un environnement Agile et contribuerez activement à l’amélioration continue. Vos principales missions : Définir et piloter la stratégie de tests en Agile. Réaliser les recettes fonctionnelles et techniques des applicatifs. Être garant de la recette de bout en bout . Exécuter, suivre et documenter l’ensemble des cas de tests. Respecter les process IT relatifs à l’activité de test, assurer traçabilité et documentation. Mettre en place et exécuter des campagnes de non-régression via Xray. Maintenir les scénarios de test et jeux de données au fil des évolutions. Contribuer activement à l’ automatisation des tests avec Cypress. Fournir les indicateurs nécessaires au suivi des campagnes de tests.
Job Vacancy
Network Security Engineer
Published on
Firewall
LAN
Network and Information System Security (NIS)
3 years
40k-45k €
400-470 €
Ile-de-France, France
Hybrid
🔒 Nous recherchons un Network Security Engineer pour une mission au sein d’un grand groupe international. 🎯 Contexte : L’ingénieur sécurité réseau interviendra sur les services critiques du périmètre CTO Network (VPN, WAN, LAN, WIFI, Firewall, DNS, DHCP, IPAM, Internet…). Il participera à la mise en œuvre et à l’amélioration continue de la stratégie cybersécurité sur ces environnements. 💼 Missions principales : • Contribuer à la définition et à l’application des politiques de sécurité réseau ; • Assurer la conformité et la gestion des risques ; • Déployer et maintenir les contrôles de sécurité ; • Participer à la gestion des incidents et à la remédiation continue. 🧠 Compétences requises : Cybersécurité, analyse de risques, Network Security, Firewall, LAN/WiFi, bonne culture IT. Niveau confirmé requis. 📅 Mission longue – démarrage ASAP – environnement international.
Contractor job
Senior Data Engineer GCP (H/F)
Published on
Google Cloud Platform (GCP)
12 months
550 €
Paris, France
Hybrid
Nous recherchons un Senior Data Engineer pour intervenir au sein d’une équipe Data & Commerce dans un environnement international exigeant. Le consultant interviendra sur la conception et la mise en œuvre d’architectures Cloud GCP complexes, l’optimisation avancée BigQuery, le développement API, l’orchestration de pipelines et l’industrialisation des modèles Data & AI. La mission couvre un périmètre complet allant de l’architecture à la performance, en passant par les pratiques DevOps et IaC avec Terraform. Le rôle inclut également la participation aux initiatives GenAI, l’encadrement technique des développeurs et l’optimisation des modèles de données (Star Schema, Snowflake). Le consultant interagira directement avec les équipes Customer Service / Client Management pour soutenir la construction d’une plateforme Data évolutive, performante et conforme aux standards du groupe.
Job Vacancy
Lead Consultant Machine Learning Engineering H/F
Published on
GitLab CI
Google Cloud Platform (GCP)
Python
12 months
40k-45k €
600-680 €
Ile-de-France, France
Hybrid
En interaction avec les membres de l’équipe, vos missions consisteront à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Contractor job
[LFR] Cyber Security Engineering Splunk, Expérimenté à Nice - 1097
Published on
10 months
300-480 €
Nice, Provence-Alpes-Côte d'Azur
Hybrid
client sur Nice - sur site ou full distanciel avec déplacement mensuel sur site We are looking for senior cyber security engineer with 5-10 years' experience working in the engineering team of SOC/CERT/CSIRT team. SPLUNK Enterprise Security Key Responsibilities: • Develop and maintain Splunk correlation searches (alerts), dashboard and reports • Develop and maintain security framework around correlation searches (exclusion framework, increase vigilance framework, etc.) • Participate in the onboard process of new data as well as performing cleanup and sanitization of incoming log sources and events • Update / Deploy Splunk technical add-on • More administration / Development tasks can be given if demonstrate good technicality Skills: • Splunk (3 à 5 years) especially SPL writing • Good knowledge in networking principles • Good knowledge in system administration principles • Must be able to work independently as well as work as part of a fast-moving team
Contractor job
Machine Learning Engineer (Détection des fraudes)
Published on
Data science
Dataiku
Machine Learning
4 months
580-600 €
Paris, France
Hybrid
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur bancaire Description 🏢 Le Contexte Pour le compte d’un grand groupe bancaire français , nous recherchons un expert en Data Science pour rejoindre une équipe pluridisciplinaire (Conformité, IT, Gestion de projet) en pleine transformation. Le groupe lance une refonte majeure de son dispositif de surveillance LCB-FT (Lutte Contre le Blanchiment et le Financement du Terrorisme). L’objectif est de passer d’une approche traditionnelle (moteur de règles) à une solution interne innovante intégrant le Machine Learning et l'IA . 🎯 Votre Mission Au cœur de la Direction de la Conformité, votre rôle principal est de réduire significativement le taux de faux positifs et d'améliorer la capacité de détection de nouveaux schémas de fraude, tout en garantissant une explicabilité totale vis-à-vis du régulateur. Vos responsabilités principales : Modélisation & Data Science : Élaborer de nouveaux modèles de scoring et de segmentation de la clientèle. Combiner des approches supervisées et non supervisées pour détecter les comportements suspects (patterns connus et atypiques). Réaliser le Feature Engineering : sélection et validation des variables pertinentes (historique bancaire, KYC, transactions). Optimisation & Performance : Réviser les seuils de déclenchement des alertes pour optimiser le travail des analystes. Assurer la performance des modèles aussi bien en traitement Batch qu'en Temps Réel. Gouvernance & Explicabilité (Critique) : Garantir que chaque modèle produit est "auditable" et explicable (transparence des décisions, justification des variables) pour répondre aux exigences réglementaires strictes. Gestion de Projet & Accompagnement : Accompagner les phases de cadrage, recette et industrialisation. Rédiger les livrables (cahiers des charges, expressions de besoins, documentation technique). 🛠 Environnement Technique Stack principale : Python, Dataiku. Données : Historique opérations, KYC, relations clients, volumétrie bancaire standard.
Job Vacancy
Data Engineer GCP
Published on
Apache Airflow
DBT
DevOps
12 months
40k-48k €
370-420 €
Cesson-Sévigné, Brittany
Hybrid
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
Job Vacancy
Coach Agile / DevOps & engineering practices
Published on
Docker
Terraform
1 year
40k-45k €
400-600 €
Ile-de-France, France
Hybrid
Coach Agile / DevOps & engineering practicesContexte Au sein d'une grande banque internationale, la division Securities Services est l'un des principaux acteurs mondiaux du métier titres. Nos collaborateurs, présents dans 34 pays et 5 continents, proposent des solutions intégrées à l'ensemble des acteurs du cycle d'investissement (intermédiaires financiers, investisseurs institutionnels, grandes entreprises et émetteurs). L'équipe transverse de transformation accompagne les équipes IT vers un état d'esprit et des pratiques centrées sur l'agilité et le DevOps notamment au travers d'une utilisation poussée de la Toolchain et en favorisant les pratiques d'engineering pour inciter les équipes à atteindre un niveau de qualité et résilience élevé. Technologies et outils Technologies : Java, Angular, Python, .Net Outils : Maven, Gradle, npm, Docker, Gitlab/CI, Jenkins, Sonar, Fortify, Nexus IQ, ArgoCD, Digital AI Release, Terraform
Contractor job
Technico-Fonctionnel / Scientific Data Engineering - Expert DataOps - R&D - 1117
Published on
6 months
500-530 €
Paris, France
Hybrid
Objectifs de la mission : Le Passenger Cognition Lab modélise les comportements des voyageurs afin d’optimiser les services digitaux et l’information voyageur en Île-de-France. Le Lab recherche un Ingénieur de Recherche DataOps capable de concevoir et enrichir une infrastructure de données permettant des études scientifiques sur la cognition des voyageurs. Enjeux et rôle du consultant - Traduire les besoins théoriques des chercheurs en pipelines de données robustes et architectures cloud performantes (AWS). - Garantir l’intégrité scientifique des traitements : gestion des biais statistiques, fiabilité des séries temporelles, reproductibilité. - Concevoir des environnements d’expérimentation Cloud fiables, orientés production de résultats scientifiques. - Documenter et structurer les travaux pour assurer leur pérennité. - Agir comme le bras technique du Lab dans un contexte de recherche. Environnement & contexte : R&D agile manipulant des volumes de données massifs et hétérogènes. Stack : AWS, Python (Scientific Stack), conteneurisation. Interaction clé avec l’IT Groupe pour favoriser le portage et l’exploitation des données dans d’autres projets. Livrable : Instrumentation des données pour la recherche (Scientific Data Engineering) Architecture Cloud pour l'expérimentation (Scientific Ops) Formalisation technique et Support à la valorisation Obligatoire : Thèse de doctorat (Data, ML ou Mathématiques Appliquées) garantissant sa capacité à dialoguer avec des chercheurs, couplée à une expérience opérationnelle forte en Ingénierie logicielle/Cloud. Expériences entre 7 et 9 années.
Job Vacancy
Tech Lead SRE / Site Reliability Engineer (H/F)
Published on
Ansible
AWS Cloud
Docker
12 months
50k-65k €
480-550 €
Clipperton Island, France
Hybrid
Vous rejoignez la Platform Team au sein de la Tribe Paiement de la Digital Factory en tant que Tech Lead SRE . Votre rôle : piloter la vision technique SRE, garantir la fiabilité des plateformes de paiement, et assurer la performance, la résilience et la scalabilité des environnements cloud. Vous serez le référent technique, le mentor de l’équipe SRE, et un acteur clé dans la définition des standards d’ingénierie, DevOps et SRE. Leadership & Vision technique Superviser l’ensemble des activités SRE de la Platform Team. Porter la vision d’architecture résiliente, scalable et moderne (cloud, conteneurs, automatisation). Définir les standards SRE , bonnes pratiques DevOps et orientations techniques : CI/CD, observabilité, sécurité, gestion des incidents. Encadrer et développer l’équipe SRE (mentorat, pair programming, formation). Architecture & Fiabilité Concevoir et faire évoluer l’architecture cible de la plateforme Paiement avec les architectes et Tech Leads. Définir et maintenir les blueprints d’architecture : réseau, sécurité, déploiement, observabilité. Participer aux choix technologiques et à l’urbanisation cloud (AWS). Exploitation & Automatisation Garantir le maintien en condition opérationnelle (MCO) de l’ensemble des applications Paiement. Optimiser les performances, la sécurité, la stabilité et la scalabilité des environnements. Construire et améliorer les pipelines CI/CD (GitLab CI) : tests, scans sécurité, qualité, déploiements progressifs. Automatiser les opérations répétitives (scripts, jobs, workflows). Support technique & gestion des incidents Analyser, corriger et suivre les tickets (ServiceNow, Jira) de niveau 3. Réaliser les opérations de maintenance, rattrapages d’incidents et opérations bulk. Participer aux handovers des nouvelles fonctionnalités en production. Produire des rapports techniques sur la performance et les incidents. Observabilité & Monitoring Mettre en place, maintenir et améliorer les dispositifs d’observabilité (Splunk Observability). Réagir rapidement en cas de panne, diagnostiquer les causes et proposer des solutions pérennes. Suivre l'état de santé des applications, lever les alertes et réaliser les premières analyses. FinOps & optimisation des ressources Suivre les coûts AWS, détecter les dérives et proposer des optimisations. Contribuer à une démarche FinOps structurée pour un usage maîtrisé du cloud.
Job Vacancy
Data Engineer (H/F)
Published on
Big Data
Google Cloud Platform (GCP)
Python
1 year
40k-45k €
480-580 €
Paris, France
Hybrid
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Contractor job
Intermediate Data Engineer
Published on
API
AWS Cloud
Big Data
12 months
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Job Vacancy
Senior Systems Engineer - Modelling
Published on
£40k-52k
Coventry, United Kingdom
Job title: Senior Systems Engineer - Modelling Location: Coventry We offer a range of hybrid and flexible working arrangements - please speak to your recruiter about the options for this particular role. Salary: Negotiable dependant on skills and experience What you'll be doing: Apply Model based Systems Engineering subject matter expertise and domain experience to through the formalised application of modelling to support system requirements, design, analysis, verification and validation activities Understanding and modelling the customer and user needs of the product system and how this will influence and impact design activities, technical and operational performance Ensure design proving evidence is comprehensive, captured within the model and has been endorsed by the appropriate level of authority Integrate these models to other models of the submarine platform Report the programme status for engineering activities, identify problem areas and implement recovery plans. This will include the management of any consequent change embodiment activities Lead the development of estimates for the scope of work and resources required to deliver it in order to support bids, proposal development and project planning activities for various systems Share your knowledge and experience to lead and, develop others in MBSE (Model Based Systems Engineering) Your skills and experiences: Essential: Experience of Model Based Systems Engineering process and practices in the defence, maritime or closely linked industry and the correct recognition of the context of their work within the overall product an academic basis underpinning the discipline Experience of the engineering lifecycle with experience of operating in the phase relevant to the role and awareness of the entire engineering lifecycle Knowledge of relevant engineering standards, including safety and environmental regulations Desirable: Experience working with a Systems Engineering modelling tool such as: Enterprise Architect (EA) Experience working with a Systems modelling language such as SysML Benefits: As well as a competitive pension scheme, BAE Systems also offers employee share plans, an extensive range of flexible discounted health, wellbeing and lifestyle benefits, including a green car scheme, private health plans and shopping discounts - you may also be eligible for an annual incentive. The Coventry Systems Engineering team: To support our ongoing need to recruit the best engineering talent, BAE Systems Submarines is delighted to shortly be opening a brand new office in Coventry. BAE Systems Submarines is experiencing a period of significant growth and we are now actively recruiting a variety of roles and specialisms to support our ongoing submarines programs which is critical to delivering our national endeavour. Why BAE Systems? This is a place where you'll be able to make a real difference. You'll be part of an inclusive culture that values diversity of thought, rewards integrity, and merit, and where you'll be empowered to fulfil your potential. We welcome people from all backgrounds and want to make sure that our recruitment processes are as inclusive as possible. If you have a disability or health condition (for example dyslexia, autism, an anxiety disorder etc.) that may affect your performance in certain assessment types, please speak to your recruiter about potential reasonable adjustments. Please be aware that many roles at BAE Systems are subject to both security and export control restrictions. These restrictions mean that factors such as your nationality, any nationalities you may have previously held, and your place of birth can restrict the roles you are eligible to perform within the organisation. All applicants must as a minimum achieve Baseline Personnel Security Standard. Many roles also require higher levels of National Security Vetting where applicants must typically have 5 to 10 years of continuous residency in the UK depending on the vetting level required for the role, to allow for meaningful security vetting checks.
Contractor job
QA Engineer / QA Automation – GenAI Platform
Published on
Generative AI
Karate
Postman
12 months
400-450 €
Boulogne-Billancourt, Ile-de-France
Hybrid
Dans le cadre du renforcement du dispositif QA d’une plateforme GenAI, nous recherchons un QA Engineer expérimenté , idéalement avec une première expérience en tests de solutions IA génératives . Vous interviendrez au sein d’une équipe orientée craftsmanship, performance et innovation , dans un environnement technique moderne (LangGraph, FastAPI, Kubernetes, MongoDB – Cloud GCP). Missions Tests & Qualité Rédiger, exécuter et automatiser les scénarios de tests. Contribuer aux tests API, E2E, non-régression et cahiers de recette. Prioriser les anomalies avec l’équipe produit et gérer le backlog (mode Scrum board). Participer à l’amélioration des processus QA au sein de l’équipe. Automatisation Implémenter et maintenir des scripts d’automatisation (Karate, Gatling ou équivalent interne). Intégration des tests dans la chaîne CI/CD. Suivi et reporting via Xray/Jira. IA / GenAI Testing Utiliser des outils d’IA pour générer des cas de test, analyser les résultats et identifier les tests pertinents. Prendre en compte les spécificités des systèmes IA : non-déterminisme, biais potentiels, hallucinations, limites des modèles. Contribuer aux bonnes pratiques d’évaluation et de fiabilité des modèles IA. Documentation & Suivi Maintenir la documentation QA et les bonnes pratiques. Reporter l’état des correctifs et interactions avec la chaîne support. Livrables Scripts d’automatisation (Karate / Gatling / outil interne). Tickets et reportings Xray/Jira. Documentation process & bonnes pratiques QA. Suivi des correctifs.
Contractor job
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Published on
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 month
750 €
Paris, France
Hybrid
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
520 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k