The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 698 results.
Job Vacancy
Product Manager
Published on
£65k-75k
EH49 7DH, Linlithgow, Scotland, United Kingdom
Product Manager Competitive Salary + Bonus + Shares + Progression + Healthcare + 32 Days Holiday + International Travel + Sponsorship Linlithgow - Hybrid Are you a Product Manager with a background in Telecoms, Datacoms or Synchronization technologies and looking for progression opportunities either technically, commercially or strategically? On offer is an excellent opportunity to take on an influential role within a leading technology company that works with some of the biggest names in the industry. You'll be involved across a cutting-edge product range that continues to push boundaries in network timing, synchronization and test solutions. Established over 15 years ago, this innovative business designs and develops advanced software, hardware and cloud-based technology used by major network operators, equipment vendors and technology providers worldwide. Having built a strong reputation for performance and reliability, they are seen as a leader in the synchronization and test measurement space. As a Product Manager, you will help uncover customer needs and work with a multidisciplinary team to take new solution concepts from idea through validation and development. You will play a key role in shaping product strategy, identifying new opportunities and ensuring successful delivery of high-value solutions to the market. If you're motivated by technology, enjoy working at the interface of engineering and business, and want to help shape next-generation network solutions, this role offers the perfect platform to grow your career. The role: Product Manager for advanced network test and measurement products Lead cross-functional teams from concept to delivery Identify and capitalise on new growth opportunities Hybrid working - typically 3 days in office (Tuesday & Thursday core days) The person: Experienced Product Manager with telecoms or datacoms background Understanding of synchronization technologies such as PTP, SyncE or related systems Strong communication and stakeholder management skills Willing to travel internationally when required Reference Number: BBBH - 263584 To apply for this role or to be considered for further roles, please click "Apply Now" or contact Rise Technical Recruitment. Rise Technical Recruitment Ltd acts an employment agency for permanent roles and an employment business for temporary roles. The salary advertised is the bracket available for this position. The actual salary paid will be dependent on your level of experience, qualifications and skill set. We are an equal opportunities employer and welcome applications from all suitable candidates.
Contractor job
Machine Learning Engineer (Détection des fraudes)
Published on
Data science
Dataiku
Machine Learning
4 months
580-600 €
Paris, France
Hybrid
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur bancaire Description 🏢 Le Contexte Pour le compte d’un grand groupe bancaire français , nous recherchons un expert en Data Science pour rejoindre une équipe pluridisciplinaire (Conformité, IT, Gestion de projet) en pleine transformation. Le groupe lance une refonte majeure de son dispositif de surveillance LCB-FT (Lutte Contre le Blanchiment et le Financement du Terrorisme). L’objectif est de passer d’une approche traditionnelle (moteur de règles) à une solution interne innovante intégrant le Machine Learning et l'IA . 🎯 Votre Mission Au cœur de la Direction de la Conformité, votre rôle principal est de réduire significativement le taux de faux positifs et d'améliorer la capacité de détection de nouveaux schémas de fraude, tout en garantissant une explicabilité totale vis-à-vis du régulateur. Vos responsabilités principales : Modélisation & Data Science : Élaborer de nouveaux modèles de scoring et de segmentation de la clientèle. Combiner des approches supervisées et non supervisées pour détecter les comportements suspects (patterns connus et atypiques). Réaliser le Feature Engineering : sélection et validation des variables pertinentes (historique bancaire, KYC, transactions). Optimisation & Performance : Réviser les seuils de déclenchement des alertes pour optimiser le travail des analystes. Assurer la performance des modèles aussi bien en traitement Batch qu'en Temps Réel. Gouvernance & Explicabilité (Critique) : Garantir que chaque modèle produit est "auditable" et explicable (transparence des décisions, justification des variables) pour répondre aux exigences réglementaires strictes. Gestion de Projet & Accompagnement : Accompagner les phases de cadrage, recette et industrialisation. Rédiger les livrables (cahiers des charges, expressions de besoins, documentation technique). 🛠 Environnement Technique Stack principale : Python, Dataiku. Données : Historique opérations, KYC, relations clients, volumétrie bancaire standard.
Job Vacancy
Coach Agile / DevOps & engineering practices
Published on
Docker
Terraform
1 year
40k-45k €
400-600 €
Ile-de-France, France
Hybrid
Coach Agile / DevOps & engineering practicesContexte Au sein d'une grande banque internationale, la division Securities Services est l'un des principaux acteurs mondiaux du métier titres. Nos collaborateurs, présents dans 34 pays et 5 continents, proposent des solutions intégrées à l'ensemble des acteurs du cycle d'investissement (intermédiaires financiers, investisseurs institutionnels, grandes entreprises et émetteurs). L'équipe transverse de transformation accompagne les équipes IT vers un état d'esprit et des pratiques centrées sur l'agilité et le DevOps notamment au travers d'une utilisation poussée de la Toolchain et en favorisant les pratiques d'engineering pour inciter les équipes à atteindre un niveau de qualité et résilience élevé. Technologies et outils Technologies : Java, Angular, Python, .Net Outils : Maven, Gradle, npm, Docker, Gitlab/CI, Jenkins, Sonar, Fortify, Nexus IQ, ArgoCD, Digital AI Release, Terraform
Contractor job
Data Engineer - Gen AI - Finance (h/f)
Published on
12 months
600-700 €
75008, Paris, Île-de-France
Hybrid
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Contractor job
Technico-Fonctionnel / Scientific Data Engineering - Expert DataOps - R&D - 1117
Published on
6 months
500-530 €
Paris, France
Hybrid
Objectifs de la mission : Le Passenger Cognition Lab modélise les comportements des voyageurs afin d’optimiser les services digitaux et l’information voyageur en Île-de-France. Le Lab recherche un Ingénieur de Recherche DataOps capable de concevoir et enrichir une infrastructure de données permettant des études scientifiques sur la cognition des voyageurs. Enjeux et rôle du consultant - Traduire les besoins théoriques des chercheurs en pipelines de données robustes et architectures cloud performantes (AWS). - Garantir l’intégrité scientifique des traitements : gestion des biais statistiques, fiabilité des séries temporelles, reproductibilité. - Concevoir des environnements d’expérimentation Cloud fiables, orientés production de résultats scientifiques. - Documenter et structurer les travaux pour assurer leur pérennité. - Agir comme le bras technique du Lab dans un contexte de recherche. Environnement & contexte : R&D agile manipulant des volumes de données massifs et hétérogènes. Stack : AWS, Python (Scientific Stack), conteneurisation. Interaction clé avec l’IT Groupe pour favoriser le portage et l’exploitation des données dans d’autres projets. Livrable : Instrumentation des données pour la recherche (Scientific Data Engineering) Architecture Cloud pour l'expérimentation (Scientific Ops) Formalisation technique et Support à la valorisation Obligatoire : Thèse de doctorat (Data, ML ou Mathématiques Appliquées) garantissant sa capacité à dialoguer avec des chercheurs, couplée à une expérience opérationnelle forte en Ingénierie logicielle/Cloud. Expériences entre 7 et 9 années.
Job Vacancy
Pipe Stress Analyst
Published on
£135,200-156k
WA1 1NB, Warrington, England, United Kingdom
I'm Hiring: Senior / Principal Piping Stress Engineer 🚨 Are you an experienced Piping Stress Engineer looking for your next challenge? Join a leading engineering team and play a key role in delivering complex projects. What you'll do: ✔ Identify stress-critical lines and review P&IDs and line lists ✔ Perform piping stress analysis and flexibility studies (static & dynamic) ✔ Select pipe supports based on analysis and thermal expansion considerations ✔ Review and sign-off piping isometrics and 3D models ✔ Prepare and approve technical documentation, stress reports, and specifications ✔ Collaborate with multidisciplinary teams and attend client meetings What we're looking for: 🔹 Proficiency in Caesar II (essential) 🔹 Strong knowledge of ASME B31.3 and BS EN 13480 codes 🔹 Degree in Engineering or 10+ years equivalent experience 🔹 Chartered or Incorporated Engineer status preferred Additional Details: ✅ Inside IR35 ✅ Security clearance required (or ability to obtain) If you have a passion for precision engineering and thrive in a collaborative environment, we'd love to hear from you! Please click to find out more about our Key Information Documents. Please note that the documents provided contain generic information. If we are successful in finding you an assignment, you will receive a Key Information Document which will be specific to the vendor set-up you have chosen and your placement. To find out more about Computer Futures please visit Computer Futures, a trading division of SThree Partnership LLP is acting as an Employment Business in relation to this vacancy | Registered office | 8 Bishopsgate, London, EC2N 4BQ, United Kingdom | Partnership Number | OC387148 England and Wales
Contractor job
Intermediate Data Engineer
Published on
API
AWS Cloud
Big Data
12 months
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Job Vacancy
Data Engineer (H/F)
Published on
Big Data
Google Cloud Platform (GCP)
Python
1 year
40k-45k €
480-580 €
Paris, France
Hybrid
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Contractor job
Expert senior M365 Productivité & Sécurité - ASAP - 92
Published on
Microsoft Copilot Studio
Copilot
Microsoft OneDrive
6 months
500-550 €
Nanterre, Ile-de-France
Hybrid
🚀 𝗘𝘅𝗽𝗲𝗿𝘁 𝘀𝗲𝗻𝗶𝗼𝗿 𝗠𝟯𝟲𝟱 𝗣𝗿𝗼𝗱𝘂𝗰𝘁𝗶𝘃𝗶𝘁𝗲́ & 𝗦𝗲́𝗰𝘂𝗿𝗶𝘁𝗲́ - 𝗔𝗦𝗔𝗣 - 𝟵𝟮 📍 𝟵𝟮 – 𝟯𝗷 𝘀𝘂𝗿 𝘀𝗶𝘁𝗲 ⏳ 𝗔𝗦𝗔𝗣 - 𝟲 𝗺𝗼𝗶𝘀 𝗿𝗲𝗻𝗼𝘂𝘃𝗲𝗹𝗮𝗯𝗹𝗲𝘀 🌍 𝗔𝗻𝗴𝗹𝗮𝗶𝘀 𝗰𝗼𝘂𝗿𝗮𝗻𝘁 𝗮̀ 𝗯𝗶𝗹𝗶𝗻𝗴𝘂𝗲 Pour un grand groupe international, nous recherchons un expert Microsoft 365, sénior et déjà opérationnel, capable de piloter l’évolution des services collaboratifs (Teams, SharePoint, OneDrive, Viva…) et d’assurer le support N2/N3, l'optimisation continue et l'alignement roadmap France / Global. 🧩 𝗣𝗿𝗼𝗳𝗶𝗹 𝗿𝗲𝗰𝗵𝗲𝗿𝗰𝗵𝗲́ * Maîtrise avancée Microsoft 365 : Teams, SharePoint, OneDrive, Viva * Automatisation via Power Platform et scripting PowerShell * Sécurité M365 : Conditional Access, MFA, DLP / Purview * Support N2/N3, gestion des incidents & changements, ITSM (ServiceNow) +8 ans d’expérience Autonome, structuré, orienté valeur Produit et gestion des lignes de Services Habitué aux environnements internationaux Grands Comptes On en parle cette semaine ? A vos CVs ! #M365 #Workplace #Freelance #Microsoft #DigitalWorkplace
Contractor job
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Published on
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 month
750 €
Paris, France
Hybrid
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Contractor job
QA Engineer / QA Automation – GenAI Platform
Published on
Generative AI
Karate
Postman
12 months
400-450 €
Boulogne-Billancourt, Ile-de-France
Hybrid
Dans le cadre du renforcement du dispositif QA d’une plateforme GenAI, nous recherchons un QA Engineer expérimenté , idéalement avec une première expérience en tests de solutions IA génératives . Vous interviendrez au sein d’une équipe orientée craftsmanship, performance et innovation , dans un environnement technique moderne (LangGraph, FastAPI, Kubernetes, MongoDB – Cloud GCP). Missions Tests & Qualité Rédiger, exécuter et automatiser les scénarios de tests. Contribuer aux tests API, E2E, non-régression et cahiers de recette. Prioriser les anomalies avec l’équipe produit et gérer le backlog (mode Scrum board). Participer à l’amélioration des processus QA au sein de l’équipe. Automatisation Implémenter et maintenir des scripts d’automatisation (Karate, Gatling ou équivalent interne). Intégration des tests dans la chaîne CI/CD. Suivi et reporting via Xray/Jira. IA / GenAI Testing Utiliser des outils d’IA pour générer des cas de test, analyser les résultats et identifier les tests pertinents. Prendre en compte les spécificités des systèmes IA : non-déterminisme, biais potentiels, hallucinations, limites des modèles. Contribuer aux bonnes pratiques d’évaluation et de fiabilité des modèles IA. Documentation & Suivi Maintenir la documentation QA et les bonnes pratiques. Reporter l’état des correctifs et interactions avec la chaîne support. Livrables Scripts d’automatisation (Karate / Gatling / outil interne). Tickets et reportings Xray/Jira. Documentation process & bonnes pratiques QA. Suivi des correctifs.
Job Vacancy
DATA Engineer Senior GCP-python
Published on
Gitlab
18 months
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Contractor job
Chef de projet référentiel Power BI- Nantes
Published on
Active Directory
JIRA
Microsoft Power BI
1 year
400-550 €
Nantes, Pays de la Loire
Hybrid
L’objectif de cette consultation est de maintenir un référentiel sous Power BI permettant de suivre l’utilisation et l’état des équipements déployés dans différents sites. Ce dispositif doit offrir une vision globale du parc matériel et des incidents associés. Il s’agira également de contribuer à la gestion des incidents, au suivi des déploiements et à la remontée des faits marquants. Environnement et conditions techniques Power BI Windows 10, Windows 11 et outils d’administration • Active Directory • Office 365, Teams • Jira
Job Vacancy
DATA ENGINEER GCP (480€ MAX)
Published on
Google Cloud Platform (GCP)
3 months
40k-81k €
370-480 €
Paris, France
Hybrid
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Job Vacancy
API / Integrations Engineer (TypeScript, Node.js, REST)
Published on
55k-90k €
Paris, France
Hybrid
En tant que API / Integrations Engineer (TypeScript, Node.js, REST), vous jouerez un rôle clé dans le développement et la maintenance de nos interfaces de programmation et intégrations logicielles. Vous serez directement intégré(e) au sein du département développement logiciel. Vos principales responsabilités seront : • Concevoir, développer et optimiser des API robustes et scalables. • Assurer l’intégration fluide des services internes et externes via des protocoles REST. • Collaborer étroitement avec les équipes produit, infrastructure et sécurité. • Veiller à la qualité du code, aux bonnes pratiques et à la documentation technique. • Participer à la veille technologique et aux propositions d’amélioration des processus.
Job Vacancy
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance
Published on
Databricks
Jenkins
Python
1 year
35k-49k €
360-430 €
Ile-de-France, France
Hybrid
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- Trusted Experts in Digital Asset Recovery
- How to Recover Stolen Cryptocurrency: Contact Mighty Hacker Recovery Expert +14042456415
- The Ultimate Guide to Choosing the Best Assessment Help
- New laptop for web development
- Late Payment Solution
- Assessment Help: The Best Academic Support for Consistent Performance
Jobs by city
Jobs by country
698 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k