The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 189 results.
Job Vacancy
Architecte Big Data GCP & Cloudera (H/F)
Published on
Cloudera
Google Cloud Platform (GCP)
1 year
55k-70k €
550-660 €
Ile-de-France, France
Hybrid
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Contractor job
Développement Grid/Cloud (C++/Python)
Published on
Bash
C/C++
Git
6 months
Paris, France
Hybrid
Contexte Intervention pour un grand compte financier au sein du pôle Pricing & Analytics – Global Market & Risks. Intégration dans une équipe transverse travaillant sur les librairies de valorisation pour les produits dérivés Equity. Environnement technique exigeant, stack hybride on-premise / cloud. Missions Participer à l'intégration d’un nouveau soft de distribution de calculs (ArmoniK) Accompagner les équipes IT Quants dans la migration de Datasynapse Réaliser des POC techniques Collaborer avec l’éditeur Aneo Contribuer aux sujets R&D (calcul GPU, mémoire) Maintenir et supporter les solutions en production (niveau 3) Compétences attendues Expertise en développement : C++, Python, Bash Très bonne maîtrise des environnements Grid & Cloud Expérience dans des contextes HPC (calculs distribués, Monte Carlo) Connaissances systèmes : Linux, Windows Maîtrise des outils DevOps : Git, Jenkins, XLR/XLD Anglais courant
Contractor job
Senior Data Engineer GCP MLOps
Published on
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 months
500-550 €
Paris, France
Hybrid
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Contractor job
Administrateur bases de données
Published on
Azure
Datadog
Google Cloud Platform (GCP)
1 year
Lille, Hauts-de-France
Hybrid
Nous recherchons un expert Base de donnée afin de compléter l'équipe Architectes Techniques de la direction Infrastructures et Technologies. La mission se déroulera sur un rythme de 2 à 3 jours par semaine. Les principales missions seront en collaboration avec notre partenaire infogéreur: - Concevoir les architecture Base de Données Oracle sur un environnement vmware (Standard Edition / Enterprise Edition) - Concevoir les mécanismes de réplication et de haute disponibilité et pour une autre partie concevoir l'architecture DRP - Mettre en place l'automatisation pour le déploiement de cette infrastructure Oracle (Infrastructure As Code) - Accompagner les équipes "applications" dans la résolution des incidents notamment de performance - Concevoir les solutions de monitoring Environnement Techniques: - Oracle - Offre PaaS DBsur Azure (PostgreSQL, Mysql, Mariadb, MangoDB) - Azure / GCP / OVH (Vmware) Des connaissances souhaitées dans ces technologies: - Terraform ou Vmware (Cloud Assmbly, Code Stream, Service Broker) - Datadog/Dynatrace/appdynamics/Splunk/Instana
Job Vacancy
Architecte Solution
Published on
API
AWS Cloud
ETL (Extract-transform-load)
1 year
La Défense, Ile-de-France
Hybrid
Contexte de mission Renfort ponctuel suite au changement de poste de l’Architecte Solution Integration. Participation à un programme stratégique international visant à consolider et moderniser les solutions d’intégration data & applicatives du groupe. L’Architecte Solution Integration interviendra dans le cadre du programme stratégique de globalisation, rationalisation et modernisation des solutions d’intégration du groupe. Sous la responsabilité du Directeur Integration Platform et du manager de programme, il aura pour missions : Rôle & Responsabilités : Analyse & Cadrage Architecture & Design Authority Documentation & Gouvernance Innovation & Expertise
Contractor job
Chef de Projet Technique DATA
Published on
Agile Method
BigQuery
Cloud
6 months
Paris, France
Hybrid
Dans le cadre de la modernisation de son écosystème Data et de la montée en charge de projets stratégiques Cloud, nous recherchons un Chef de Projet Technique confirmé spécialisé GCP. Vous interviendrez au sein d’une DSI Assurance mobilisée autour de l’industrialisation de ses usages Data et de l’accélération des livraisons sur la plateforme Cloud. Votre rôle Vous jouez un rôle clé dans la coordination technique, la structuration des travaux DATA sur GCP et le pilotage global de l’avancement du programme. Vos responsabilités • Piloter les projets Data hébergés sur Google Cloud Platform. • Coordonner les équipes techniques (Data, IT, Cloud, Transverse). • Assurer le suivi planning, risques, charges et dépendances. • Organiser et animer les comités projet / comités techniques. • Consolider les besoins techniques et suivre l’avancement des actions. • Garantir la qualité des livrables, la cohérence technique et la bonne circulation de l’information. • Veiller au respect des normes internes, bonnes pratiques Cloud et exigences de sécurité.
Contractor job
Ingénieur de production - N4 compétences DevOps, windows, openshift - STRASBOURG (H/F)
Published on
DevOps
Google Cloud Platform (GCP)
Openshift
12 months
400-420 €
Strasbourg, Grand Est
Hybrid
Espace Freelance recherche pour l'un de ses clients un : Ingénieur de production - N4 compétences DevOps, windows, openshift - STRASBOURG (H/F) Missions principales : Administrer les applications monétiques sur les environnements de production et hors production. Assurer les installations, mises en production et déploiements . Gérer les incidents applicatifs (diagnostic, résolution, escalade si nécessaire). Participer activement aux projets applicatifs et techniques . Contribuer à l’amélioration continue et à la fiabilité de la production. Intervenir potentiellement en astreinte , en soirée, nuit ou week-end selon les besoins.
Contractor job
Développeur Python/FastAPI/React h/f
Published on
FastAPI
Google Cloud Platform (GCP)
Python
3 months
400-580 €
Saint-Ouen-sur-Seine, Ile-de-France
Hybrid
Notre client recherche un(e) développeur(se) Full Stack confirmé(e) capable de renforcer l’UI, enrichir les fonctionnalités et contribuer à la montée en maturité technique du produit. Missions Développement full-stack (Python/FastAPI + React 18) Intégration des services Google Cloud : BigQuery, Firestore, Secret Manager Optimisation des performances (cache, requêtes, UX, frontend) Déploiements sur Cloud Run via Terraform Gestion IAM et configurations multi-environnements Amélioration continue de l’expérience utilisateur et participation à l’innovation du PoC
Job Vacancy
Lead Consultant Machine Learning Engineering H/F
Published on
GitLab CI
Google Cloud Platform (GCP)
Python
12 months
40k-45k €
600-680 €
Ile-de-France, France
Hybrid
En interaction avec les membres de l’équipe, vos missions consisteront à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Contractor job
Développeur java/GCP
Published on
Google Cloud Platform (GCP)
Java
1 year
Lille, Hauts-de-France
Hybrid
Objectif de la mission Contribuer activement au développement de nouvelles features et à l’évolution du socle technique de la plateforme, avec un focus sur les sujets Claim Management. L’objectif est d’améliorer la traçabilité, la qualité de traitement et la satisfaction client à travers des outils performants et fiables. --- Environnement technique - Langage principal : Java 17+ - Framework : Spring Boot / Spring Cloud - Cloud : Google Cloud Platform (GCP) - Cloud Run, Pub/Sub / BigQuery, Cloud Storage - CI/CD : GitHub Actions / GitHub Packages - Tests : JUnit, Playwright (E2E – un plus apprécié) - Observabilité :Datadog / Prometheus - Architecture : microservices / events / API REST - Communication : Kafka - Outils de collaboration : Jira, Confluence, Miro, Google Workspace - Data : Big Query, Power BI --- Responsabilités principales - Concevoir et développer des microservices Java robustes et maintenables. - Participer à la définition des API et contrats d’événements entre services (Kafka / REST). - Implémenter les nouvelles fonctionnalités autour du Claim Management (création, suivi, résolutions, SLA). - Contribuer à l’amélioration continue du code, de la qualité logicielle et des pipelines CI/CD. - Collaborer avec les Product Managers, les Tech Leads et les équipes Front / Ops pour garantir la cohérence fonctionnelle et technique. - Participer aux rituels agiles : sprint planning, revue, rétrospective, refinements. Profil recherché - Expérience confirmée (3 à 7 ans) en développement backend Java dans un contexte de microservices. - Bonne compréhension des architectures cloud-native et des principes de résilience et observabilité. - Capacité à évoluer dans un environnement distribué et collaboratif. - Esprit analytique, rigueur, sens du service et goût pour la qualité du code. Un plus apprécié : expérience sur des systèmes de gestion de tickets, réclamations ou workflow orienté “service client”. --- Durée & localisation - Démarrage : ASAP - Durée : 3 mois renouvelables - Localisation : Lille / Remote partiel possible (hybride)
Contractor job
Developpeur full stack nodejs/reactjs
Published on
Google Cloud Platform (GCP)
Kubernetes
Node.js
1 year
100-450 €
Lille, Hauts-de-France
Hybrid
Nos applications couvrent un périmètre fonctionnel et opérationnel large : Commerce (gestion des ventes et distribution) Back-office (création d’un catalogue d’offres) Administration de contrats et de sinistres. Objectifs et livrables Ta future contribution : Tu intègres une feature team agile travaillant sur un des projets de la V2. Tu conçois et développes de nouvelles fonctionnalités en collaboration avec l’équipe produit /métier Tu assures la qualité du code au sein de l’équipe grâce aux bonnes pratiques (code review, pair programming…). Tu es proactif·ve pour aider à la résolution de problématiques complexes. Tu conçois des applications intuitives, stables, évolutives, sécurisées et en déploiement continu.
Job Vacancy
Expert Big Data / Data Engineer Senior (H/F)
Published on
AWS Cloud
Big Data
Google Cloud Platform (GCP)
6 months
80k-85k €
500-550 €
Guyancourt, Ile-de-France
Hybrid
VOS RESPONSABILITES PRINCIPALES : Build – Modernisation & migrations Data Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP). Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs…). Travailler avec les architectes et les CloudOps sur les architectures distribuées. Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA . Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD). Animer ateliers, documentation et transfert de compétences. Run – Support N2/N3 & performance Résolution d’incidents techniques Big Data (HDFS, Spark, Kafka, Flink…). Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation. Montée de version, patching, maintenance préventive. Participation aux astreintes (rotation). Amélioration continue & fiabilisation des environnements critiques. Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).
Job Vacancy
Architecte / Tech Lead IA
Published on
AI
AWS Cloud
Azure
40k-65k €
Paris, France
Hybrid
Redlab cherche un Leader technique de l’Usine IA de son client Il définit l’architecture des solutions IA/ML/LLM, organise les équipes techniques, garantit sécurité, performance et conformité (RGPD, AI Act). Missions clés Piloter les équipes techniques IA (développeurs, data scientists, ingénieurs). Concevoir des architectures scalables (microservices, event-driven). Encadrer l’industrialisation IA/ML/LLM (MLOps, GPU, cloud). Optimiser les processus métiers (AS-IS / TO-BE, BPMN). Coordonner les parties prenantes (métier, DSI, RSSI).
Job Vacancy
Ingénieur DevOps (F/H)
Published on
Ansible
Dynatrace
Google Cloud Platform (GCP)
6 months
45k-58k €
500-590 €
Saint-Cloud, Ile-de-France
Hybrid
Passionné(e) par l’automatisation, l’Infrastructure as Code et le Cloud, vous souhaitez mettre vos compétences au service de projets d’envergure autour du digital et des nouvelles technologies ? Rejoignez une équipe DevOps au cœur de la transformation numérique d’un grand groupe international. Votre rôle : Vous interviendrez en tant qu’Ingénieur DevOps au sein d’une équipe dédiée à la transformation digitale du groupe. En collaboration avec le chapitre DevOps et le Product Owner, vous contribuerez à : - Automatiser le déploiement des composants et services via Terraform et Ansible. - Concevoir et maintenir les pipelines CI/CD sous GitLab CI. - Assurer le support opérationnel (RUN) et le monitoring de la plateforme. - Garantir la sécurité, la fiabilité et l’optimisation des coûts sur les environnements Cloud. - Documenter les infrastructures, les pipelines et les processus mis en place.
Contractor job
Architecte SRE - Sécurité & Réseau Cloud (IBM Cloud)
Published on
Azure
Google Cloud Platform (GCP)
IAM
6 months
Paris, France
Hybrid
Mission Principale : Vous êtes le garant de la posture de sécurité et de la connectivité de nos plateformes. Vous concevez une architecture "Security by Design" et "Zero Trust", en définissant les patterns de sécurité qui permettent à nos équipes de développer et d'opérer des services fiables et sécurisés à grande échelle. Vous déclinez les exigences de la Securité Fonctionnelle dans le SI Responsabilités Clés : Conception d'Architecture Sécurisée sur le Cloud IBM : Produire les HLD (High-Level Design) et les DAT (Dossier d'Architecture Technique) pour les briques de sécurité (IAM, PKI, gestion des secrets, etc.) et réseau (segmentation, peering, firewalling, WAF). Gestion des Identités et des Accès (IAM) : Définir et implémenter la stratégie de gestion des identités (humaines et machines), les politiques de moindres privilèges et les processus de revue des accès sur IBM Cloud et Keycloack. Gestion des flux Nord-Sud et Est-Ouest : Définir et implémenter une strategie des flux dans le SI entre les différentes applications/Layers Sécurité des Flux et Chiffrement : Établir les standards pour la sécurisation des flux réseaux (mTLS, VPN, etc.) et les politiques de chiffrement des données au repos et en transit. Infrastructure à Clés Publiques (PKI) : Piloter la stratégie de gestion du cycle de vie des certificats pour l'ensemble de nos services en s’appuyant sur Secret Manager ou Hashicorp Vault Patterns & Automatisation : Créer et maintenir les patterns d'architecture de sécurité réutilisables, notamment sous forme de modules IaC, en collaboration avec l'Architecte Infra. Test de Sécurité : Concevoir, planifier et superviser les campagnes de test de Sécurité, de l'hypothèse à l'analyse post-mortem, en collaboration avec les équipes SRE, de développement. Et l’Architecte Resilience IT et Chaos Engineering Veille et Conseil : Agir en tant qu'expert et conseiller auprès du Leader des Architectes Sécurité sur les menaces et les stratégies de mitigation.
Contractor job
Data Engineer Confirmé – GCP / DBT / Power BI
Published on
BigQuery
DBT
Google Cloud Platform (GCP)
3 months
100-430 €
Lille, Hauts-de-France
Hybrid
Nous recherchons un Data Engineer Confirmé pour intervenir chez l’un de nos clients dans le cadre de la mise en place et l’industrialisation d’une plateforme data moderne sur Google Cloud Platform . Missions principales : Conception et développement de pipelines de données sur GCP. Modélisation et transformation des données avec DBT / SQLMESH . Mise en place de dashboards et reporting via Power BI . Optimisation des performances et bonnes pratiques de CI/CD. Collaboration étroite avec les équipes Data, BI et métiers.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- Taxes and rules invoicing an American company from UK
- Key Topics and Preparation Strategies for the Salesforce Data Architect Certification
- Advice on starting up as a freelance
- What are the main phases of Game Development?
- most effective way to design responsive web pages ?
- How do you choose a good app development agency
Jobs by city
Jobs by country
189 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k