The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 195 results.
Contractor job
Senior Data Engineer GCP MLOps
Published on
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 months
500-550 €
Paris, France
Hybrid
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Contractor job
Administrateur bases de données
Published on
Azure
Datadog
Google Cloud Platform (GCP)
1 year
Lille, Hauts-de-France
Hybrid
Nous recherchons un expert Base de donnée afin de compléter l'équipe Architectes Techniques de la direction Infrastructures et Technologies. La mission se déroulera sur un rythme de 2 à 3 jours par semaine. Les principales missions seront en collaboration avec notre partenaire infogéreur: - Concevoir les architecture Base de Données Oracle sur un environnement vmware (Standard Edition / Enterprise Edition) - Concevoir les mécanismes de réplication et de haute disponibilité et pour une autre partie concevoir l'architecture DRP - Mettre en place l'automatisation pour le déploiement de cette infrastructure Oracle (Infrastructure As Code) - Accompagner les équipes "applications" dans la résolution des incidents notamment de performance - Concevoir les solutions de monitoring Environnement Techniques: - Oracle - Offre PaaS DBsur Azure (PostgreSQL, Mysql, Mariadb, MangoDB) - Azure / GCP / OVH (Vmware) Des connaissances souhaitées dans ces technologies: - Terraform ou Vmware (Cloud Assmbly, Code Stream, Service Broker) - Datadog/Dynatrace/appdynamics/Splunk/Instana
Contractor job
Chef de Projet Technique DATA
Published on
Agile Method
BigQuery
Cloud
6 months
Paris, France
Hybrid
Dans le cadre de la modernisation de son écosystème Data et de la montée en charge de projets stratégiques Cloud, nous recherchons un Chef de Projet Technique confirmé spécialisé GCP. Vous interviendrez au sein d’une DSI Assurance mobilisée autour de l’industrialisation de ses usages Data et de l’accélération des livraisons sur la plateforme Cloud. Votre rôle Vous jouez un rôle clé dans la coordination technique, la structuration des travaux DATA sur GCP et le pilotage global de l’avancement du programme. Vos responsabilités • Piloter les projets Data hébergés sur Google Cloud Platform. • Coordonner les équipes techniques (Data, IT, Cloud, Transverse). • Assurer le suivi planning, risques, charges et dépendances. • Organiser et animer les comités projet / comités techniques. • Consolider les besoins techniques et suivre l’avancement des actions. • Garantir la qualité des livrables, la cohérence technique et la bonne circulation de l’information. • Veiller au respect des normes internes, bonnes pratiques Cloud et exigences de sécurité.
Job Vacancy
Architecte Solution
Published on
API
AWS Cloud
ETL (Extract-transform-load)
1 year
La Défense, Ile-de-France
Hybrid
Contexte de mission Renfort ponctuel suite au changement de poste de l’Architecte Solution Integration. Participation à un programme stratégique international visant à consolider et moderniser les solutions d’intégration data & applicatives du groupe. L’Architecte Solution Integration interviendra dans le cadre du programme stratégique de globalisation, rationalisation et modernisation des solutions d’intégration du groupe. Sous la responsabilité du Directeur Integration Platform et du manager de programme, il aura pour missions : Rôle & Responsabilités : Analyse & Cadrage Architecture & Design Authority Documentation & Gouvernance Innovation & Expertise
Contractor job
Ingénieur de production - N4 compétences DevOps, windows, openshift - STRASBOURG (H/F)
Published on
DevOps
Google Cloud Platform (GCP)
Openshift
12 months
400-420 €
Strasbourg, Grand Est
Hybrid
Espace Freelance recherche pour l'un de ses clients un : Ingénieur de production - N4 compétences DevOps, windows, openshift - STRASBOURG (H/F) Missions principales : Administrer les applications monétiques sur les environnements de production et hors production. Assurer les installations, mises en production et déploiements . Gérer les incidents applicatifs (diagnostic, résolution, escalade si nécessaire). Participer activement aux projets applicatifs et techniques . Contribuer à l’amélioration continue et à la fiabilité de la production. Intervenir potentiellement en astreinte , en soirée, nuit ou week-end selon les besoins.
Contractor job
Développeur Python/FastAPI/React h/f
Published on
FastAPI
Google Cloud Platform (GCP)
Python
3 months
400-580 €
Saint-Ouen-sur-Seine, Ile-de-France
Hybrid
Notre client recherche un(e) développeur(se) Full Stack confirmé(e) capable de renforcer l’UI, enrichir les fonctionnalités et contribuer à la montée en maturité technique du produit. Missions Développement full-stack (Python/FastAPI + React 18) Intégration des services Google Cloud : BigQuery, Firestore, Secret Manager Optimisation des performances (cache, requêtes, UX, frontend) Déploiements sur Cloud Run via Terraform Gestion IAM et configurations multi-environnements Amélioration continue de l’expérience utilisateur et participation à l’innovation du PoC
Job Vacancy
Lead Consultant Machine Learning Engineering H/F
Published on
GitLab CI
Google Cloud Platform (GCP)
Python
12 months
40k-45k €
600-680 €
Ile-de-France, France
Hybrid
En interaction avec les membres de l’équipe, vos missions consisteront à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Contractor job
Développeur java/GCP
Published on
Google Cloud Platform (GCP)
Java
1 year
Lille, Hauts-de-France
Hybrid
Objectif de la mission Contribuer activement au développement de nouvelles features et à l’évolution du socle technique de la plateforme, avec un focus sur les sujets Claim Management. L’objectif est d’améliorer la traçabilité, la qualité de traitement et la satisfaction client à travers des outils performants et fiables. --- Environnement technique - Langage principal : Java 17+ - Framework : Spring Boot / Spring Cloud - Cloud : Google Cloud Platform (GCP) - Cloud Run, Pub/Sub / BigQuery, Cloud Storage - CI/CD : GitHub Actions / GitHub Packages - Tests : JUnit, Playwright (E2E – un plus apprécié) - Observabilité :Datadog / Prometheus - Architecture : microservices / events / API REST - Communication : Kafka - Outils de collaboration : Jira, Confluence, Miro, Google Workspace - Data : Big Query, Power BI --- Responsabilités principales - Concevoir et développer des microservices Java robustes et maintenables. - Participer à la définition des API et contrats d’événements entre services (Kafka / REST). - Implémenter les nouvelles fonctionnalités autour du Claim Management (création, suivi, résolutions, SLA). - Contribuer à l’amélioration continue du code, de la qualité logicielle et des pipelines CI/CD. - Collaborer avec les Product Managers, les Tech Leads et les équipes Front / Ops pour garantir la cohérence fonctionnelle et technique. - Participer aux rituels agiles : sprint planning, revue, rétrospective, refinements. Profil recherché - Expérience confirmée (3 à 7 ans) en développement backend Java dans un contexte de microservices. - Bonne compréhension des architectures cloud-native et des principes de résilience et observabilité. - Capacité à évoluer dans un environnement distribué et collaboratif. - Esprit analytique, rigueur, sens du service et goût pour la qualité du code. Un plus apprécié : expérience sur des systèmes de gestion de tickets, réclamations ou workflow orienté “service client”. --- Durée & localisation - Démarrage : ASAP - Durée : 3 mois renouvelables - Localisation : Lille / Remote partiel possible (hybride)
Contractor job
Developpeur full stack nodejs/reactjs
Published on
Google Cloud Platform (GCP)
Kubernetes
Node.js
1 year
100-450 €
Lille, Hauts-de-France
Hybrid
Nos applications couvrent un périmètre fonctionnel et opérationnel large : Commerce (gestion des ventes et distribution) Back-office (création d’un catalogue d’offres) Administration de contrats et de sinistres. Objectifs et livrables Ta future contribution : Tu intègres une feature team agile travaillant sur un des projets de la V2. Tu conçois et développes de nouvelles fonctionnalités en collaboration avec l’équipe produit /métier Tu assures la qualité du code au sein de l’équipe grâce aux bonnes pratiques (code review, pair programming…). Tu es proactif·ve pour aider à la résolution de problématiques complexes. Tu conçois des applications intuitives, stables, évolutives, sécurisées et en déploiement continu.
Job Vacancy
Expert Big Data / Data Engineer Senior (H/F)
Published on
AWS Cloud
Big Data
Google Cloud Platform (GCP)
6 months
80k-85k €
500-550 €
Guyancourt, Ile-de-France
Hybrid
VOS RESPONSABILITES PRINCIPALES : Build – Modernisation & migrations Data Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP). Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs…). Travailler avec les architectes et les CloudOps sur les architectures distribuées. Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA . Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD). Animer ateliers, documentation et transfert de compétences. Run – Support N2/N3 & performance Résolution d’incidents techniques Big Data (HDFS, Spark, Kafka, Flink…). Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation. Montée de version, patching, maintenance préventive. Participation aux astreintes (rotation). Amélioration continue & fiabilisation des environnements critiques. Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).
Job Vacancy
Architecte / Tech Lead IA
Published on
AI
AWS Cloud
Azure
40k-65k €
Paris, France
Hybrid
Redlab cherche un Leader technique de l’Usine IA de son client Il définit l’architecture des solutions IA/ML/LLM, organise les équipes techniques, garantit sécurité, performance et conformité (RGPD, AI Act). Missions clés Piloter les équipes techniques IA (développeurs, data scientists, ingénieurs). Concevoir des architectures scalables (microservices, event-driven). Encadrer l’industrialisation IA/ML/LLM (MLOps, GPU, cloud). Optimiser les processus métiers (AS-IS / TO-BE, BPMN). Coordonner les parties prenantes (métier, DSI, RSSI).
Job Vacancy
Ingénieur DevOps (F/H)
Published on
Ansible
Dynatrace
Google Cloud Platform (GCP)
6 months
45k-58k €
500-590 €
Saint-Cloud, Ile-de-France
Hybrid
Passionné(e) par l’automatisation, l’Infrastructure as Code et le Cloud, vous souhaitez mettre vos compétences au service de projets d’envergure autour du digital et des nouvelles technologies ? Rejoignez une équipe DevOps au cœur de la transformation numérique d’un grand groupe international. Votre rôle : Vous interviendrez en tant qu’Ingénieur DevOps au sein d’une équipe dédiée à la transformation digitale du groupe. En collaboration avec le chapitre DevOps et le Product Owner, vous contribuerez à : - Automatiser le déploiement des composants et services via Terraform et Ansible. - Concevoir et maintenir les pipelines CI/CD sous GitLab CI. - Assurer le support opérationnel (RUN) et le monitoring de la plateforme. - Garantir la sécurité, la fiabilité et l’optimisation des coûts sur les environnements Cloud. - Documenter les infrastructures, les pipelines et les processus mis en place.
Job Vacancy
Data web analyst
Published on
Google Cloud Platform (GCP)
Microsoft Power BI
Microsoft SQL Server
1 year
43k-45k €
430-500 €
Ile-de-France, France
Hybrid
L’équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Prestations attendues : Déroulement des analyses : - Être à l’écoute et comprendre les besoins métier, - Proposer des méthodes et des axes d’analyses pertinents pour y répondre, - Tirer des enseignements et faire des recommandations en se basant sur les résultats de l’analyse - Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l’oral aux équipes métier - Communiquer régulièrement sur les résultats des analyses réalisées à l’ensemble de la direction Analyses pour enrichir l’animation et la stratégie éditoriales : - Profiling utilisateurs : par catégories de contenus, programmes, par chaines, par device … - Analyses de parcours : programmes ou catégories recrutants, fidélisants - Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation, … Analyses pour enrichir la stratégie produit : - Audit des données issues des nouvelles fonctionnalités - Analyse de l’usage des fonctionnalités, profiling - Analyse de l’impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement - Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus, … Dashboards : - Être référent sur les dashboards de connaissance utilisateurs - Garantir la maintenance et la bonne mise à jour des dashboards existants - Ajustement des existants (nouveaux indicateurs, modifications de calculs,…) - Être force de proposition sur les évolutions des dashboards existants - Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI - Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos, … Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : · Au moins 2 ans d’expérience sur des analyses de connaissance utilisateurs ou clients dans les secteurs de l’audiovisuel, du retail ou du ecommerce · Maîtrise avancée de SQL (au moins 2 ans d’expérience en SQL) · Maîtrise de Google Cloud Platform et maîtrise de Big Query · Connaissance de Power Bi · Connaissance des données issues de Piano Analytics · Connaissance de l’interface Piano Analytics · Connaissance de la mesure Mediametrie et des données Nielsen · Expérience dans le secteur audiovisuel sur des problématiques éditoriales · Expérience dans le secteur digital, ecommerce · Goût pour les contenus audiovisuels / vidéos · Capacité d’analyse, de synthétisation et de vulgarisation
Contractor job
Data Engineer Confirmé – GCP / DBT / Power BI
Published on
BigQuery
DBT
Google Cloud Platform (GCP)
3 months
100-430 €
Lille, Hauts-de-France
Hybrid
Nous recherchons un Data Engineer Confirmé pour intervenir chez l’un de nos clients dans le cadre de la mise en place et l’industrialisation d’une plateforme data moderne sur Google Cloud Platform . Missions principales : Conception et développement de pipelines de données sur GCP. Modélisation et transformation des données avec DBT / SQLMESH . Mise en place de dashboards et reporting via Power BI . Optimisation des performances et bonnes pratiques de CI/CD. Collaboration étroite avec les équipes Data, BI et métiers.
Contractor job
DATA ARCHITECT (GCP)
Published on
Apache Airflow
BigQuery
CI/CD
6 months
580-720 €
Ile-de-France, France
Hybrid
Dans le cadre du renforcement de sa Data Platform , l’un de nos clients grands comptes recherche un Architecte Data confirmé à senior pour accompagner ses équipes Data et garantir la cohérence, la performance et la scalabilité de l’architecture globale. Architecte Data – Environnement Cloud GCP Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists…), vous interviendrez en accompagnement transverse sur l’architecture de la plateforme Data et des dispositifs associés. Vos principales responsabilités : Définir et garantir la cohérence de la stack technique Data Assurer le respect des normes et standards d’architecture Mettre en place et sécuriser les contrats d’interface entre équipes Auditer l’architecture existante et proposer des axes d’amélioration Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions Participer aux tests et à l’intégration de nouvelles technologies 🛠️ Developer Experience & FinOps Contribution à l’écriture de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et la CI/CD Définition des standards de développement et de déploiement Mise en place du suivi budgétaire par équipe (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification et priorisation des optimisations de coûts Compétences recherchées 3 ans minimum d’expérience en tant qu’ Architecte Data Solide expertise en architecture Data & Cloud Excellente maîtrise des bonnes pratiques d’architecture Expérience en sécurisation des applications Cloud Environnement Google Cloud Platform (GCP) Maîtrise de BigQuery , Cloud Composer (Airflow) , Dataplex Langages Python et SQL Expérience avec Spark Expérience avec dbt Maîtrise de Terraform et Terragrunt
Job Vacancy
Data Engineer (H/F)
Published on
Big Data
Google Cloud Platform (GCP)
Python
1 year
40k-45k €
480-580 €
Paris, France
Hybrid
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
195 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k