Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 719 résultats.
Freelance

Mission freelance
DataOps / Ops GCP

Publiée le
Ansible
BigQuery
Google Cloud Platform (GCP)

1 an
400-500 €
Paris, France
Télétravail partiel
Notre client, recherche un Ingénieur DataOps / Ops GCP confirmé (H/F) dans le cadre d'une longue mission. Renforcement de l’équipe Data dans le cadre d’un fort accroissement de la charge projet. Le consultant interviendra sur l’ensemble des environnements GCP en lien avec les équipes Architecture, Infra et Études. - Exploitation et mise en production des projets sur Google Cloud Platform (GCP) - Diagnostic, résolution d’incidents et suivi opérationnel quotidien - Définition et pilotage de plans d’actions pour améliorer la qualité de service, sécuriser la production et optimiser la productivité - Amélioration continue des performances des environnements GCP - Participation aux projets techniques et métiers : mise en place d’environnements, déploiements, automatisations - Contribution à l’industrialisation et à l’évolution des outils d’automatisation - Collaboration régulière avec les équipes Architecture - Rôle orienté delivery projet (pas de RUN centré)
Freelance
CDI
CDD

Offre d'emploi
Cloud GCP

Publiée le
Ansible
Argo CD
CI/CD

36 mois
Île-de-France, France
Télétravail partiel
Poste : Ingénieur Cloud GCP Contexte : Dans le cadre d’un projet stratégique pour le compte d’une banque de renom, nous recherchons un Ingénieur Cloud DevOps spécialisé GCP. Vous interviendrez sur la conception, le déploiement et l’optimisation de solutions d’infrastructure cloud sur Google Cloud Platform (GCP), avec un focus particulier sur l’industrialisation, l’automatisation et l’observabilité des environnements critiques. Missions principales : Concevoir des architectures cloud robustes, scalables et sécurisées, en tirant parti des services managés GCP ; Mettre en œuvre une démarche GitOps avec Flux CD pour gérer les déploiements applicatifs automatisés sur GKE ; Exploiter Config Connector et Config Controller pour la gestion déclarative des ressources GCP à travers Kubernetes ; Intégrer Crosstime pour orchestrer les environnements et assurer la traçabilité des changements d’infrastructure dans un cadre multi-projets ; Mettre en place une supervision avancée avec Dynatrace , en assurant la visibilité complète sur les performances applicatives et l’expérience utilisateur ; Automatiser le provisionnement d’infrastructure avec Terraform et Ansible ; Développer et maintenir des pipelines CI/CD performants avec GitLab CI, alignés aux standards de sécurité du secteur bancaire ; Orchestrer et gérer les conteneurs avec Kubernetes (GKE) et Docker ; Collaborer avec les équipes projets en environnement Agile pour garantir la fiabilité, la conformité et la résilience des solutions livrées.
Freelance
CDI

Offre d'emploi
Ingénieur GCP et devOps

Publiée le
CFT (Cross File Transfer)
CI/CD
Cloud

3 ans
40k-45k €
400-600 €
Paris, France
Télétravail partiel
Description de la mission Pour le compte d’un grand groupe du secteur bancaire , nous recherchons un(e) Ingénieur(e) cloud GCP & devOps afin de renforcer une équipe jeune, dynamique et en pleine expansion au sein de la Plateforme Data Groupe . Votre rôle : contribuer à la construction, l’industrialisation et la fiabilisation d’applications déployées sur Google Cloud Platform , dans un contexte stratégique autour de la data et de la transformation cloud. 🎯 Objectifs & Responsabilités Participer à la stratégie de développement de projets sur GCP . Contribuer à l’amélioration de l’automatisation et des chaînes CI/CD/CC . Gérer les flux de fichiers via des outils de type CFT . Assurer un support opérationnel auprès des utilisateurs internes. Prendre part aux projets techniques GCP du département. Administrer et suivre les environnements Hors-Production et Production . Garantir le bon fonctionnement des applications métiers . Traiter et résoudre les incidents de niveau 2 , incluant diagnostic et recommandations. Rédiger et maintenir la documentation technique et les procédures. Développer des scripts pour automatiser et optimiser les opérations.
Freelance

Mission freelance
Data Engineer/ Expert GCP

Publiée le
BigQuery
Cloud
Data science

12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Freelance
CDI

Offre d'emploi
Consultant GCP - Accompagnement Cloud

Publiée le
Google Cloud Platform (GCP)
Méthode Agile

2 ans
Paris, France
Télétravail partiel
Responsabilités principales 1. Accompagnement des projets dans GCP Faciliter l’adoption du cloud par les équipes projets. Aider les équipes à structurer leurs besoins techniques et fonctionnels pour l’intégration dans la LZ. S’assurer de la bonne préparation de leurs environnements et prérequis. 2. Animation & coordination Animer les réunions d’avancement, ateliers de cadrage, résolutions de blocages. Synchroniser les parties prenantes techniques et métiers. Prioriser les actions et organiser les chantiers. 3. Suivi opérationnel et pilotage Suivre les actions, dépendances, blocages, ordonnancement, charges. Maintenir un tableau de bord projet clair, à jour, structuré. Assurer une visibilité transverse sur les risques et points ouverts. 4. Support technique Participer aux ateliers techniques, clarifier les solutions possibles, orienter les choix. S’assurer que les projets respectent les standards sécurité, réseau, IAM, supervision. 5. Amélioration continue Produire bilans, synthèses d’itération, plans d’amélioration. Capitaliser sur les retours d’expérience.
Freelance

Mission freelance
DATA ARCHITECTE GCP

Publiée le
Google Cloud Platform (GCP)

3 mois
400-650 €
Paris, France
· Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation
Freelance

Mission freelance
Architecte Data GCP

Publiée le
Architecture
Google Cloud Platform (GCP)
Python

3 mois
620-700 €
Hauts-de-Seine, France
Nous recherchons un Architecte Data GCP senior pour accompagner une grande organisation française dans la structuration et l’évolution de sa Data Platform au sein d’équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, équipes techniques transverses…). Vos missions En tant qu’Architecte Data, vous interviendrez sur un périmètre stratégique incluant : Architecture Data Garantir la cohérence et la standardisation de la stack technique entre les différentes équipes. Auditer l’architecture existante et proposer des améliorations structurantes. Définir les contrats d’interface entre les équipes (data products / data mesh). Participer à l’introduction et aux tests de nouvelles technologies. Veille technologique continue sur les solutions Cloud & Data. Developer Experience Contribuer à la rédaction et à l’industrialisation de modules Terraform / Terragrunt. Accompagner les équipes dans la montée en compétence sur l’Infrastructure as Code. Définir les standards CI/CD applicables à l’ensemble des équipes Data. FinOps Suivi et contrôle du budget Data (multi-équipes). Mise en place d’outils de monitoring, alerting et optimisation des ressources. Identification et priorisation des optimisations de coûts Cloud.
Freelance
CDI

Offre d'emploi
Architecte Cloud GCP & DevOps

Publiée le
Google Cloud Platform (GCP)
Terraform

2 ans
Paris, France
Télétravail partiel
Responsabilités principales1. Ingénierie de la Landing Zone Concevoir, faire évoluer et maintenir les briques d'infrastructure GCP (IAM, réseau, sécurité, compute, services managés). Déployer et maintenir des environnements multiples : production, préproduction, projets, services partagés. 2. Infrastructure as Code & Automatisation Développer des modules Terraform modulaires, versionnés et documentés. Mettre en place des pipelines CI/CD automatisés (GitLab CI), incluant tests, scans de sécurité et contrôles de conformité. Créer des scripts d’automatisation (Python / Bash). 3. Sécurisation et conformité Mettre en œuvre IAM, durcissement réseaux/VM, gestion des clés, supervision sécurité. Produire les rapports de conformité et tableaux de bord de sécurité. Garantir la traçabilité et l’auditabilité de tous les déploiements. 4. Performance et FinOps Optimiser l’allocation des ressources et les coûts cloud. Suivre les consommations et proposer des recommandations d’optimisation. 5. Documentation & transfert de compétences Produire et maintenir les modes opératoires, guides Terraform, dossiers d’exploitation. Réaliser démonstrations techniques et ateliers de transfert de compétences.
Freelance

Mission freelance
data analyst GCP

Publiée le
BigQuery
Google Cloud Platform (GCP)

3 mois
100-400 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Freelance
CDI

Offre d'emploi
Ingénieur CloudOps / DevOps GCP – RUN, Incidents

Publiée le
Google Cloud Platform (GCP)
Terraform

2 ans
Paris, France
Responsabilités principales 1. Gestion des demandes et changements Traiter les demandes techniques, modifications d’infrastructure, évolutions de configuration. Enregistrer, analyser et planifier les changements en respectant les standards opérationnels. Rédiger comptes-rendus, documenter les opérations, produire les REX. 2. Gestion des incidents Diagnostiquer, résoudre et documenter les incidents sur le périmètre GCP. Analyser les causes racines et proposer des actions correctives. Gérer les escalades techniques et la communication vers les parties prenantes. 3. Supervision et intégration opérationnelle Configurer et maintenir alertes, métriques, logs (Cloud Monitoring, Logging, Dynatrace). Intégrer les nouveaux composants dans les systèmes de supervision, sécurité et journalisation. S’assurer que chaque brique est correctement surveillée et conforme aux référentiels internes. 4. Documentation opérationnelle Maintenir DEX, fiches réflexe, procédures incident/change. Garantir la qualité, l’exhaustivité et la mise à jour des documents d’exploitation. 5. Amélioration continue Identifier les optimisations possibles dans les processus RUN. Contribuer à la fiabilisation et l’industrialisation des opérations.
Freelance

Mission freelance
Ingénieur Cloud GCP - Habilitable & Certifié GCP & K8s

Publiée le
CI/CD
Cloud
Docker

6 mois
Paris, France
Télétravail partiel
Ingénieur Cloud GCP intervenant au sein d’un programme de migration on-premise vers Google Cloud dans un environnement Défense. Vous concevez et déployez des architectures GCP, administrez et optimisez des clusters GKE, développez des modules Terraform et contribuez à l’automatisation CI/CD. Vous collaborez avec les architectes pour définir les standards, sécuriser les environnements et documenter les bonnes pratiques. Le poste exige rigueur, autonomie et une habilitation en raison du contexte sensible.
Freelance
CDI

Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Freelance
CDI

Offre d'emploi
Lead Développeur Fullstack Vue.js /Node.js (H/F)

Publiée le
Google Cloud Platform (GCP)
Node.js
TypeScript

3 mois
40k-45k €
100-380 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte Dans le cadre d’un projet de refonte complète d’une application stratégique, nous recherchons un.e Lead Développeur.euse Front spécialisé.e Vue.js, disposant également de compétences solides en back-end Node.js / TypeScript. Le.la consultant.e interviendra au sein d’une équipe agile et jouera un rôle central dans l’orientation technique et la structuration du delivery. Missions Piloter les choix techniques sur la partie front Vue.js et contribuer aux développements. Intervenir sur le back-end (Node.js / TypeScript) pour garantir la cohérence globale de l’architecture. Participer à la conception, au design technique et à la revue de code. Encadrer et orienter une équipe de développeurs : bonnes pratiques, performance, qualité de code. Collaborer avec les équipes produit afin d’apporter une vision métier et challenger les besoins. Contribuer à la mise en place de pipelines, bonnes pratiques CI/CD et outillage du projet. Accompagner la migration et l’optimisation sur l’infrastructure cloud (GCP).
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
CDI

Offre d'emploi
Ingénieur Cloud GCP H/F

Publiée le

44k-47k €
Toulouse, Occitanie
Télétravail partiel
Ta mission En tant qu’Ingénieur Cloud spécialisé GCP, vous interviendrez sur l’exploitation avancée, l’évolution et l’industrialisation des environnements Cloud. Vos principales responsabilités seront : Participer aux évolutions des landing zones GCP et des infrastructures Cloud existantes. Contribuer à la mise en œuvre de solutions d’hybridation entre les environnements on-premise et GCP. Accompagner la transition des services vers des solutions Cloud de confiance. Assurer la relation opérationnelle avec Google Cloud et les autres providers. Intégrer et valider les nouveaux services Cloud au catalogue interne. Fournir un support technique avancé aux projets utilisant GCP. Collaborer avec l’équipe FinOps pour optimiser les consommations et maîtriser les coûts cloud.
CDI

Offre d'emploi
DevOps Senior pour projets IA (Google Cloud) (H/F)

Publiée le
DevOps
Elasticsearch
Gitlab

75015, Paris, Île-de-France
Télétravail partiel
Secteur Télécommunications - contrat CDI Contexte de la mission Dans un environnement orienté transformation, innovation et industrialisation des usages Data & IA, une direction informatique recherche un expert DevOps pour structurer, fiabiliser et industrialiser la chaîne de développement, de tests et d’observabilité d’une plateforme IA hébergée sur Google Cloud Platform. L’objectif 2026 : accélérer la production et l’intégration des produits d’intelligence artificielle au sein des processus métiers grâce à un outillage DevOps robuste, cohérent et exigeant. Objet de la prestation La mission couvre 4 volets majeurs , en étroite collaboration avec les équipes de développement et de pilotage de projets. 1. DevOps Réaliser un état des lieux complet de la chaîne DevOps et produire sa documentation. Proposer une cible d’architecture et de processus répondant aux enjeux d'automatisation, de qualité et de conformité au cadre Valentine Cloud. Contribuer à la mise en œuvre de la cible. Piloter et animer les travaux nécessaires pour atteindre cette cible. 2. Monitoring & Troubleshooting Proposer une architecture d’observabilité et les outils associés. Mettre en œuvre l’architecture et coordonner les contributions techniques. Former et accompagner développeurs, testeurs et chefs de projet à l’usage des outils d’observabilité. 3. Pilotage de l’activité Participer à la mise en place des dispositifs de suivi et de pilotage. Structurer un reporting clair et régulier. 4. Contribution à l’outillage « suivi d’activités » Participer aux ateliers, proposer des solutions et réaliser les actions DevOps nécessaires. Livrables attendus Documentation et proposition de cible DevOps (sous 4 semaines). Recommandations sur les outils de tests auto, qualité de code et pipeline. Plan de déploiement monitoring & dataviz (T1 2026). Contributions aux outils de pilotage (T1 2026). Compétences recherchées Indispensables : Expertise DevOps GitLab Elastic / Observabilité Atouts appréciés : Expérience IA sur Google Cloud Connaissance de l’écosystème Valentine Cloud
2719 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous