L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 890 résultats.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Offre d'emploi
Cloud GCP
Publiée le
Ansible
Argo CD
CI/CD
36 mois
Île-de-France, France
Télétravail partiel
Poste : Ingénieur Cloud GCP Contexte : Dans le cadre d’un projet stratégique pour le compte d’une banque de renom, nous recherchons un Ingénieur Cloud DevOps spécialisé GCP. Vous interviendrez sur la conception, le déploiement et l’optimisation de solutions d’infrastructure cloud sur Google Cloud Platform (GCP), avec un focus particulier sur l’industrialisation, l’automatisation et l’observabilité des environnements critiques. Missions principales : Concevoir des architectures cloud robustes, scalables et sécurisées, en tirant parti des services managés GCP ; Mettre en œuvre une démarche GitOps avec Flux CD pour gérer les déploiements applicatifs automatisés sur GKE ; Exploiter Config Connector et Config Controller pour la gestion déclarative des ressources GCP à travers Kubernetes ; Intégrer Crosstime pour orchestrer les environnements et assurer la traçabilité des changements d’infrastructure dans un cadre multi-projets ; Mettre en place une supervision avancée avec Dynatrace , en assurant la visibilité complète sur les performances applicatives et l’expérience utilisateur ; Automatiser le provisionnement d’infrastructure avec Terraform et Ansible ; Développer et maintenir des pipelines CI/CD performants avec GitLab CI, alignés aux standards de sécurité du secteur bancaire ; Orchestrer et gérer les conteneurs avec Kubernetes (GKE) et Docker ; Collaborer avec les équipes projets en environnement Agile pour garantir la fiabilité, la conformité et la résilience des solutions livrées.
Mission freelance
Data Engineer GCP
Publiée le
Google Cloud Platform (GCP)
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Data Engineer GCP Objectif global : Développer Data Engineer Google Plateforme Clermont-Ferrand Compétences techniques: GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques: Français Professionnel Impératif Anglais Professionnel Impératif Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme -- Nous recherchons un Data Engineer GCP Objectif global : Développer Data Engineer Google Plateforme Clermont-Ferrand Compétences techniques: GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques: Français Professionnel Impératif Anglais Professionnel Impératif Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme
Mission freelance
DATA ARCHITECT (GCP)
Publiée le
Apache Airflow
BigQuery
CI/CD
6 mois
580-720 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de sa Data Platform , l’un de nos clients grands comptes recherche un Architecte Data confirmé à senior pour accompagner ses équipes Data et garantir la cohérence, la performance et la scalabilité de l’architecture globale. Architecte Data – Environnement Cloud GCP Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists…), vous interviendrez en accompagnement transverse sur l’architecture de la plateforme Data et des dispositifs associés. Vos principales responsabilités : Définir et garantir la cohérence de la stack technique Data Assurer le respect des normes et standards d’architecture Mettre en place et sécuriser les contrats d’interface entre équipes Auditer l’architecture existante et proposer des axes d’amélioration Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions Participer aux tests et à l’intégration de nouvelles technologies 🛠️ Developer Experience & FinOps Contribution à l’écriture de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et la CI/CD Définition des standards de développement et de déploiement Mise en place du suivi budgétaire par équipe (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification et priorisation des optimisations de coûts Compétences recherchées 3 ans minimum d’expérience en tant qu’ Architecte Data Solide expertise en architecture Data & Cloud Excellente maîtrise des bonnes pratiques d’architecture Expérience en sécurisation des applications Cloud Environnement Google Cloud Platform (GCP) Maîtrise de BigQuery , Cloud Composer (Airflow) , Dataplex Langages Python et SQL Expérience avec Spark Expérience avec dbt Maîtrise de Terraform et Terragrunt
Offre d'emploi
Ingénieur DevOps - Cloud GCP H/F
Publiée le
12 mois
40k-55k €
380-460 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 jours 👉 Contexte client : Tu rejoins la DSI d’un acteur national majeur de la grande distribution, avec un SI d’envergure : plusieurs milliers de serveurs, des applications critiques et une stratégie multi-cloud ambitieuse. Dans ce cadre, tu intègres l’équipe en charge de la plateforme GCP centrale , véritable moteur de la transformation cloud. C’est elle qui définit les standards techniques et façonne le futur du SI. La Landing Zone sur laquelle tu interviendras est pensée pour scaler, absorber la croissance et évoluer en continu. Tu auras pour missions de : Concevoir et faire évoluer une Landing Zone GCP pensée pour tenir la charge à grande échelle. Collaborer étroitement avec le PO et les architectes Cloud pour définir les meilleurs choix techniques. Industrialiser et fiabiliser les déploiements (Terraform, CI/CD). Prendre part au Build comme au Run, dans une logique d’amélioration continue. Conseiller et challenger les équipes utilisatrices sur leurs choix techniques. Promouvoir les bonnes pratiques Cloud & Sécurité au sein de la DSI. Stack technique : GCP • Terraform • Git • Jenkins • Python • Cloud Armor • Security Command Center • Hashicorp Vault • Datadome • Cloudflare
Offre d'emploi
Ingénieur Cloud GCP H/F
Publiée le
44k-47k €
Toulouse, Occitanie
Télétravail partiel
Ta mission En tant qu’Ingénieur Cloud spécialisé GCP, vous interviendrez sur l’exploitation avancée, l’évolution et l’industrialisation des environnements Cloud. Vos principales responsabilités seront : Participer aux évolutions des landing zones GCP et des infrastructures Cloud existantes. Contribuer à la mise en œuvre de solutions d’hybridation entre les environnements on-premise et GCP. Accompagner la transition des services vers des solutions Cloud de confiance. Assurer la relation opérationnelle avec Google Cloud et les autres providers. Intégrer et valider les nouveaux services Cloud au catalogue interne. Fournir un support technique avancé aux projets utilisant GCP. Collaborer avec l’équipe FinOps pour optimiser les consommations et maîtriser les coûts cloud.
Mission freelance
DataOps / Ops GCP
Publiée le
Ansible
BigQuery
Google Cloud Platform (GCP)
1 an
400-500 €
Paris, France
Télétravail partiel
Notre client, recherche un Ingénieur DataOps / Ops GCP confirmé (H/F) dans le cadre d'une longue mission. Renforcement de l’équipe Data dans le cadre d’un fort accroissement de la charge projet. Le consultant interviendra sur l’ensemble des environnements GCP en lien avec les équipes Architecture, Infra et Études. - Exploitation et mise en production des projets sur Google Cloud Platform (GCP) - Diagnostic, résolution d’incidents et suivi opérationnel quotidien - Définition et pilotage de plans d’actions pour améliorer la qualité de service, sécuriser la production et optimiser la productivité - Amélioration continue des performances des environnements GCP - Participation aux projets techniques et métiers : mise en place d’environnements, déploiements, automatisations - Contribution à l’industrialisation et à l’évolution des outils d’automatisation - Collaboration régulière avec les équipes Architecture - Rôle orienté delivery projet (pas de RUN centré)
Mission freelance
Ingénieur SysOps AWS/GCP
Publiée le
Ansible
AWS Cloud
GitLab CI
3 ans
Île-de-France, France
Télétravail partiel
Support technique N3 des infrastructures Cloud AWS et GCP. Analyse, diagnostic et résolution des incidents de production. Réalisation et gestion des demandes : Demande de change en production Demande de droit. Rédaction et mise à jour des documentations des opérations de RUN : Rédaction de dossiers de process support. Rédaction de post-mortem généraux et/ou détaillés. Rédaction de documents en anglais à destination des équipes France et internationales. Correction des vulnérabilités et de l’obsolescence en production. Suivi de l’activité et montée en compétences des équipes internationales de RUN.
Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)
Publiée le
Ansible
Google Cloud Platform (GCP)
Helm
3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Contexte Rattaché à la Global Tech & Data Platform , domaine Voice of Customer . Support fonctionnel et technique sur le produit Datahub Pipelines (data engineering). Environnement Google Cloud Platform (GCP) . Missions principales Analyser et résoudre des incidents complexes. Identifier les incidents récurrents et proposer des solutions pérennes. Traiter les demandes de services et questions des utilisateurs internes. Collaborer avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents. Accompagner les nouveaux utilisateurs (onboarding). Contribuer à l’automatisation et à l’amélioration continue des produits. Documenter et partager les résolutions pour capitaliser. Compétences techniques requises Cloud Computing : GCP (Confirmé – impératif) Data Engineering : Confirmé – impératif Observabilité & Monitoring : Datadog (Confirmé – important), Prometheus, Grafana Infrastructure as Code & Automatisation : Terraform, Ansible, Helm, Kubernetes (Confirmé – important) Scripting : Python, Bash, Go Gestion des alertes : PagerDuty
Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)
Publiée le
Ansible
Datadog
Google Cloud Platform (GCP)
3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Attaché à la Global Tech & Data platform, dans le Domain Voice of Customer tu rejoins une équipe pluridisciplinaire d’assistance à nos clients internes (BU, plateformes, …) dont la mission principale est de prendre en charge toutes les sollicitations en provenance des utilisateurs de la Tech&Data (Incidents, demandes de services, questions). Tu seras rattaché directement à l'activité de l'un de nos produits de data engineering: Datahub Pipelines pour lequel nous avons besoin de support fonctionnel (compréhension du logiciel back et front), technique (comprendre et régler des problèmes d'implémentations, notamment dans la stack technique des produits digitaux via terraform). L'univers de développement est complètement encadré dans GCP. Missions principales : 🛠 Tu analyses et résous des incidents complexes 🔍 Tu identifies les incidents récurrents 🤝 Tu traites les demandes de services 🤝 Tu collabores avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents 🤝 Tu collabores avec l'équipe onboarding et advocacy pour l'accompagnement des nouveaux utilisateurs 📊 Tu contribues à l'automatisation et à l’amélioration continue du/des produits 📝 Tu documentes et partages nos résolutions pour capitaliser 2. Compétences techniques requises : ✅ Cloud Computing : GCP ✅ Observabilité & Monitoring : Datadog, Prometheus, Grafana, ✅ Automatisation & Infrastructure as Code : Terraform, Ansible, Helm, Kubernetes (K8s) ✅ Scripting : Python, Bash, Go ✅ Gestion des alertes : PagerDuty 3. Soft Skills recherchées : ⭐ Esprit analytique : Capacité à détecter rapidement des problèmes et à les résoudre efficacement. ⭐ Proactivité & autonomie : Capacité à anticiper les incidents avant qu’ils n’impactent les services. ⭐ Collaboration : Travail en équipe avec les équipes produit ⭐ Sens du service client : la satisfaction de nos clients est ta priorité Un minimum de 2 jours sur site est exigé
Mission freelance
DATA ARCHITECTE GCP
Publiée le
Google Cloud Platform (GCP)
3 mois
400-650 €
Paris, France
· Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation
Mission freelance
data analyst GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 mois
100-400 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Offre d'emploi
Consultant Senior & Architecte GCP / S3NS
Publiée le
Architecture
Google Cloud Platform (GCP)
5 ans
Paris, France
Télétravail partiel
1. Accompagnement des projets Cloud Accompagner les projets applicatifs dans leur migration ou création sur GCP et S3NS Intervenir dès les phases amont : analyse de l’existant étude d’opportunité Cloud cadrage technico-fonctionnel définition des trajectoires cibles Concevoir des architectures Cloud détaillées Réaliser des études technico-économiques incluant une estimation des coûts et du ROI Accompagner les équipes projets jusqu’à la mise en œuvre effective (support à l’implémentation, validation des choix techniques) 2. Architecture / expertise Cloud Concevoir et challenger des architectures GCP et S3NS conformes aux exigences de sécurité et de conformité Prototyper des solutions sur des environnements d’expérimentation Apporter un regard d’expert sur : les choix de services managés les patterns d’architecture Cloud la résilience et la haute disponibilité les mécanismes de sécurité et d’isolement Produire et maintenir des bonnes pratiques d’architecture (standards, patterns, guidelines) 3. Évolution des landing zones / socles Cloud Étudier et proposer des évolutions des LZ GCP et S3NS Contribuer à : l’ouverture de nouveaux services Cloud l’amélioration des mécanismes de sécurité l’automatisation des déploiements la simplification des parcours projets Suivre la mise en œuvre des évolutions et, le cas échéant, participer aux phases de recette S’inscrire dans une logique de construction de socles Cloud pérennes et industrialisés 4. Pilotage, coordination & communication S’intégrer dans une organisation agile (rituels, comités, ateliers techniques) Maintenir une communication fluide avec les équipes projets, les équipes Cloud et les parties prenantes sécurité Assurer un suivi rigoureux des activités (tableaux de bord, reporting, indicateurs) Produire des comptes rendus clairs et exploitables , dans les délais attendus
Mission freelance
LEAD DATA SCIENTIST GCP (550 MAX)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Île-de-France, France
Télétravail partiel
Pilotage Technique & Architecture : Concevoir l'architecture des briques algorithmiques (Clustering, Prévision de ventes, Optimisation sous contraintes) sur GCP. ● Développement algorithmique (Hands-on) : Coder les modèles complexes, notamment l'algorithme d'optimisation (Recherche Opérationnelle) pour respecter les contraintes magasins (linéaire, supply, mix marge/CA). ● Coaching & Code Quality : En support éventuel de notre Lead Data Scientist interne, encadrer les Data Scientists séniors, garantir les bonnes pratiques (CI/CD, DVC, Tests) et l'industrialisation via Airflow/Composer. ● Mesure de la performance : Mettre en place des méthodologies robustes (ex: Causal Impact) pour mesurer les gains business (CA/Marge) post-déploiement. ● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery et une bonne connaissance des bases de données SQL/NoSQL (PostgreSQL, MongoDB, DBL…). ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Connaissance des architectures data modernes (Data Lake, Data Warehouse) et des environnements Cloud (GCP, AWS, Azure). ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Compréhension des principes DevOps, avec une vision orientée fiabilité et amélioration continue. ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog
Offre d'emploi
Architecte Cloud GCP & DevOps
Publiée le
Google Cloud Platform (GCP)
Terraform
2 ans
Paris, France
Télétravail partiel
Responsabilités principales1. Ingénierie de la Landing Zone Concevoir, faire évoluer et maintenir les briques d'infrastructure GCP (IAM, réseau, sécurité, compute, services managés). Déployer et maintenir des environnements multiples : production, préproduction, projets, services partagés. 2. Infrastructure as Code & Automatisation Développer des modules Terraform modulaires, versionnés et documentés. Mettre en place des pipelines CI/CD automatisés (GitLab CI), incluant tests, scans de sécurité et contrôles de conformité. Créer des scripts d’automatisation (Python / Bash). 3. Sécurisation et conformité Mettre en œuvre IAM, durcissement réseaux/VM, gestion des clés, supervision sécurité. Produire les rapports de conformité et tableaux de bord de sécurité. Garantir la traçabilité et l’auditabilité de tous les déploiements. 4. Performance et FinOps Optimiser l’allocation des ressources et les coûts cloud. Suivre les consommations et proposer des recommandations d’optimisation. 5. Documentation & transfert de compétences Produire et maintenir les modes opératoires, guides Terraform, dossiers d’exploitation. Réaliser démonstrations techniques et ateliers de transfert de compétences.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Passage sasu à eurl: transition mutuelle/prévoyance
- Décider quand on est freelance selon ses chiffres
- Résultat négatif veut dire CCA débiteur donc illégal ?
- Transfert d'activité - cession du fond de commerce
- Mise à jour info-retraite
1890 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois