L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 125 résultats.
Offre d'emploi
Consultant Senior & Architecte GCP / S3NS
Publiée le
Architecture
Google Cloud Platform (GCP)
5 ans
Paris, France
Télétravail partiel
1. Accompagnement des projets Cloud Accompagner les projets applicatifs dans leur migration ou création sur GCP et S3NS Intervenir dès les phases amont : analyse de l’existant étude d’opportunité Cloud cadrage technico-fonctionnel définition des trajectoires cibles Concevoir des architectures Cloud détaillées Réaliser des études technico-économiques incluant une estimation des coûts et du ROI Accompagner les équipes projets jusqu’à la mise en œuvre effective (support à l’implémentation, validation des choix techniques) 2. Architecture / expertise Cloud Concevoir et challenger des architectures GCP et S3NS conformes aux exigences de sécurité et de conformité Prototyper des solutions sur des environnements d’expérimentation Apporter un regard d’expert sur : les choix de services managés les patterns d’architecture Cloud la résilience et la haute disponibilité les mécanismes de sécurité et d’isolement Produire et maintenir des bonnes pratiques d’architecture (standards, patterns, guidelines) 3. Évolution des landing zones / socles Cloud Étudier et proposer des évolutions des LZ GCP et S3NS Contribuer à : l’ouverture de nouveaux services Cloud l’amélioration des mécanismes de sécurité l’automatisation des déploiements la simplification des parcours projets Suivre la mise en œuvre des évolutions et, le cas échéant, participer aux phases de recette S’inscrire dans une logique de construction de socles Cloud pérennes et industrialisés 4. Pilotage, coordination & communication S’intégrer dans une organisation agile (rituels, comités, ateliers techniques) Maintenir une communication fluide avec les équipes projets, les équipes Cloud et les parties prenantes sécurité Assurer un suivi rigoureux des activités (tableaux de bord, reporting, indicateurs) Produire des comptes rendus clairs et exploitables , dans les délais attendus
Mission freelance
Analytics Engineer Senior H/F
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
350-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur High-tech recherche un/une Analytics Engineer Senior H/F Description de la mission: Contexte : Le client déploie un programme stratégique pour fiabiliser et industrialiser ses métriques business. Il recherche un Senior Analytics Engineer Freelance pour piloter la conception et le POC d’un Semantic Layer destiné à +500 utilisateurs internes. Mission : 1. Semantic Layer (mission prioritaire) Concevoir et prototyper l’architecture du Semantic Layer (dbt + BigQuery + GCP). Standardiser et documenter les métriques business clés. Définir une source unique de vérité pour tous les outils analytics (Tableau, BigQuery, GSheets, LLMs…). Intégrer le Semantic Layer aux usages IA (LLM). Produire la documentation technique et les bonnes pratiques. 2. Pipeline Analytics Maintenir et optimiser le pipeline existant (dbt + BI). Développer nouvelles features (qualité, documentation, monitoring). Résoudre incidents & data quality issues. Optimiser coûts et performances BigQuery. Support ponctuel aux équipes internes (code review, mentoring junior). Administration BI (gestion utilisateurs & permissions). Profil recherché : 5+ ans en Analytics Engineering / Data Engineering. Expertise dbt (modélisation, tests, docs) & SQL avancé. Très bonne maîtrise BigQuery (optimisation, coûts). Expérience démontrée Semantic Layer / Metrics Layer (dbt metrics, LookML, Cube.js…). Expérience BI (Tableau, Looker…). Bonus : GCP, modélisation dimensionnelle.
Offre d'emploi
Data Engineer H/F
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer pour rejoindre une équipe Data moderne et orientée traitement de données volumétriques. Vous participerez au design, à la mise en place et à l’optimisation des pipelines de données. Missions : Développement de pipelines ETL / ELT Modélisation et structuration de data warehouses / data lakes Optimisation des performances et qualité des données Participation à la mise en place de frameworks DataOps Collaboration étroite avec Data Analysts / Data Scientists
Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP
Publiée le
Azure
Cloud
24 mois
325-650 €
Paris, France
Télétravail partiel
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Offre d'emploi
Data Engineer
Publiée le
BigQuery
Docker
Domain Driven Design (DDD)
1 an
10k-60k €
100-550 €
France
Télétravail partiel
Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data
Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Offre d'emploi
Ingénieur Cloud GCP H/F
Publiée le
44k-47k €
Toulouse, Occitanie
Télétravail partiel
Ta mission En tant qu’Ingénieur Cloud spécialisé GCP, vous interviendrez sur l’exploitation avancée, l’évolution et l’industrialisation des environnements Cloud. Vos principales responsabilités seront : Participer aux évolutions des landing zones GCP et des infrastructures Cloud existantes. Contribuer à la mise en œuvre de solutions d’hybridation entre les environnements on-premise et GCP. Accompagner la transition des services vers des solutions Cloud de confiance. Assurer la relation opérationnelle avec Google Cloud et les autres providers. Intégrer et valider les nouveaux services Cloud au catalogue interne. Fournir un support technique avancé aux projets utilisant GCP. Collaborer avec l’équipe FinOps pour optimiser les consommations et maîtriser les coûts cloud.
Offre d'emploi
Lead Développeur Fullstack Vue.js /Node.js (H/F)
Publiée le
Google Cloud Platform (GCP)
Node.js
TypeScript
3 mois
40k-45k €
100-380 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte Dans le cadre d’un projet de refonte complète d’une application stratégique, nous recherchons un.e Lead Développeur.euse Front spécialisé.e Vue.js, disposant également de compétences solides en back-end Node.js / TypeScript. Le.la consultant.e interviendra au sein d’une équipe agile et jouera un rôle central dans l’orientation technique et la structuration du delivery. Missions Piloter les choix techniques sur la partie front Vue.js et contribuer aux développements. Intervenir sur le back-end (Node.js / TypeScript) pour garantir la cohérence globale de l’architecture. Participer à la conception, au design technique et à la revue de code. Encadrer et orienter une équipe de développeurs : bonnes pratiques, performance, qualité de code. Collaborer avec les équipes produit afin d’apporter une vision métier et challenger les besoins. Contribuer à la mise en place de pipelines, bonnes pratiques CI/CD et outillage du projet. Accompagner la migration et l’optimisation sur l’infrastructure cloud (GCP).
Offre d'emploi
DevOps Senior pour projets IA (Google Cloud) (H/F)
Publiée le
DevOps
Elasticsearch
Gitlab
75015, Paris, Île-de-France
Télétravail partiel
Secteur Télécommunications - contrat CDI Contexte de la mission Dans un environnement orienté transformation, innovation et industrialisation des usages Data & IA, une direction informatique recherche un expert DevOps pour structurer, fiabiliser et industrialiser la chaîne de développement, de tests et d’observabilité d’une plateforme IA hébergée sur Google Cloud Platform. L’objectif 2026 : accélérer la production et l’intégration des produits d’intelligence artificielle au sein des processus métiers grâce à un outillage DevOps robuste, cohérent et exigeant. Objet de la prestation La mission couvre 4 volets majeurs , en étroite collaboration avec les équipes de développement et de pilotage de projets. 1. DevOps Réaliser un état des lieux complet de la chaîne DevOps et produire sa documentation. Proposer une cible d’architecture et de processus répondant aux enjeux d'automatisation, de qualité et de conformité au cadre Valentine Cloud. Contribuer à la mise en œuvre de la cible. Piloter et animer les travaux nécessaires pour atteindre cette cible. 2. Monitoring & Troubleshooting Proposer une architecture d’observabilité et les outils associés. Mettre en œuvre l’architecture et coordonner les contributions techniques. Former et accompagner développeurs, testeurs et chefs de projet à l’usage des outils d’observabilité. 3. Pilotage de l’activité Participer à la mise en place des dispositifs de suivi et de pilotage. Structurer un reporting clair et régulier. 4. Contribution à l’outillage « suivi d’activités » Participer aux ateliers, proposer des solutions et réaliser les actions DevOps nécessaires. Livrables attendus Documentation et proposition de cible DevOps (sous 4 semaines). Recommandations sur les outils de tests auto, qualité de code et pipeline. Plan de déploiement monitoring & dataviz (T1 2026). Contributions aux outils de pilotage (T1 2026). Compétences recherchées Indispensables : Expertise DevOps GitLab Elastic / Observabilité Atouts appréciés : Expérience IA sur Google Cloud Connaissance de l’écosystème Valentine Cloud
Mission freelance
Web / Data Analyst Piano Analytics H/F/NB
Publiée le
Analyse
Google Cloud Platform (GCP)
Microsoft Power BI
210 jours
400-580 €
Île-de-France, France
Télétravail partiel
Leader des médias français , notre client recherche un Data Analyst expérimenté pour accompagner la transformation digitale de ses offres numériques. Rejoignez la Direction Data et contribuez à faire de la donnée un levier stratégique de croissance. 🚀 Vos missions : Pilotage & Reporting Créer et automatiser des dashboards Power BI pour les équipes Growth (CRM, Acquisition, Social) Recueillir les besoins métier et rédiger les cahiers des charges techniques Superviser la qualité des données et optimiser les performances des rapports existants Analyse & Insights Analyser les données Piano Analytics, Nielsen/eStat Streaming Étudier les parcours utilisateurs et la consommation vidéo (Web/App/TV) Produire des analyses mensuelles et recommandations actionnables Collaborer avec l'équipe Études pour approfondir la connaissance utilisateur Formation & Accompagnement Former et coacher les équipes internes sur Piano Analytics et les outils d'analyse Sensibiliser à l'intégration de la data dans les processus de décision Vulgariser les concepts techniques pour des équipes non-techniques Stratégie Data Définir et harmoniser les KPIs transverses pour les équipes Growth, Produit et Métiers Spécifier les prérequis de tracking pour les analyses futures Contribuer au déploiement du marqueur interne sur de nouveaux produits
Mission freelance
Architecte Technique Réseaux Cloud (GCP) – Network Security & Availability
Publiée le
Architecture
Google Cloud Platform (GCP)
IAC
3 ans
160-550 €
Lille, Hauts-de-France
Missions principales Conception & architecture : définir les architectures et standards des environnements réseau (on‑prem et cloud), en cohérence avec l’urbanisme SI et l’existant Produits self‑service & automatisation : concevoir des API et outillages pour automatiser les changements (infra as code, pipelines), afin de délivrer des produits réseau self‑service Run & support N3 : assurer le support de niveau 3 sur des problèmes réseau complexes, contribuer au run et à l’amélioration continue de la disponibilité et de la sécurité Industrialisation & automatisation des opérations récurrentes (scripts, modules Terraform, Python). Gouvernance & référentiels techniques : définir/tenir à jour le référentiel (outils, procédures, normes, sécurité) et standards techniques réseau. Études & préconisations : analyser l’impact des nouvelles solutions, préconiser des choix techniques , organiser la veille et promouvoir les bonnes pratiques d’architecture auprès des équipes
Mission freelance
Administrer moteurs bases de données et plateformes data
Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL
1 an
370-390 €
Tours, Centre-Val de Loire
Télétravail partiel
Missions principales L’ingénieur de Production data assure : L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. La gestion des incidents et participe à la résolution des problèmes Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) Maintien en conditions opérationnelles des plateformes Suivi et amélioration des performances (mémoire, disques, index, requêtes), Stratégies de sauvegarde, restauration et supervision La gestion des accès et création des comptes autorisés à se connecter aux plateformes De la veille technologique La gestion documentaire du périmètre Astreinte
Mission freelance
Senior GCP Cloud Engineer - Génie Civile - Full Remote (H/F)
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
6 mois
500-550 €
Toulouse, Occitanie
Télétravail 100%
Grand groupe dans le secteur GENIE CIVIL, rejoignez une équipe tech ambitieuse en tant que Senior GCP Cloud Engineer le déploiement de deux nouveaux projets pour concevoir, automatiser et maintenir l’infrastructure cloud de notre plateforme sur GCP. Vous jouerez un rôle central dans l’implémentation de solutions scalables et robustes à travers Terraform, Terragrunt, Python, chaîne DevOps avec github et Jenkins. Mission longue durée à pourvoir début janvier 2026. Missions - Développer, déployer et optimiser des Landing Zones sur GCP pour de nouveaux projets stratégiques. - Collaborer étroitement avec les équipes de DevOps pour intégrer des solutions automatisées avec Terraform et Terragrunt. - Assurer le support et la formation des équipes internes ainsi que des clients sur les meilleures pratiques et innovations de GCP. - Gérer les permissions IAM et la configuration VPC-SC afin de garantir l'intégrité et la sécurité de l'environnement cloud. - Interagir régulièrement avec les stakeholders pour comprendre et répondre aux besoins commerciaux et techniques. - Documenter les processus et partager les bonnes pratiques au sein de l'entreprise. - Participer à des sessions de formation pour contribuer à l'évolution technique de l'équipe.
Offre d'emploi
Ingénieur DevOps - Cloud GCP H/F
Publiée le
12 mois
40k-55k €
380-460 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 jours 👉 Contexte client : Tu rejoins la DSI d’un acteur national majeur de la grande distribution, avec un SI d’envergure : plusieurs milliers de serveurs, des applications critiques et une stratégie multi-cloud ambitieuse. Dans ce cadre, tu intègres l’équipe en charge de la plateforme GCP centrale , véritable moteur de la transformation cloud. C’est elle qui définit les standards techniques et façonne le futur du SI. La Landing Zone sur laquelle tu interviendras est pensée pour scaler, absorber la croissance et évoluer en continu. Tu auras pour missions de : Concevoir et faire évoluer une Landing Zone GCP pensée pour tenir la charge à grande échelle. Collaborer étroitement avec le PO et les architectes Cloud pour définir les meilleurs choix techniques. Industrialiser et fiabiliser les déploiements (Terraform, CI/CD). Prendre part au Build comme au Run, dans une logique d’amélioration continue. Conseiller et challenger les équipes utilisatrices sur leurs choix techniques. Promouvoir les bonnes pratiques Cloud & Sécurité au sein de la DSI. Stack technique : GCP • Terraform • Git • Jenkins • Python • Cloud Armor • Security Command Center • Hashicorp Vault • Datadome • Cloudflare
Offre d'emploi
Data Scientist
Publiée le
Google Cloud Platform (GCP)
Machine Learning
1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3125 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois