L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 149 résultats.
Mission freelance
data analyst GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 mois
100-400 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
Architecte Cloud GCP – Freelance uniquement H/F
Publiée le
1 an
400-470 €
Toulouse, Occitanie
Ta mission Tu prendras en charge la conception, la mise en œuvre et l’optimisation de l’architecture Cloud d’une Data Factory moderne sur Google Cloud Platform. Ton objectif : garantir sécurité , performance , gouvernance , qualité des données et maîtrise des coûts (FinOps) . ️ Tes responsabilités Architecture Cloud & Data Concevoir et implémenter des architectures GCP robustes et sécurisées (VPC, IAM, interconnexions dédiées, VPC Service Controls). Mettre en place ou contribuer à des pipelines d’ingestion. Superviser le stockage optimisé (BigQuery) et la qualité des données. Infrastructure as Code Automatiser les déploiements via Terraform (modules, CI/CD, bonnes pratiques). Sécurité & Gouvernance Implémenter les standards de sécurité GCP (IAM avancé, chiffrement, audit, VPC SC). Intégrer les contraintes de sécurité bancaire. Garantir la conformité réglementaire (RGPD, hébergement en France). FinOps Déployer dashboards & alertes pour le suivi des coûts. Optimiser les ressources et proposer des stratégies de réduction des dépenses. Collaboration Travailler avec les équipes Data, SRE et Sécurité sur la mise à disposition des environnements. Former et accompagner les équipes sur les bonnes pratiques GCP.
Offre d'emploi
Data Engineer – Intégration & Cloud (GCP / BigQuery / Talend)
Publiée le
API REST
BigQuery
Microsoft Power BI
40k-45k €
Paris, France
Nous recherchons un Data Engineer pour intervenir sur un projet stratégique d’intégration et de valorisation de données au sein d’un environnement Cloud moderne. Le consultant interviendra sur la création, l’optimisation et la maintenance de pipelines data entre plusieurs plateformes internes, avec un fort niveau d’autonomie technique. Concevoir, développer et maintenir des flux de données entre différentes sources (API REST, Cloud, bases SQL). Mettre en place des traitements d’ingestion, transformation, normalisation et contrôle qualité des données. Développer et optimiser des pipelines dans GCP / BigQuery . Construire et maintenir des jobs Talend pour l’intégration et l’automatisation des traitements. Automatiser et industrialiser les workflows via des scripts Shell / Bash . Contribuer à la création et à l’optimisation de dashboards Power BI (KPI, dataviz). Garantir la qualité, la performance et la conformité des données. Documenter les flux, rédiger les spécifications et collaborer avec les équipes métiers et techniques. Versionner les développements via GitLab et respecter les bonnes pratiques CI/CD.
Offre d'emploi
Ingénieur Sécurité & Cloud GCP (H/F)
Publiée le
Git
IAM
Jenkins
24 mois
45k-55k €
450-550 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 jours 👉 Contexte client : Tu rejoins la DSI d’un acteur national majeur de la grande distribution, avec un SI d’envergure : plusieurs milliers de serveurs, des applications critiques et une stratégie multi-cloud ambitieuse. Dans ce cadre, tu intègres l’équipe responsable de la sécurisation de la plateforme GCP centrale, un pilier majeur de la transformation Cloud du groupe. L’enjeu : garantir une Landing Zone sécurisée, scalable et gouvernée, tout en contribuant à un fonctionnement Agile et collectif. Tu auras pour missions de : Renforcer et faire évoluer la sécurisation de la Landing Zone GCP (IAM, réseaux, gouvernance, conformité, VPC SC). Définir et mettre en œuvre les standards de sécurité Cloud avec les architectes et les experts SecOps. Automatiser les contrôles et déploiements via Terraform, CI/CD et intégration dans les pipelines. Participer aux activités Build & Run avec une logique d’amélioration continue et de sécurisation continue. Conseiller et challenger les équipes projets sur leurs choix techniques et leurs patterns de sécurité. Accompagner la sécurisation des environnements GKE / Kubernetes (politiques, réseau, durcissement). Contribuer à la validation technique collective des décisions pour l’équipe. Monter en compétence avec les autres membres (pairing, partage, revues, co-construction). Promouvoir un mindset Agile basé sur l’entraide, la transparence, et l’amélioration continue. Stack technique : GCP – GKE / Kubernetes – Terraform – Git – Jenkins – Python – Security Command Center – Cloud Armor – IAM – VPC Service Controls – CDN/Cloudflare – Hashicorp Vault – Datadome
Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP
Publiée le
Azure
Cloud
24 mois
325-650 €
Paris, France
Télétravail partiel
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Mission freelance
Data Engineer Expert données GCP
Publiée le
Databricks
GPS
SIG (Systèmes d'Information Géographique)
3 mois
Île-de-France, France
Télétravail 100%
📅 Démarrage : ASAP ⏳ Durée : 3 mois renouvelables 🔍 Nous recherchons un Data Engineer ayant une expérience indispensable sur des problématiques GPS pour renforcer immédiatement une équipe spécialisée. 🎯 Missions principales : ✅ Analyses et rapprochements de données GPS avec la voirie ✅ Détection, correction et nettoyage des points aberrants ✅ Rapprochement GPS ↔ adresses distribuées ✅ Analyse des parcours multi-mode (arrêts, transitions) ✅ Comparaison et analyse des trajectoires entre plusieurs journées
Offre d'emploi
Architecte Sécurité Cloud – Organisation Internationale / Cloud Publics / Sécurité Avancée H/F
Publiée le
AWS Cloud
Azure
Cloud
3 ans
40k-45k €
450-550 €
Paris, France
Télétravail partiel
🎯 Missions & Livrables1. Conception & déploiement de solutions de sécurité Définir des architectures de sécurité Cloud robustes (Zero Trust, IAM, segmentation, secrets…). Assurer le rôle de chef de projet : cadrage, budget, planning, reporting. Concevoir et déployer des solutions conformes aux politiques internes et normes globales. Documenter et maintenir le portefeuille de solutions de sécurité. Intégrer les tests / fonctionnalités de sécurité dans les projets d’infrastructure & cloud. 2. Secure by Design & accompagnement des projets Porter et promouvoir l’approche Secure by Design sur l’ensemble des initiatives. Réaliser des analyses de risques techniques et proposer des remédiations. Accompagner les équipes techniques dans la gestion des aspects sécurité. Définir, suivre et piloter les plans d’actions sécurité associés aux projets. 3. Définition des standards & conformité Contribuer à la création de politiques, standards et bonnes pratiques internes. Participer à l’automatisation des contrôles et au suivi de la conformité (CSPM, CIEM, indicateurs…). Appuyer la mise en conformité vis-à-vis des réglementations internationales, dont NIS2 . Participer à la veille technologique et à l’analyse des nouvelles menaces cyber.
Offre d'emploi
Expert Sécurité Cloud spécialisé en IAM H/F
Publiée le
AWS Cloud
CI/CD
Google Cloud Platform (GCP)
36 mois
50k-65k €
530-600 €
Paris, France
Télétravail partiel
Nous recherchons un expert Sécurité Cloud spécialisé en Identity and Access Management (IAM) pour intervenir sur un projet stratégique à l’échelle internationale. Intégré à une équipe d’experts sécurité, vous serez chargé d’auditer les configurations IAM existantes sur les environnements GCP, Azure et AWS, d’identifier les vulnérabilités, et de concevoir une stratégie IAM robuste et conforme aux standards de sécurité du groupe. Vous participerez à la mise en œuvre de contrôles via des outils tels que AWS SCP et GCP Deny Policy, tout en accompagnant les équipes projets dans la compréhension et l’adoption des bonnes pratiques IAM.
Mission freelance
DevOps Cloud GCP - Anthos
Publiée le
Ansible
Google Cloud Platform (GCP)
Kubernetes
12 mois
530-570 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de déploiement d’une plateforme Cloud Hybride basée sur Anthos et des infrastructures Edge , notre client recherche un Ingénieur DevOps Cloud pour renforcer l’équipe en charge de la mise en place, de l’industrialisation et du support des environnements Kubernetes du Dev à la Production. Vous interviendrez au sein de la Direction Plateforme & Cloud, en support du Product Leader Cloud, et jouerez un rôle clé dans la construction d’un environnement hybride innovant. Missions : 1. Déploiement & Exploitation Anthos / Kubernetes Mise en œuvre d’Anthos sur infrastructures Edge hybrides (on-prem + cloud public). Création, configuration et industrialisation de clusters Kubernetes (on-prem / cloud). Mise en place et maintenance des environnements Dev, Test, Pré-prod et Prod. 2. Automatisation & Infra-as-Code Automatisation des déploiements d’infrastructure via Terraform et Ansible . Contribution à la mise en place d’une approche GitOps. Standardisation et fiabilisation des processus CI/CD. 3. Documentation & Transfert de compétences Rédaction de documentation technique et opérationnelle. Accompagnement et montée en compétences des équipes internes (infrastructure & projets). 4. Support & Run Support N2/N3 sur la plateforme en production. Assistance aux équipes projets dans l’utilisation de Kubernetes / Anthos. Participation à l’amélioration continue de la plateforme.
Offre d'emploi
ML Ops
Publiée le
BigQuery
Google Cloud Platform (GCP)
MLOps
12 mois
40k-59k €
400-600 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Ops pour une grande entreprise internationale ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience en tant que ML Ops/Data Scientist ; tu maîtrises MLflow ou outils similaires ; tu as déjà travaillé dans un environnement GCP/BigQuery ; tu as un anglais professionnel. Tes missions … ✨ Définir et mettre en œuvre un cadre de bonnes pratiques ML Engineering (tests, qualité, versioning, monitoring…) ✨ Concevoir, construire et maintenir des modèles de Machine Learning en lien avec les Data Scientists ✨ Industrialiser les modèles via des pipelines de ré-entraînement, d’évaluation et de déploiement automatisés ✨ Contribuer à la roadmap produit ML : arbitrages techniques, exploration technologique, priorisation ✨ Développer des systèmes de monitoring en temps réel pour la supervision des modèles et des flux de données ✨ Enrichir la plateforme ML avec de nouveaux outils et composants (frameworks, patterns, modules d'observabilité…) ✨ Participer activement à la vie agile de l’équipe (rituels, pair programming, veille technologique) ✨ Porter les bonnes pratiques ML en transverse auprès des autres entités du groupe, en France et à l’international ✨ Accompagner les Data Scientists dans la montée en maturité technique, notamment sur les pratiques de software engineering ✨ Garantir la qualité du code produit et participer à son amélioration continue TT: 2 jours par semaine. Démarrage: rapide. Relation: CDI ou freelance. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
DBT
DevOps
Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Mission freelance
Devops AWS / GCP
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
12 mois
370-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un OPS Cloud Public / DevOps confirmé pour intervenir sur le cycle de vie applicatif, l’exploitation Cloud (AWS/GCP), la CI/CD, l’observabilité et la gestion des incidents/changes. Missions principales : Création & gestion de ressources natives Kubernetes / Cloud Accompagnement des équipes applicatives à l’usage des outils DevOps Bon accostage Dev → Cloud public via CI/CD (GitLab, Artifactory, Vault…) Définition des flux de logs, automatisation des tests & prérequis d’exploitation Mise en place de tests de sécurité (images, vulnérabilités, intrusion) Construction de l’observabilité, supervision & alerting (GCP/AWS) Provisionnement & déploiement IaC (Terraform, KCC) Gestion des changements : Prise en charge des requêtes ServiceNow jusqu’à clôture Analyse d’impact, préparation & autorisation des changements Contribution aux devis projets & respect des normes de production Coordination mise en production, validation DTA, supervision, consignes Incidents & problèmes : Gestion complète des incidents & communication client Coordination restauration service / SLA Production post-mortem + suivi plan d’actions Analyse des causes racines & actions pérennes Configuration & reporting : Gestion CMDB (CI) Reporting opérationnel & contribution aux comités Mise à jour documentation, DEX, DTA, référentiels
Mission freelance
PMO Transformation Cloud Hybride
Publiée le
AWS Cloud
Azure
Direction de projet
6 mois
800-1 200 €
Paris, France
Télétravail partiel
Orcan Intelligence recherche pour l’un de ses clients un PMO Transformation dans le cadre d’un projet de transformation Cloud Hybride ambitieuse Vos missions : Agir comme PMO de programme aux côtés du directeur de la transformation cloud (suivi planning, risques, budgets, dépendances, reporting comités). Piloter opérationnellement les streams de transformation liés à la plateforme d’ingénierie : cloud privé OpenShift, cloud public (GCP / Azure / AWS), outillage CI/CD, modèles de déploiement. Coordonner les équipes projet multi‑sites (Niort, Paris, Le Mans…) et les parties prenantes (architectes, équipes de développement, exploitation, sécurité). Contribuer, en tant que expert de l’hybridation d’architectures , à challenger les choix techniques 2/3‑tiers et les modèles de déploiement applicatif. Structurer et animer la gouvernance de la transformation : rituels, indicateurs de progrès, suivi des chantiers (build, migration, run). Préparer et consolider les livrables de pilotage : roadmaps, dashboards d’avancement, comptes‑rendus de comités, plans d’actions. Faciliter l’appropriation de la plateforme par les équipes de développement et d’hébergement (acculturation, accompagnement au changement).
Offre d'emploi
Ingénieur CloudOps / DevOps GCP – RUN, Incidents
Publiée le
Google Cloud Platform (GCP)
Terraform
2 ans
Paris, France
Responsabilités principales 1. Gestion des demandes et changements Traiter les demandes techniques, modifications d’infrastructure, évolutions de configuration. Enregistrer, analyser et planifier les changements en respectant les standards opérationnels. Rédiger comptes-rendus, documenter les opérations, produire les REX. 2. Gestion des incidents Diagnostiquer, résoudre et documenter les incidents sur le périmètre GCP. Analyser les causes racines et proposer des actions correctives. Gérer les escalades techniques et la communication vers les parties prenantes. 3. Supervision et intégration opérationnelle Configurer et maintenir alertes, métriques, logs (Cloud Monitoring, Logging, Dynatrace). Intégrer les nouveaux composants dans les systèmes de supervision, sécurité et journalisation. S’assurer que chaque brique est correctement surveillée et conforme aux référentiels internes. 4. Documentation opérationnelle Maintenir DEX, fiches réflexe, procédures incident/change. Garantir la qualité, l’exhaustivité et la mise à jour des documents d’exploitation. 5. Amélioration continue Identifier les optimisations possibles dans les processus RUN. Contribuer à la fiabilisation et l’industrialisation des opérations.
Mission freelance
Développeur Cloud GCP – Plateforme Données Non Structurées h/f
Publiée le
API
API REST
Google Cloud Platform (GCP)
6 mois
400-680 €
Clichy, Île-de-France
Télétravail partiel
Dans le cadre d’une initiative stratégique autour de la valorisation des données, notre client du secteur grands comptes souhaite renforcer son équipe IT pour la construction d’une plateforme transverse dédiée aux données non structurées (documents, images, vidéos, audio). Cette plateforme permettra : la récupération de médias depuis des sources internes, leur préparation (OCR, vision, transcription…), l’extraction de données via des algorithmes avancés, la vérification humaine ou algorithmique, la structuration dans un modèle commun s’appuyant sur une taxonomie consolidée, la mise à disposition des données pour les équipes métier et Data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3149 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois