Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 430 résultats.
Freelance

Mission freelance
[FBO] Architecte Réseau Sécurité - Orléans - 1316

ISUPPLIER
Publiée le

8 mois
400-470 €
Orléans, Centre-Val de Loire
Réalisation d’études complexes permettant de définir les solutions adéquates de sécurité en terme de réponse aux besoins déclinées de la direction informatique, de faisabilité, de performance, de risques et de coûts. • Elaboration et présentation des dossiers de décision associés auprès des instances de gouvernance. • Elaboration des cahiers des charges techniques, en lien avec les acheteurs, contribution au choix de prestataires / fournisseurs. • Supervision et coordination de la mise en œuvre et l’administration des architectures matérielles et logicielles (systèmes, outils et architectures de sécurité), notamment par le pilotage de chantiers/projets techniques • Définition des règles de bonne gestion, des indicateurs clés des infrastructures et solution de sécurité • Contribution à la mise en œuvre et à la gestion du référentiel technique des infrastructures et solution de sécurité • En escalade des équipes d’administration, gestion des incidents complexes et nouveaux en lien avec des interlocuteurs internes / externes (éditeurs...). Coordination des actions de remise en service et de mise en œuvre des mesures correctives. • Réalisation du transfert de compétences et de l'assistance technique sur son périmètre. Pour votre information, voici l’environnement technologique du service : Compétences indispensables en rouge Switch et routeurs Cisco/Alcatel/Fortinet* SDN ACI* SDWAN (FW, QoS) Fortinet* WIFI HPE Aruba* FW Palo Alto, Fortinet* Services Telecom OBS BVPN/BTIP/BES2/Galerie* ADC F5 et Citrix/Netscaler* Radius Clearpass* QoS Extreme/Ipanema & Streamcore et Fortinet* Automatisation Ansible et Terraform(Développement Python)* Compétences de déploiement dans les Cloud AWS/GCP/Azur
Freelance

Mission freelance
Dev Fullstack React / Python

SEDONA SVP
Publiée le
Python
React

1 an
400-550 €
Clichy, Île-de-France
Présentation de la mission En tant que Développeur Web Full Stack Senior, vous rejoindrez l’équipe de Transformation Finance Groupe afin d’intégrer l’équipe de développement en charge de nos applications web data sur mesure. Il s’agit d’un poste à fort impact, centré sur le développement, destiné à un expert spécialisé dans la conception de la « couche interface » de produits data complexes. Vous serez responsable de la transformation de besoins financiers complexes en applications et interfaces web performantes, scalables et sécurisées. Vous ferez le lien entre les données brutes stockées dans BigQuery et l’expérience utilisateur finale, en intégrant des analyses Looker (et Power BI) et en développant des fonctionnalités interactives personnalisées. Vous n’êtes pas simplement un « développeur web » : vous êtes un ingénieur logiciel conscient que la donnée est au cœur de l’application. 80 % DE FRONT à faire Responsabilités principales Développement d’applications web sur mesure : Concevoir et développer des applications web responsives et fortement orientées données en utilisant React et Python. Concevoir des filtres avancés et des composants UI personnalisés interagissant dynamiquement avec les couches de données. Analytique embarquée & orchestration d’API : Piloter l’intégration de Looker dans les applications web via les SDK et API Looker. Être garant d’une expérience « Looker-as-a-Service » fluide, en assurant une communication parfaite entre l’interface utilisateur et la couche analytique. Backend & intégration des données : Développer des services backend robustes en Python pour gérer l’orchestration des données, l’authentification des utilisateurs et la gestion des API. Optimiser les échanges entre le frontend et Google BigQuery. Infrastructure cloud & déploiement : Gérer le cycle de vie des applications sur Google Cloud Platform (GCP), en assurant des déploiements conformes aux bonnes pratiques en matière de performance, sécurité et scalabilité (Cloud Run, App Engine, etc.). Sécurité & gouvernance : Mettre en œuvre des protocoles de sécurité stricts (SSO, OAuth, IAM) pour le traitement de données financières sensibles du groupe, en garantissant la persistance de la sécurité au niveau des lignes (Row Level Security – RLS) de la couche data jusqu’à l’interface web. Philosophie « Software First » : Maîtriser le contrôle de version (Git) et les principes CI/CD. Appliquer les principes DRY (Don’t Repeat Yourself) et d’architecture atomique pour les composants frontend. Privilégier la maintenabilité et une architecture propre plutôt que des solutions rapides et peu robustes. Esprit d’innovation : Agir en tant qu’ambassadeur de l’IA. Utiliser de manière proactive des outils GenAI (ex. : Cursor, Claude Code, Gemini, Copilot, Figma Make, etc.) pour accélérer le développement, optimiser le code et explorer l’intégration future des LLM dans les interfaces data. Profil et compétences requis Formation : Diplôme de niveau Master en informatique, génie logiciel ou domaine technique équivalent. Une base solide de développeur est indispensable. Expérience professionnelle : Minimum 5 ans d’expérience en développement Full Stack, avec des réalisations avérées dans la conception d’applications data-driven en environnement grand compte. Stack technique principale : Frontend : Maîtrise experte de React.js et JavaScript/TypeScript. Excellente compréhension de la gestion d’état et du développement de composants UI personnalisés. Backend : Très forte expertise en Python pour la création d’API scalables. GCP / BigQuery / SQL : Maîtrise avancée de SQL pour interagir efficacement avec BigQuery en tant que source de données. Compétences comportementales : Communication : Capacité à expliquer des choix techniques et architecturaux à des interlocuteurs métiers, en français et en anglais. Autonomie : Excellente gestion du temps pour piloter plusieurs projets et parties prenantes simultanément. Exigence qualité : Approche rigoureuse des tests, de la documentation et du code propre. Présence & collaboration Localisation : Basé à Clichy. Rythme hybride : 3 jours par semaine sur site afin de favoriser une collaboration étroite avec les équipes métiers et le core team Analytics & IA Engineering.
Freelance

Mission freelance
POT8991 - Un Data Analyst Sur Massy

Almatek
Publiée le
Python

6 mois
270-400 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyst Sur Massy. Maîtrise parfaite du SQL et d'au moins un langage de programmation (Python, R). Maîtrise d'outils de datavisualisation avancés (Tableau, Looker Studio). Maîtrise des bonnes pratiques de code: test de cohérence, commentaires, documentation, etc Excellente rigueur: capacité à gérer une tâche détaillée et cadrée dans un ticket Jira de A à Z en respectant tous les points spécifiés capacité à documenter l’ensemble de ses rendus: périmètre d’analyse (période, type d'agrégation, etc), documentation technique et fonctionnelle de façon à ce que toute personne dans l’équipe puisse reprendre facilement ses analyses Expérience avec l’environnement GCP préférable (BigQuery notamment) Expérience avec des bases de données volumineuses (Big Data) et des outils associés (Hadoop, Spark) est un plus. Connaissance des techniques de machine learning est un plus Compétences analytiques : Excellente rigueur et capacité à gérer des projets complexes: capacité à prendre du recul sur la cohérence des analyses et sur les ordres de grandeurs Excellentes capacités analytiques, de résolution de problèmes et de pensée critique Capacité à construire des plans d'analyse détaillés et à gérer des tâches de A à Z incluant une proactivité dans la résolution de problèmes rencontrés Capacité à interpréter les résultats d'analyses complexes
Freelance
CDI

Offre d'emploi
DevOps Engineer IA

TS-CONSULT
Publiée le
Azure
Nosql
Tensorflow

1 an
Île-de-France, France
Bonjour a tous je suis a la recherche d'un profil DevOps Engineer IA pour l'un de mes clients, Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe
Freelance
CDI

Offre d'emploi
Expert Sécurité Cloud / CNAPP (Run & Gouvernance) — Secteur Média

AS INTERNATIONAL
Publiée le
Cybersécurité
KPI
Vulnerability management

3 ans
Île-de-France, France
Dans le cadre de la sécurisation et de l’industrialisation d’environnements Cloud public (AWS & GCP) , nous recherchons un(e) Expert(e) Sécurité Cloud pour travailler en lien étroit avec une équipe Cyber et les équipes en charge des Landing Zones . Vous accompagnerez la transformation DevOps & Cloud et la mise en place sécurisée de briques technologiques innovantes autour des architectures container , hybrides et cloud public , au service d’applications métiers en production. Vos missions (Run Sécurité Cloud) 1) Lutter contre les vulnérabilités Cloud Administrer une solution CNAPP (gestion des vulnérabilités, audits de configuration, comportements à risque) sur des environnements AWS/GCP. Assurer l’adoption de l’outil : documentation , formation , gestion des accès , amélioration continue, suivi des bugs et licences. Maintenir à jour les contrôles, politiques et procédures conformément aux standards de l’industrie. 2) Bâtir une gouvernance sécurité transverse Piloter les risques opérationnels détectés sur le périmètre par les outils de sécurité. Coordonner les parties prenantes : développement , SecOps , infra , référents sécurité. Produire des KPI de suivi de la sécurité opérationnelle (visibilité, confiance, pilotage). Suivre et valider la maturité et la conformité aux référentiels ( ISO , NIST , RGPD , IA Act ). 3) Accompagner les équipes techniques Animer des ateliers pour qualifier les vulnérabilités, répondre aux alertes et accélérer la remédiation. Contextualiser les vulnérabilités selon l’environnement, soutenir techniquement la résolution et promouvoir les bonnes pratiques cloud. Aider à l’affectation des vulnérabilités aux bonnes équipes (automatique et/ou manuel). Former développeurs et data scientists aux bonnes pratiques de sécurité . 4) Contribuer à la vie de l’équipe sécurité Analyser les risques projets, rédiger des expressions de besoins sécurité. Contribuer à la montée en compétence sécurité cloud des équipes et à une dynamique collaborative forte.
Freelance

Mission freelance
Machine Learning Engineer – IA & MLOps

ESENCA
Publiée le
Github
LangChain
Python

1 an
Lille, Hauts-de-France
Contexte du poste Dans un environnement technologique en forte croissance, vous intervenez sur le développement et l’industrialisation de solutions d’Intelligence Artificielle. Les produits évoluent rapidement et nécessitent une forte capacité d’adaptation, de structuration et d’industrialisation des modèles. Objectif Concevoir, développer et déployer des solutions AI/ML robustes et scalables, tout en assurant leur intégration dans une chaîne CI/CD moderne et une plateforme MLOps structurée. Missions principalesDéveloppement & Industrialisation IA Concevoir et développer des modèles de Machine Learning et solutions basées sur les LLM Implémenter des composants AI/ML (fonctions, classes, tests automatisés) Participer à la conception d’architectures orientées Data & IA Assurer le passage du prototype à la production MLOps & Data Engineering Construire et maintenir les pipelines d’entraînement, d’évaluation et de déploiement Automatiser les workflows via Github Actions Mettre en œuvre les bonnes pratiques CI/CD et DevOps Assurer le monitoring, la performance et la scalabilité des modèles Qualité & Documentation Garantir la qualité du code (tests unitaires, intégration) Réaliser des revues de code Documenter les développements et configurations (Github / Gitbook) Assurer le suivi du cycle de vie complet des modèles (build & run) Environnement technique Python (impératif), Github Actions (impératif), LangChain (souhaitable), GCP, Kubernetes, Kafka, Terraform, bases SQL/NoSQL.
Freelance

Mission freelance
Ingénieur DevOps / Observabilité

ESENCA
Publiée le
Datadog
Grafana
Kubernetes

1 an
Lille, Hauts-de-France
⚠️ Recherche exclusivement localisée dans la région Hauts-de-France (Nord). 🎯 Objectif global Participer à la construction et à l’évolution d’une plateforme d’observabilité permettant de superviser, analyser et améliorer la performance et la disponibilité d’applications déployées dans des environnements cloud et on-premise. 📌 Contexte de la mission Vous intervenez au sein d’une équipe dédiée à l’ Observabilité , chargée de concevoir et d’opérer une plateforme regroupant plusieurs solutions de monitoring, dashboarding, alerting, gestion des logs et APM . La plateforme s’appuie principalement sur des technologies open source opérées en interne , notamment autour de l’écosystème OpenTelemetry et Grafana . Elle est utilisée par des équipes techniques internationales afin d’améliorer la fiabilité, la performance et la supervision de leurs applications. 🧩 Missions principalesConception et construction de la plateforme Contribuer au design et à l’architecture de la plateforme d’observabilité. Intégrer, configurer et déployer les composants techniques de la stack. Participer à la mise en place des standards et bonnes pratiques d’observabilité. Déploiement et industrialisation Mettre en œuvre le templating, le déploiement et le paramétrage des outils. Assurer l’ industrialisation et l’automatisation des processus d’exploitation. Participer à l’amélioration continue de la plateforme. Exploitation et support Administrer les outils de la plateforme et gérer les incidents ou problèmes. Accompagner les équipes dans l’ instrumentation de leurs applications et l’exploitation des données d’observabilité (logs, métriques, traces). Contribuer à l’amélioration de la disponibilité et des performances des applications . Documentation et diffusion des bonnes pratiques Rédiger des ADR, documentations techniques et runbooks . Participer à la diffusion de la connaissance auprès des équipes techniques. 💻 Compétences techniques requisesImpératif – Niveau Confirmé Stack Grafana OSS (Loki, Mimir, Tempo, Alloy…) OpenTelemetry Important – Niveau Expert Kubernetes Souhaitable Datadog Environnement technique Kubernetes avancé Plateforme Grafana opérée à grande échelle OpenTelemetry (collecte, instrumentation, pipelines) Infrastructure cloud (principalement GCP , Azure serait un plus) Infrastructure as Code : Terraform Automatisation : AWX Programmation / scripting : Python ou Go (un plus) Connaissances complémentaires Architecture cloud et sécurité Instrumentation d’applications Culture SRE et gestion des SLO 🌍 Compétences linguistiques Anglais professionnel – impératif
Freelance
CDI

Offre d'emploi
Data Scientist Senior - Veille & Développement Modèles

TS-CONSULT
Publiée le
Azure
Scikit-learn

1 an
Île-de-France, France
Bonjour a tous ,actuellement je suis a la recherche d'un profil , Data Scientist Senior - Veille & Développement Modèles Profil recherché : Data Scientist Senior avec expérience banking/finance, expert en ML/DL et maîtrisant le vibe coding, capable d'évaluer rapidement la faisabilité technique des use cases IA, de développer des POCs et de rester à la pointe des avancées technologiques. Compétences requises Hard Skills : • 7 ans d'expérience minimum en Data Science / Machine Learning • Expérience confirmée dans le secteur banking/finance (compréhension des enjeux métier) • Expérience démontrée en vibe coding avec utilisation productive d'outils IA pour prototypage rapide • Expertise en ML/DL : apprentissage supervisé, non-supervisé, deep learning, NLP, séries temporelles • Maîtrise des frameworks Python : scikit-learn, TensorFlow, PyTorch, XGBoost, LightGBM • Connaissance approfondie des LLMs et techniques modernes (fine-tuning, RAG, prompt engineering, agents) • Expertise en feature engineering et sélection de variables • Maîtrise de l'analyse exploratoire de données et statistiques • Expérience en évaluation et optimisation de modèles (hyperparameter tuning, cross-validation) • Connaissance des plateformes Cloud ML (AWS SageMaker, Azure ML, GCP Vertex AI) • Maîtrise de SQL et manipulation de grands volumes de données • Connaissance des outils de versioning (Git) et notebooks (Jupyter, Databricks) • Un plus : Expérience en Computer Vision, Reinforcement Learning ou Graph ML Soft Skills : • Curiosité intellectuelle insatiable et veille technologique active • Capacité de synthèse et de recommandation (traduire la complexité technique en insights actionnables) • Esprit critique face aux résultats de modèles et au code généré par IA • Pragmatisme : capacité à évaluer rapidement le ROI d'une approche technique • Rigueur scientifique dans l'expérimentation et la validation • Excellente communication technique et métier • Capacité à travailler dans l'incertitude et l'ambiguïté • Esprit d'initiative et force de proposition • Pédagogie et mentorat (accompagnement du Data Scientist junior) • Esprit agile et adaptatif Anglais courant.
Freelance

Mission freelance
Expert en gestion des accès PAM

Codezys
Publiée le
Azure
cyberark
Wallix

12 mois
Lille, Hauts-de-France
Contexte Dans le cadre de la sécurisation des accès critiques et de la transition vers un modèle Zero Trust, une expertise en gestion des accès à privilèges (PAM) est recherchée. Objectifs de la mission Concevoir, déployer et optimiser les stratégies de contrôle d'accès sur un périmètre hybride (datacenters locaux et environnements Cloud GCP et Azure). Intégrer une nouvelle solution PAM, compatible avec les outils existants ou pouvant les remplacer. Responsabilités clés Architecture & Design : Collaborer avec le Tech Lead pour définir et mettre en place une architecture PAM unifiée couvrant l'on-premise et le cloud. Déploiement Multi-Cloud : Configurer les connecteurs et coffres-forts pour sécuriser les consoles d'administration, comptes de service et accès "Break-glass" GCP/Azure. Gestion des Secrets : Implémenter des solutions pour la gestion des secrets dans les pipelines CI/CD et applications, éliminant l'usage de mots de passe en clair. Politiques de Sécurité : Définir les règles de rotation des mots de passe, déployer l'authentification multi-facteurs (MFA) et appliquer le principe du moindre privilège. Migration & Intégration : Superviser l'intégration des comptes à privilèges élevés (Admin Domain, Cloud Admin, Root) dans la solution PAM. Audit & Gouvernance : Mettre en place la journalisation des activités et l'enregistrement des sessions pour assurer conformité et détection SOC.
CDI

Offre d'emploi
Administrateur Systèmes & Exploitation (F/H)

Experis France
Publiée le

35k-45k €
Nantes, Pays de la Loire
Administrateur Systèmes & Exploitation (F/H) - Supervision & Automatisation - Nantes 🖥 Administrateur Systèmes & Exploitation (F/H) - Supervision & Automatisation 📍 Nantes | 2 jours de télétravail 🛠 Technos : ITIL, EasyVista, Dollar Universe, Zabbix, AIX, Linux, Windows, Oracle, SQL Server, MySQL, KSH, Bash, PowerShell, GCP 🎯 Votre rôle parmi nous : Surveillance & maintenance des systèmes : garantir le bon fonctionnement des serveurs, réseaux et applications Intégration technique : définir les plans de mise en production et intégrer les nouvelles applications Gestion des incidents : diagnostiquer et résoudre rapidement les problèmes techniques Automatisation des tâches : développer des scripts et utiliser des ordonnanceurs pour automatiser les processus Sécurité informatique : mettre en œuvre et surveiller les mesures de protection des données Support technique : assistance aux utilisateurs et aux équipes techniques Animation avec partenaires : coordonner et superviser les activités des prestataires externes Optimisation des processus : identifier et mettre en œuvre des améliorations pour optimiser les opérations
Freelance

Mission freelance
Expert en Sécurité Offensive (Technical Leader)

CAT-AMANIA
Publiée le
Cybersécurité

3 mois
400-600 €
Lille, Hauts-de-France
Offensive Technical Leader | Red & Purple Team (Freelance) Nous recherchons un Expert en Sécurité Offensive (Technical Leader) pour piloter et structurer nos offres de services Red Team et Purple Team . Plus qu'un simple opérateur, vous agirez en tant que "Joueur-Coach" : vous concevez l'architecture stratégique, définissez les méthodologies et menez les opérations les plus complexes tout en faisant monter en compétence nos équipes internes. 🎯 Vos Responsabilités Stratégiques Architecture & Méthodologie : Concevoir et documenter un framework Red/Purple Team standardisé, basé sur les référentiels MITRE ATT&CK et TIBER-EU . Roadmap de Service : Participer à l'évolution de nos services offensifs (intégration BAS, Cloud-native Red Teaming) pour s'aligner sur la maturité de nos environnements. Stratégie d'Outillage : Définir et implémenter la "Stack Offensive" (C2 comme Cobalt Strike, Havoc, Sliver ; pipelines de payloads personnalisés ; automatisation via Terraform/Ansible). ⚙️ Lead Technique & Exécution Opérations Red Team : Piloter les simulations d'adversaires de bout en bout (internes et externes). Orchestration Purple Team : Animer des ateliers collaboratifs avec le SOC/Blue Team pour réduire le TTD (Time-to-Detect) et le TTR (Time-to-Remediate). Multi-Cloud Simulation : Exécuter des campagnes ciblant les failles entre fournisseurs cloud (abris de confiance cross-tenant, identités fédérées). R&D et Évasion : Développer des bypass EDR/XDR sur mesure et des infrastructures C2 utilisant des services légitimes (ex: AWS Lambda) pour se fondre dans le flux réseau. 🎓 Mentoring & Support Agir comme point d'escalade technique "Niveau 3" pour nos pentesters et ingénieurs gouvernance. Animer des sessions de "Deep Dive" techniques (Cloud offensive, attaques CI/CD, IA offensive). 🛠️ Profil Recherché : L'Expertise Technique Vous justifiez d'au moins 8 ans d'expérience en sécurité offensive, dont 2 ans sur un rôle de Leadership technique. Cloud Mastery (Expert) : Maîtrise avancée de la sécurité GCP (Service Accounts, K8s) et AWS . Infrastructure (Expert) : Expert sur IAM et Active Directory . Maîtrise de Docker/Kubernetes. Développement : Capacité à coder/modifier des outils en Python, Go, Rust, C# ou C++ . IA Offensive : Solides connaissances en Adversarial ML et exploitation de LLM. Mindset Défensif : Compréhension fine des SIEM (Splunk...) pour mieux les contourner. Soft Skills & Consulting : Capacité à traduire une compromission technique complexe en risque business pour le Top Management. Anglais technique fluide (écrit/oral). Rédaction de rapports de haute qualité, actionnables par les CISOs. 🏅 Les "Plus" qui feront la différence Certifications : OSEP, OSWE, CRTO, GRTP ou SANS. Contributions Communautaires : CVEs, outils Open Source, ou interventions lors de conférences (LeHACK, BlackHat, etc.).
Freelance
CDI

Offre d'emploi
Tech Lead Automatisation - Exploitation des Solutions de Sécurité

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Île-de-France, France
Type de poste : Au sein de la Direction Cyber et Résilience et plus précisément pour le Département Étude Solutions Sécurité (ESS), vous serez amené à apporter vos compétences d’automatisation au sein d'équipes réparties entre la France & la Pologne. · Vous travaillerez au sein de l’équipe Support et Opérations Solutions Sécurité (SOS) en charge de l’intégration, l’exploitation des solutions de sécurité en assurant le MCO (Maintien en condition opérationnelle) et MCS (Maintien en condition sécurité) de ses solutions. · Les activités de l’équipe sont en forte transformation et le rôle premier pour cette mission est d’appuyer cette transformation en répondant aux besoins d’industrialisation (intégration, exploitation, check conf, supervision, circuit de la demande) via des solutions d’automatisation et de workflows d’orchestration. Missions principales : Automatisation des configurations et contrôle de conformité : · Concevoir et maintenir des scripts (Python, PowerShell, Ansible) et outils d’automatisation pour la configuration des opérations courantes sur les solutions de sécurité, en utilisant notamment AAP et Camunda pour orchestrer les workflows. · Développer des mécanismes de détection des écarts de configuration et de remédiation automatique ou semi-automatique. Supervision et observabilité : · Configurer et optimiser les outils de supervision (Zabbix, Grafana). · Automatiser la collecte, l’analyse et la remédiation des alarmes générées par les solutions de sécurité (SIEM, EDR, Coffres forts, Bastion, AD, Zscaler, WAF), en s’appuyant sur des workflows Camunda. · Développer des playbooks et des scripts de remédiation pour réduire le temps moyen de résolution. · Amélioration de la supervision (alertes, corrélations, dashboards automatisés). Automatisation des tableaux de bord MCO/MCS : Concevoir, développer et automatiser la génération des tableaux de bord MCO/MCS pour une visibilité en temps réel sur l’état des solutions de sécurité. Automatisation du circuit de la demande via BBOT : Déployer un bbot (chatbot/assistant) pour le routage et le suivi des demandes de services et tickets d’incidents. Amélioration continue et communication transverse : · Identifier et proposer des axes d’amélioration continue des processus d’automatisation et de supervision, en exploitant les capacités d’AAP, de Camunda et du Bbot/IA pour optimiser les workflows. · Assurer une communication claire et efficace avec les parties prenantes. · Travailler en étroite collaboration avec les équipes pour aligner les pratiques et les outils. Compétences techniques requises : Scripting et automatisation : Expérience significative en développement et en automatisation, de préférence dans un domaine de cybersécurité. · Maîtrise avancée de Python, PowerShell, Ansible. · Maîtrise opérationnelle de AWX / Ansible Automation Platform (AAP). · Développement de bbots/assistants. Solutions de sécurité : Gestion des identités et authentification : MFA. Sécurisation de la connectivité : Netscaler et Zscaler. Protection : Mise en place et gestion de solutions Bastion et anti-DDoS. Gestion des accès privilégiés (PAM) : CyberArk et OneIdentity. Détection et réponse : Scan, SIEM, SOAR. Sécurité réseau et applicative : Compétences sur WAF, Proxy, Reverse Proxy, VPN, MFA. EDR : CrowdStrike. Gestion des identités et des accès (IAM/IAG) : SailPoint. Web Application Firewall (WAF) : Déploiement, configuration et exploitation. Supervision et observabilité : · Connaissance approfondie de modèles de supervision avec les outils Zabbix, Grafana. Bonnes pratiques DevOps/SecOps : Expérience des chaînes CI/CD (GitLab CI/CD, Jenkins, GitHub Actions…). Infrastructure et cloud : · Familiarité avec les environnements cloud (AWS, Azure, GCP) et les infras on-premise. Documentation & Support : Rédiger les procédures, guides d’exploitation et documentations d’automatisation.
Freelance

Mission freelance
Data Engineer

Signe +
Publiée le
Database
ETL (Extract-transform-load)
SQL

2 ans
400-500 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients un Data Engineer. Contexte : Renforcement de l’équipe Data pour industrialiser et faire évoluer les environnements BI/ETL/Cloud (GCP BigQuery, Teradata, Informatica/IDMC, BO, Power BI) et soutenir les activités de delivery et de transformation. Mission & objectifs Concevoir, développer et industrialiser des pipelines de données robustes (batch/ELT). Garantir la qualité, la sécurité et la gouvernance des données (IAM, rôles, permissions). Moderniser les assets BI et modèles sémantiques (Power BI, Business Objects). Contribuer à l’ automatisation et à l’ infrastructure as code (Terraform). Accompagner les équipes Métiers/Tech dans l’usage des plateformes data (BigQuery, Teradata, Unix/Linux). Participer à la documentation et à la montée en compétence de l’équipe.
Freelance

Mission freelance
Responsable Projets Sécurité

ODHCOM - FREELANCEREPUBLIK
Publiée le
Cybersécurité
Gestion de projet

630 jours
400-650 €
Paris, France
DSI – Environnements On-Premise & Cloud Démarrage prévisionnel : 11/03/2026 Mission longue durée (≈ 630 jours) Contexte : Dans un contexte d’exigences réglementaires renforcées (ANSSI – OSE, directive NIS/NIS2, ISO/IEC 27001…), notre client renforce sa Direction Technique Informatique et recherche un Responsable Projets Cybersécurité Senior. Vous interviendrez au sein de la DSI pour piloter, structurer et suivre des projets majeurs de sécurisation des infrastructures systèmes et réseaux, dans des environnements hybrides (on-premise et Cloud). Projets pouvant vous être confiés : Pilotage de plans de remédiation suite audits Mise en œuvre de recommandations ANSSI (type OSE) Fédération d’annuaires Segmentation et cloisonnement réseau Mise en œuvre de bastions Sécurisation des services web Architecture sécurité réseau et infrastructures Vous challengez les choix techniques et assurez la cohérence avec l’architecture de sécurité existante. Responsabilités clés : 1. Pilotage de projets cybersécurité Planifier et piloter des projets de sécurité des SI Superviser des chantiers de sécurisation (réseau, IAM, bastion, segmentation…) Coordonner équipes internes, RSSI, métiers et prestataires Animer les comités techniques et comités de pilotage (COPIL / COMOP) 2. Expertise technique Securité réseau & infrastructures : Expertise technique en : Sécurité réseau : pare-feu, segmentation, durcissement PKI & certificats IAM / gestion des identités MFA, SSO, fédération Active Directory / Azure AD / LDAP Notions solides en sécurité Cloud (Azure / AWS / GCP) 3. Reporting & gouvernance Construction d’indicateurs sécurité Synthèse des risques Production des supports pour les comités SSI
CDI

Offre d'emploi
DevOps H/F

CONSORT GROUP
Publiée le
Supervision

Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. DevOps H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par l’ industrialisation des plateformes et la fiabilité des environnements de production ? Ce poste est fait pour vous. En tant que DevOps, vous êtes responsable de l’ exploitation , de l’ industrialisation et de l’ évolution des socles techniques et applicatifs de notre écosystème : Côté build : Concevoir et industrialiser les chaînes CI/CD pour les socles techniques et applicatifs Intégrer les évolutions techniques et applicatives dans les environnements Cloud Mettre en œuvre les standards de qualité, sécurité et automatisation Participer aux projets d’évolution technique de la plateforme Maintenir et faire évoluer les outils d’automatisation et d’outillage DevOps Côté run : Exploiter et maintenir les socles et applications via la CI/CD Garantir la qualité de service et la stabilité des environnements Analyser et résoudre les incidents de production Automatiser les opérations récurrentes (déploiements, supervision, maintenance) Assurer la montée en compétence des équipes N1 et du support utilisateurs Maintenir une documentation à jour : dossiers d’architecture, d’exploitation, plans de production C’est votre parcours Vous avez au moins 3 ans d’expérience dans des environnements DevOps exigeants. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : DevOps & CI/CD : pipelines, automatisation, déploiement continu Cloud : Azure, GCP Systèmes : Linux, AIX Outils : Git, GitLab, Ansible, Apache, JBoss, Eclipse Conteneurisation & industrialisation des socles applicatifs Langages & bases de données : Shell, SQL, PHP Oracle, PostgreSQL, Hadoop Sécurité / Réseau / Active Directory / Bureautique Environnements open source et digitaux C’est votre manière de faire équipe : Sens du service et forte orientation qualité de production Capacité d’analyse et de résolution d’incidents complexes Pédagogie et capacité à former et accompagner les équipes N1 Rigueur, organisation et goût pour l’automatisation C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybride Salaire : De 35000 € à 40000 € (selon expérience) brut annuel Famille métier : DevOps Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
CDD
CDI
Freelance

Offre d'emploi
SCRUM MASTER trasverse

KEONI CONSULTING
Publiée le
DevOps
Oracle
Reporting

18 mois
20k-60k €
100-450 €
Paris, France
Contexte Au sein du Département SI Pilotage Financier, vous intégrez le service SI COMPTABLE / SI ACHAT / PILOTAGE BUDGETAIRE consituait de plusieurs équipes AGILES SCRUM permettant le maintien et les évolutions autour de la solution Oracle ERP/EPM CLOUD. La ou le prestataire sera intégré(e) dans des équipes PRODUITS au sein de la DSID sous la responsabilité de 2 projects manager. L’objectif étant d’accompagner les Prodcut Owner et les équipes de DEV afin traiter les besoins définit dans la ROAD MAP et matérialisés dans la backlog. L’objectif étant de garantir et d’optimiser le delivery via la méthodologie AGILE SCRUM Mission : Missions et Responsabilités : - Organiser et animer les cérémonies agiles des différentes équipes PRODUIT (Sprint planning, Sprint review, rétrospectives) - Prendre part à l’affinage des backlogs - Accompagner les Product Owner et les équipes de developpement vers l’atteinte de l’objectif des sprints - Pilotage opérationnel - Mettre en place les indicateurs permettant le suivi des réalisations et identifier les axes d’améliorations - Être l’interlocuteur privilégié entre les équipes de DEV et les différents acteurs : BA, OPS, PO, PM - Identifier les obstacles, mettre en œuvre les actions et assurer le reporting - Contribuer à la conduite du changement agile et au déploiement à l’échelle (SAFe). - Favoriser la collaboration entre équipes techniques et métiers. Profil recherché • Minimum 5 ans d’expérience en tant que Scrum Master dans un environnement agile technique. • Leadership, posture de coach, excellentes capacités relationnelles. • Sens du service client, capacité à fédérer et accompagner les équipes. • Autonomie, rigueur et organisation. Environnement & Outils • Outils agiles : Jira, Confluence • DevOps & CI/CD : GitLab, Hawaii • Méthodologies : Scrum, Kanban, SAFe • Cloud : GCP (Langage DBT), ORACLE ERP EPM CLOUD (avec module OCI) • ETL : ISIE (interpréteur comptable), SEMARCHY Xdi, • DATAVIZ / REPORTING : QLIKSENSE, FDI (Oracle), BI Publisher

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

430 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous