Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Architecte GCP/Openshift
Pour le compte de l' un de nos clients dans le domaine assuranciel, nous recherchons un Architecte GCP/Openshift Dans le cadre du déploiement d'une plateforme, le client souhaite deployer la solution APIGEE. Pour cela,il recherche une personne capable d' établir l' architecture technique et le design de la plateforme API Management basée sur Google APIGEE Hybrid, GCP et Openshift. Cette mission est basée au Mans. DU télétravail peut être proposé mais nous recherchons en priorité un candidat habitant à proximité du Mans

Mission freelance
Développeur fullstack Java VueJS
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, Vue JS, VueJS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +

Mission freelance
Cloud engineer
A la recherche d'un Cloud Engineer expérimenté ayant participé à des projets de modernisation d'outils / pratiques et de migration Cloud : - automatisation d'outils et de process, de création / évolution de pipelines CI/CD - déploiement d’environnements applicatifs complets dans le Cloud - accompagnement des équipes sur des sujets DevOps / techniques - formation/acculturation sur les bonnes pratiques. Environnement cloud GCP / Kubernetes GCP/Kubernetes - Confirmé - Impératif CI/CD - Confirmé - Impératif Français Courant (Impératif) Anglais Professionnel (Impératif)
Offre d'emploi
Expert Sécurité Opérationnelle - Cloud Public GCP
Intitulé du poste Expert Sécurité Opérationnelle – Cloud Public GCP Résumé du poste Le poste consiste à accompagner les projets d’une grande entreprise sur tous les aspects de sécurité liés à l’utilisation du cloud public Google (GCP). Le candidat sera responsable de la mise en place, du suivi et du pilotage des solutions et contrôles de sécurité, ainsi que du traitement des non-conformités. Responsabilités principales Intégrer la sécurité dans tous les projets cloud dès leur conception avec un focus sur GCP. Mettre en place des solutions de sécurité, assurer leur pilotage et leur gestion au quotidien. Garantir le suivi des contrôles de sécurité et la remédiation des non-conformités ou alertes détectées. Accompagner les projets sur les volets sécurité : définition, implémentation et suivi de la conformité. Participer à l’analyse et au traitement des incidents de sécurité. Préparer et présenter des reportings sur l’état de la sécurité auprès de la direction et des partenaires. Rédiger et maintenir la documentation technique et les procédures en anglais. Compétences requises Expérience significative (plusieurs années) sur des environnements cloud, exclusivement GCP (Google Cloud Platform), dans un grand groupe (pas de PME/PMI). Maîtrise des outils et solutions de sécurité cloud (CSPM, gouvernance cloud, sécurité réseau, chaînes CI/CD sécurisées). Très bon niveau d’anglais écrit et oral (réunions, présentations, rédaction documentaire). Expérience dans l’intégration et la gestion de la sécurité dans des projets de transformation cloud. Maîtrise de la gestion des incidents et remédiations, ainsi que des contrôles de conformité. Compétence confirmée sur la sécurité réseau dans le cloud. Capacité à défendre ses choix techniques (voire devant un top management) en anglais. Atouts appréciés Expérience dans le secteur bancaire. Solide expérience opérationnelle (pas seulement orientée gouvernance). Connaissance d’autres technologies de sécurité cloud ou hybrides peut être un plus. Contraintes et modalités Présence physique sur Paris 13e (mobilité en Île-de-France exigée). Disponibilité pour des astreintes et interventions en urgence. Statut : freelance ou salarié accepté, mais disposer d’un préavis d’un mois minimum, pour garantir la continuité de service. Démarrage : poste ouvert jusqu’à la sélection du bon profil, sans date limite fixée. Résumé des qualités attendues Opérationnel, autonome, rigoureux. Forte expertise sécuritaire sur GCP et sur les problématiques réseau cloud. Anglais professionnel courant (présentation, échange, documentation). Disponible rapidement et capable d’intégrer un environnement exigeant.

Offre d'emploi
DevOps / Administration et MCO de la production
Nous sommes à la recherche d'un(e) ingénieur(e) de production pour rejoindre notre service Production Data Métiers. Notre équipe dynamique et jeune, forte de 13 membres, est à la recherche d'un(e) successeur(e) passionné(e) et expérimenté(e) pour renforcer notre effectif. Le(a) candidat(e) idéal(e) aura une expérience solide en milieu de production, ayant travaillé dans des environnements industrialisés et sur le cloud public avec des bases solides en DevOps. Avoir des compétences sur Google Cloud Platform (GCP) sera fortement apprécié. Les principales missions qui vous seront confiées : - Surveillance et maintenance : Assurer la surveillance et la maintenance de notre service de production afin de garantir sa performance et sa disponibilité. - Conception et optimisation : Concevoir, mettre en place et optimiser les pipelines pour améliorer l'efficacité de notre travail. - Automatisation des processus : Automatiser les processus de déploiement et industrialiser les livraisons des infrastructures pour renforcer la fiabilité et la rapidité. - Documentation : Rédiger et maintenir la documentation des processus et des systèmes mis en place pour assurer la traçabilité et la réversibilité.

Mission freelance
Développeur Full Stack
API TU Conceptions techniques Compétences techniques Nodejs / Nestjs - Expert - Impératif React - Confirmé - Impératif Typescript - Confirmé - Impératif Java (J2EE, Spring, ...) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Secondaire) Description détaillée Pour le 13 ocotobre, nous recherchons 1 développeur confirmé sur nodejs (backend) / nestjs / prisma / React / typescript. Nos développeurs prennent en charge la conception technique, le développement, une partie des tests, et la maintenance des services développés. Caractéristiques du produit: - Animation des prix d'achats des fournisseurs - produit critique déployé - produit Cloud Native sous GCP, avec environ 60% de périmètre métier restant à écrire - refonte V2 technique à lancer en janvier - organisation: 5 développeurs en hybride, 1 techlead, 2 QA/QE, 1 PO, sprints de 3 semaines Qualifications - Confirmé en nodejs (backend) / nestjs / prisma / React / typescript => IMPERATIF - 80% de backend (nodejs / nestjs / prisma) - 20% front au maximum - Il doit s'agir d'un vrai fullstack sur les technos citées, bien que le ratio soit 80/20 entre back et front - Expérience de développement avérée d'API REST dans des SI complexes (transformation digitale de nos domaines métiers) - Expérience avérée en SQL (Postgres, optimisation de requêtes complexes) - Expérience avérée en messaging de type Kafka (Redis est un plus) - Connaissances Cloud type GCP, et technologies de conteneurs (Docker / Kubernetes) - Expert: >7 ans d'xp sur plusieurs clients en transformation digitale majeure
Offre d'emploi
Développeur Back-end - 12 mois - Lille
Développeur Back-end - 12 mois - Lille Un de nos importants clients recherche un Développeur Back-end pour une mission de 12 mois sur Lille. Présence sur site de deux jours par semaine. En tant Développeur Back-end, vous interviendrez sur le produit Data basé sur Confluent Cloud Kafka. A ce titre, voici vos missions : Développer en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Mise en place d’outils de monitoring (DataDog) Assistance des utilisateurs sur le run technique MOB, Pair review Profil: Vous disposez d'une très bonne expérience en développement back en Java Vous avez de l'appétence pour le dev front (vue + JS typescript) Vous maîtrisez les standards et enjeux logiciels d’une plateforme SaaS Vous maîtrisez les patterns d’architecture logiciels modernes (Event Sourcing, CQRS, etc ...) Une première expérience d’utilisation de Terraform et de GO est un plus Vous travaillez dans un contexte Infra, vous maitrisez le cloud (GCP) et avez une experience confirmée en kafka Vous connaissez Google Cloud Platform et K8S Vous êtes curieux et assurez une veille sur les nouvelles technologies, architecture et pratiques internes (Vous suivez les guidelines internes et les pratiques des autres squads / Vous participez aux guilds internes) Les tests unitaires, d’intégration, de non régression, de performance sont pour vous une nécessité. Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

Offre d'emploi
Ingénieur DevSecOps GCP
Dans le cadre du déploiement d’un programme AppSec assisté par l’intelligence artificielle , notre client fait évoluer ses services et outils de développement, ainsi que leur usage par les équipes applicatives. Des profils à forte dominante Ops et DevSecOps sont attendus au sein de l’équipe DevTools Factory , organisée en mode Agile (Scrum) avec des sprints de 3 semaines. 🛠️ Missions principales 1. Mise en place et maintenance de l’infrastructure des services DevTools : Installation et mise à jour des services GitLab Ultimate , Artifactory et SonarQube . Automatisation de l’infrastructure via Infrastructure as Code (IaC) , dans les environnements cloud publics (principalement GCP , secondairement AWS ). Garantir la scalabilité de l'infrastructure en lien avec les usages DevSecOps et l'intégration de GitLab Duo (GitLab + fermes de runners). Réaliser des mises à jour régulières pour bénéficier des dernières fonctionnalités et correctifs. Développement de scripts/outils pour l’exploitation et les opérations. Intégration des services dans une solution de monitoring et alerting (Dynatrace) . Mise à jour de la documentation des installations automatisées . Actualisation du dossier d’exploitation à destination des équipes support L2/L3. 2. Outillage DevSecOps & intégration IA : Création de scripts/outils facilitant l’accès aux services, intégrant des fonctions DevSecOps et des assistances IA pour le développement. Mise à jour de l’outillage GitLab : gestion des projets, groupes, utilisateurs, RBAC , compliance frameworks , security policies à l’échelle (merge requests, scanners, pipelines), GitLab Duo , etc. Gestion sécurisée des secrets via Vault , avec automatisation de la rotation . Intégration des services aux autres plateformes : ServiceNow (catalogue) , GitLab Duo , JIRA , CI/CD interne . Déploiement de solutions Zero Trust sur les outils à travers Zscaler/ZTNA . 3. Support opérationnel : Support quotidien des services DevTools. Intervention sur incidents , diagnostics et résolutions. Rédaction de post-mortems après tout incident critique. Communication proactive auprès des équipes IS en cas de dysfonctionnement majeur. Support aux équipes DevOps sur les problématiques projets. Assistance aux Security Champions pour la gestion des vulnérabilités et leur remédiation dans GitLab . 📄 Livrables attendus : Automatisation des infrastructures (IaC) + documentation complète (diagrammes, README). Développement du code d’outillage pour les services. Support documentaire : guides pratiques, procédures ("how-to"), intégration dans le portail eDEX .

Offre d'emploi
Data Analyst (H/F)
Nous recherchons un Data Analyst passionné par les technologies de la donnée et l’intelligence artificielle pour accompagner un programme stratégique visant à transformer l’entreprise et accélérer la création de valeur à travers l’IA. Vous serez un acteur clé dans le développement et l’enrichissement de dashboards IA pour le Top Management, permettant de suivre l’adoption de l’IA et la valeur générée à l’échelle de l’entreprise. 🔍 Vos missions principales : Créer et maintenir des rapports Looker adaptés aux besoins métiers. Optimiser les temps de chargement et la gestion des données au sein du Data Lake GCP. Développer des vues multi-niveaux pour suivre les KPIs (adoption IA, gains de productivité, amélioration des temps de cycle, détection des anomalies). Modéliser les données et gérer leur ingération dans un environnement Cloud. Effectuer des tests techniques et fonctionnels pour garantir la fiabilité des données. Assurer un support utilisateurs et former les Key Users sur l’utilisation des outils et rapports. Produire et maintenir la documentation technique (CLA, DEX, rapports). 📅 Livrables attendus : Documentation technique (CLA, DEX) Dashboards Looker, plans et scénarios de tests

Mission freelance
Architect Cloud
Dans le cadre d’un vaste programme de transformation digitale, notre client – un acteur majeur basé à Paris – renforce ses équipes Cloud afin de moderniser et sécuriser son SI. L’Architecte Cloud interviendra au sein d’une équipe d’experts et aura pour rôle de : Concevoir et mettre en place des architectures Cloud robustes, scalables et sécurisées (AWS ou GCP). Définir les bonnes pratiques et accompagner les équipes projets dans leur adoption du Cloud. Participer à la mise en œuvre de solutions orientées haute disponibilité et performance. Contribuer à l’évolution de la stratégie Cloud de l’entreprise en lien avec les enjeux business et techniques. Garantir la conformité aux standards de sécurité et aux certifications en vigueur. Le projet s’inscrit sur 3 ans , offrant une réelle stabilité et l’opportunité de travailler sur des environnements Cloud de grande envergure.
Mission freelance
Architecte Technique Cloud & API (Apigee / GCP)
Projet de déploiement de la plateforme API Management avec Google APIGEE Dans le cadre de la mise en place d'une solution robuste d'API Management, le client a exprimé le souhait de déployer la plateforme Google APIGEE. Ce déploiement vise à centraliser la gestion des API, à renforcer la sécurité, à améliorer la scalabilité et à favoriser l'innovation digitale au sein de l'organisation. La société prestataire devra assurer la fourniture des prestations suivantes, en veillant à respecter les meilleures pratiques du secteur et à garantir une intégration fluide avec l'infrastructure existante : Analyse des besoins et planification: réalisation d'un état des lieux technique, définition des cas d'usage spécifiques et établissement d'un planning détaillé de déploiement. Configuration initiale et déploiement: installation de la plateforme Google APIGEE sur l'environnement cloud du client, configuration des API, gestion des accès, sécurité et des quotas. Intégration avec les systèmes existants: raccordement aux bases de données, systèmes d'authentification, et autres applications métiers, en garantissant la compatibilité et la performance. Formation et transfert de compétences: formation des équipes techniques du client pour la gestion quotidienne de la plateforme, incluant la création, la publication et le monitoring des API. Support et maintenance: assistance technique post-déploiement, gestion des incidents, mises à jour régulières et optimisation continue des performances.

Mission freelance
Data Steward expert SQL/GCP (Google Cloud Platform)
Cette mission est en Mi-Temps Le Data Steward aura pour mission principales d'assurer un nettoyage massif des données et une stabilisation des flux. Identifier, analyser et corriger les problèmes de qualité des données (flux bloqués, incohérences entre plateformes). Exécuter des requêtes complexes (SQL) sur Google Cloud Platform (GCP) afin d’investiguer et documenter les anomalies. Collaborer avec les équipes applicatives (SAP, Salesforce) et les métiers pour comprendre les besoins et assurer la cohérence des données. Fournir une documentation claire et transférable au support pour assurer la pérennité des correctifs. Être l’interface entre les équipes techniques et métiers, avec une forte dimension analytique.
Offre d'emploi
Architecte Opérationnel Cloud Public – GCP
Missions principales : • Concevoir et documenter les architectures opérationnelles GCP (Compute, stockage, réseau, sécurité, supervision). • Définir les bonnes pratiques de design cloud (patterns, standards, guides). • Réaliser des POC techniques et valider les solutions en environnement hybride (on-prem et cloud). • Garantir l’intégration avec le SI existant : DNS, Active Directory, bastion, fédération d’identité. • Contribuer aux études d’impacts et recommandations FinOps pour la maîtrise des coûts. • Participer aux revues de conception, aux comités techniques et à la gouvernance Cloud.

Offre d'emploi
Développeur Temps réel C (F/H)
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet en développement C++. En tant que Développeur temps réel C++ (H/F), : Dans le cadre de nos activités de développement logiciel, Les principales attentes de la mission sont : Conception, développement et optimisation de modules logiciels temps réel en C++. Intégration dans une équipe projet internationale, avec des échanges réguliers en anglais. Autonomie, rigueur et respect des processus qualité. Grosses attentes techniques avec notamment quelqu'un qui a déjà travaillé dans le monde industriel et idéalement sur des sujets intégrants des caméras.

Mission freelance
Data Engineer confirmé GCP / dbt / Looker | Full remote (Maghreb)
Nous recherchons un Data Engineer pour intervenir en prestation (nearshore) dans le cadre d’un projet de transformation data ambitieux chez un acteur majeur du retail . L’objectif ? Concevoir, piloter et opérer des systèmes analytiques robustes, scalables et sécurisés, tout en encadrant techniquement une équipe de data engineers. 📍 Localisation : Nearshore (Full remote) 📅 Démarrage souhaité : 3 juin 2025 ✨ Ce que tu feras au quotidien Concevoir et opérer des pipelines data de bout en bout (ingestion, traitement, modélisation, valorisation, restitution) Développer et maintenir les applications back-end d’une plateforme data & analytics Garantir la qualité, la sécurité, l’observabilité et la scalabilité des solutions déployées Implémenter des couches sémantiques et des modèles de données pour la visualisation Participer activement à toutes les étapes du cycle de développement logiciel (conception, code, tests, CI/CD, déploiement) Collaborer avec les équipes business, produit et design dans une méthodologie Scrum 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, Cloud Functions, Pub/Sub, Cloud Composer) Transformation : DBT (data build tool) Visualisation : Looker (LookML) Langages : SQL, Python CI/CD & Qualité : Git, GitLab, tests automatisés, linting, Sonar Observabilité : monitoring, alerting, logging
Offre d'emploi
Consultant sécurité Cloud GCP / Azure
Vous interviendrez en tant que Consultant Sécurité Cloud au sein d’un grand groupe bancaire, afin d’accompagner les projets stratégiques autour du Cloud Public, principalement sur Google Cloud Platform (GCP) et dans une moindre mesure Azure . Votre rôle sera d’assurer la sécurité des architectures Cloud, de renforcer la posture de sécurité globale du groupe, et de guider les équipes projets dans l’adoption sécurisée des services Cloud. Vos principales missions : Accompagner la conception d’architectures Cloud sécurisées (GCP, Azure). Coacher les équipes sur les enjeux de sécurité et de gestion des risques dans le Cloud Public. Contribuer à l’enrichissement du catalogue de services Cloud, en veillant au respect des standards de sécurité du groupe. Définir et mettre en place des contrôles de sécurité pour améliorer la posture de sécurité globale. Assurer la validation sécurité des architectures techniques (DAT, modèles 3 tiers, etc.). Participer aux analyses de sécurité et à la définition des exigences de sécurité. Intervenir sur la sécurité applicative (IAM, authentification, gestion des accès). Sécuriser les API (API Gateway, architectures API). Protéger et chiffrer les données sensibles. Analyser et sécuriser les services PaaS/SaaS des différents Cloud Providers (AWS, Azure, GCP). Rédiger des rapports d’analyse, des guides et standards de sécurité. Suivre les évolutions technologiques (IA Générative, LLM, containers, etc.).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.