Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 774 résultats.
Freelance

Mission freelance
Data Analyst Monétique

Signe +
Publiée le
Azure
Google Cloud Platform (GCP)
SQL

6 mois
400-480 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un Data Analyst Monétique. Contexte La squad data monétique au sein de la Datafactory a la charge de : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement, Dans ce cadre, les missions sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst et les membres de la squad (data viz, data engineer, business analyst) • Rédaction des livrables : spécifications fonctionnelles et techniques / user story, cahiers de recette • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs. Description • Maitrise du SQL • Compétences métiers en moyens de paiements fortement recommandées • Connaissances des outils de requêtage Data et de plateformes Big Data, idéalement Cloud (Azure, GCP) • Excellentes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Autonomie et rigueur • Sens de l'initiative et du résultat • Maitrise des méthodes agiles et des rituels associés.
Freelance

Mission freelance
DevOps (GCP / Terraform / Python / VueJS)

ESENCA
Publiée le
Azure
Google Cloud Platform (GCP)
Python

1 an
Lille, Hauts-de-France
🧭 Contexte & objectif Dans le cadre du développement de plateformes cloud internes, vous participez à la conception et à l’évolution de solutions permettant aux équipes de déployer rapidement leurs environnements sur le cloud public. Ces plateformes, basées sur des principes de self-service , offrent des environnements préconfigurés, sécurisés et automatisés afin d’accélérer le déploiement des applications. 🚀 Missions principales🔧 Développement Concevoir et développer des composants backend (Python) et frontend (VueJS) Développer des solutions d’ Infrastructure as Code (Terraform) sur GCP principalement Participer à l’évolution des plateformes cloud (type Landing Zone) Développer des outils d’ automatisation réseau (firewall, opérations réseau) Implémenter des API et services backend 🏗️ Architecture & conception Proposer des solutions techniques basées sur les services natifs des cloud providers Concevoir des architectures cloud natives, sécurisées et automatisées Participer aux revues de code et d’architecture Contribuer à la définition des standards techniques et bonnes pratiques ✅ Qualité & tests Mettre en place et maintenir des tests automatisés et unitaires Garantir la qualité, la performance et la maintenabilité du code 🛠️ Maintenance & support Corriger les anomalies et bugs Maintenir et améliorer les solutions existantes Accompagner les équipes dans l’utilisation des plateformes 🧠 Compétences techniques🔥 Impératives GCP (niveau expert) Terraform (niveau expert) Python (niveau expert) VueJS / Frontend ➕ Importantes Azure (niveau confirmé) 🌍 Langues Français courant (impératif) Anglais professionnel (souhaité)
CDI

Offre d'emploi
Data Ops Engineer AWS / Databricks H/F

DAVRICOURT
Publiée le
Databricks

45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Ops Engineer AWS / Databricks pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Assurer la robustesse, la performance et la sécurité d'une plateforme data (data lake AWS) ; - Mettre en place et maintenir l'infrastructure via Terraform (Infrastructure as Code) ; - Superviser les environnements data (monitoring, performance, optimisation) ; - Accompagner les équipes sur l'usage des outils data (S3, Glue, Databricks) ; - Contribuer à la gouvernance des données (catalogue, accès, qualité des données) ; - Participer à l'amélioration continue et à l'industrialisation des pratiques Data Ops.
CDI

Offre d'emploi
Data Engineer GCP (H/F)

CELAD
Publiée le

42k-48k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
CDI
Freelance

Offre d'emploi
Expert.e Sécurisation Cloud AWS et GCP F/H

METSYS
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

1 an
54k-58k €
630-650 €
Yvelines, France
METSYS est un intégrateur de solutions Cloud, Microsoft et Cybersécurité. Pour un de nos clients grands-comptes, de renommée nationale dans son secteur d'activité, nous recherchons un.e Expert.e Sécurisation Cloud AWS et GCP (F/H) pour un démarrage le 23 mars 2026 dans les Yvelines (78). Vous travaillerez en lien étroit avec les équipes Cyber et les équipes de notre Client en charge des offres Landing Zones en Cloud Public GCP et AWS ainsi que les utilisateurs métiers qui y déploient et opèrent leurs applications. Plus globalement, votre rôle sera d’assister notre Client sur les missions Run Sécurité suivantes : Lutter contre les vulnérabilités Cloud : -Administrer l’outil CNAPP qui permet de gérer les vulnérabilités, les audits de configuration et les comportements à risque de nos environnements cloud publics ; -Assurer l’adoption de l’outil auprès des utilisateurs : Documentation, formation, accès, amélioration, suivi des bugs, suivi des licences ; -Aider à maintenir tous les contrôles, politiques et procédures à jour en fonction des normes de l'industrie dans un objectif d'amélioration continue. Bâtir une gouvernance sécurité transverse ; -Assurer le pilotage global des risques opérationnels détectés sur ce périmètre par les différents outils en place ; -Coordonner les parties prenantes (dev, secops, infra, référents sécurité) ; -Produire des indicateurs de suivi de la sécurité opérationnelle afin d’apporter de la visibilité et de la confiance ; -Surveiller, gouverner et valider le niveau de maturité et de conformité aux référentiels (ISO, NIST, RGPD, IA Act.) Accompagner les équipes techniques : -Animer des atelier pour aider les équipes techniques à qualifier les vulnérabilités et à répondre aux alertes sur leurs actifs projets ; -Contextualiser les vulnérabilités découvertes selon l’environnement de notre Client ; -La participation et le soutien technique à la résolution des vulnérabilités ; -L’assistance des équipes techniques à la mise en place des bonnes pratiques de cybersécurité pour les clouds publics ; -L’affectation des vulnérabilités aux bonnes équipes, automatiquement ou manuellement ; -Former les développeurs et data scientists aux bonnes pratiques de sécurité. Participer à la vie de l’équipe sécurité : -Analyser les risques liés aux projets ; -Rédiger des expressions de besoins de sécurité ; -Transmettre la connaissance et montée en compétence de la sécurité cloud des équipes ; -Coopérer avec les pairs et la communauté de la cybersécurité au sein de notre Client pour établir une relation de travail collaborative globale, créer une adhésion et une base solide pour les décisions des parties prenantes. Cette liste n'est pas limitative.
Freelance
CDI
CDD

Offre d'emploi
Architecte technique

SARIEL
Publiée le
AWS Cloud
CI/CD
Cloud

12 mois
Paris, France
Bonjour, Nous recherchons pour notre client basé en région parisienne un Architecte Technique. Localisation : 75015 Mission : Au sein de la Direction Exécutive des Systèmes d'Information, et plus particulièrement de la Direction des Infrastructures SI, la cybersécurité et de l'exploitabilité DICE, l'équipe Plan Directeur/Architecture et étude projet est responsable de définir la roadmap globale avec les différents acteurs impliqués, de réaliser la conception et le design des différentes solutions sur l’ensemble du périmètre SI qui contient aussi la gestion et le pilotage du portefeuille de projets lié à la transformation du SI. A ce titre, l'équipe Plan Directeur/Architecture recherche un Architecte Technique qui sera responsable de déterminer les socles techniques d’infrastructure, les solutions d'hébergements et l’architecture technique des infrastructures en déclinaison de l’offre de service DICE La prestation consiste à : - Produire les règles d’architecture et les principes d’usage du cloud Hybride - Évaluer et valider les choix technologiques du domaine, réaliser la veille technologique et proposer les choix sur l’évolution du catalogue de services en liaison avec les Direction d'Ingénierie du SI - Évaluer et valider la conformité de l’architecture infrastructure vis-à-vis de la politique de sécurité du SI - Valider les solutions en comité d’architecture au niveau SI - Suivre régulièrement l’avancement de la roadmap de l’industrialisation des nouvelles technologies du domaine - Optimiser les infrastructures versus le cout des licences e Forte expérience d'ingénierie d'infrastructure SI ou fonctionnelle SI Compétences techniques requises : - Serveurs , Stockages , Bases de Données, Middleware, Réseau et Accès - Architecture Cloud privé VMWare et à base de containers, Infrastructures Agiles ( K8S, Solutions Open Sources ...) - Automatisation, DEVOPS , CI/CD - Cloud Hybride (Cloud Privé, GCP, AWS) - Connaissance des principes Sécurité Maitrise de l'anglais Bonnes qualités relationnelles, diplomatie, adaptabilité et esprit « orienté client » Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
CDI

Offre d'emploi
Consultant.e Cloud GCP

Les Filles et les Garçons de la Tech
Publiée le
Cloud
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)

55k-68k €
Paris, France
Envie de donner de l’impact à votre expertise technique au sein d’une entreprise engagée ? Les Filles & les Garçons de la Tech recrutent un.e Consultant(e) Cloud GCP pour rejoindre leur équipe. Au quotidien, vous accompagnerez nos clients sur les missions suivantes : Concevoir des architectures Cloud GCP hybrides et sécurisées (Cloud / on-premise, réseau, IAM) Déployer et opérer des plateformes Kubernetes sur GKE dans des environnements critiques et multi-environnements Industrialiser les infrastructures Cloud via l’Infrastructure as Code et des standards de déploiement Intégrer des services data et IA sur GCP dans des architectures Cloud Native Optimiser performance, sécurité et coûts sur des plateformes Cloud complexes
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Freelance

Mission freelance
AWS Platform Engineer remote (H/F)

STHREE SAS pour HUXLEY
Publiée le

36 mois
Suresnes, Île-de-France
Contexte Dans le cadre d'une stratégie de résilience de plateforme, nous recherchons un(e) Platform Engineer chargé(e) de concevoir et piloter la mise en place d'une capacité de Disaster Recovery en mode Warm Pilot . Ce rôle s'exerce au sein d'un environnement cloud critique, soumis à de fortes exigences en matière de disponibilité, de fiabilité, de sécurité, d'automatisation et d'excellence opérationnelle. Le poste combine implémentation technique et vision architecturale solide. Le rôle peut se faire en full remote. Mission Le/La Platform Engineer sera responsable de définir, concevoir et implémenter les composants techniques nécessaires à une stratégie de Disaster Recovery Warm Pilot sur AWS. La solution devra être automatisée, testable, sécurisée, exploitable et alignée avec les standards et pratiques d'ingénierie existants. Responsabilités principales Revoir et challenger l'architecture cible de Disaster Recovery Warm Pilot pour les charges de travail cloud critiques. Revoir et challenger les patterns techniques liés au failover, failback, réplication, synchronisation et orchestration de reprise. Traduire les exigences de résilience et de reprise en solutions techniques robustes, pragmatiques et évolutives. Implémenter l'infrastructure et les composants DR via l'Infrastructure as Code et les principes GitOps. Collaborer avec les équipes plateforme, infrastructure, sécurité et applications pour garantir la cohérence de bout en bout. Définir et documenter les procédures de failover, failback, validation de reprise et tests de DR. Identifier les risques techniques, dépendances, points de défaillance uniques et lacunes opérationnelles. Technologies / Environnement AWS Cloud ArgoCD GitLab Terragrunt Profil recherché Platform Engineer disposant de compétences en architecture et design acquises par l'expérience. Solide expérience dans l'exploitation de plateformes de production basées sur AWS. Maîtrise de l'Infrastructure as Code, de l'automatisation et de la standardisation des déploiements. Très bonne compréhension de la résilience, haute disponibilité, disaster recovery et opérations de production. Capacité à concevoir des solutions robustes, simples, maintenables et testables. Aisance pour collaborer avec plusieurs équipes et domaines techniques. Sens du détail et qualité élevée des livrables, y compris de la documentation.
CDI
Freelance

Offre d'emploi
Consultant DevOps GCP H/F

Le Groupe SYD
Publiée le
Ansible
Apigee
Git

36 mois
45k-53k €
480-550 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : Jusqu’à 2 jours/semaine 📝Contrat : CDI ou Indep/Portage 👉 Contexte client : Tu rejoins un acteur majeur du secteur technologique et des services cloud , au cœur d’une équipe Plateforme spécialisée dans l’industrialisation et la sécurisation des environnements d’échanges critiques. L’objectif : renforcer la résilience, automatiser l’exploitation et accompagner les évolutions d’infrastructures complexes intégrant des briques telles que Kafka, Apigee, SFTP, Bucket GCP ou encore MailGun . Tu auras pour missions de : Améliorer l’industrialisation, l’automatisation et la supervision des plateformes d’échanges : Kafka, Apigee, SFTP, Bucket GCP . Travailler sur la résilience des environnements Kafka / Apigee / SFTP et accompagner les projets de migration Kafka (Move2Paris) . Participer aux sujets d’intégration autour de l’ IA avec APIGEE (MCP Server) et d’autres plateformes Google Kafka. Intégrer un nouveau périmètre dans l’équipe : MailGun (Canon à mail) . Concevoir et maintenir des pipelines CI/CD via Git, Argo , Infrastructure as Code avec Terraform , et automatisations via Ansible . Développer des scripts (Shell, Python) pour automatiser, superviser et fiabiliser l’exploitation. Contribuer à la sécurisation, à la montée en robustesse et au monitoring des plateformes. Participer à la rédaction des procédures, documentations techniques et guides d’exploitation . 🧰 Stack technique : Cloud / Plateforme : GCP, Bucket GCP, Kafka, Apigee, SFTP, MailGun, Cloudflare Infra as Code : Terraform CI/CD : Git, Argo Conteneurisation / Orchestration : Kubernetes Automatisation : Ansible Scripting : Shell, Python
Freelance
CDI

Offre d'emploi
Cloud engineer Sénior (530€ MAX)

BEEZEN
Publiée le
Azure
Google Cloud Platform (GCP)

1 an
44k-61k €
400-530 €
Lyon, Auvergne-Rhône-Alpes
3 JOURS SUR SITE Projets Infra France de maintenances, de migrations et de déménagement portant sur les périmètres réseaux, infrastructures legacy (DC historiques), Cloud (Azure, GCP, OCI) ou sur les outils bureautiques France Livrables : ● Cadrage et Note de Cadrage ● Animation Coproj/Copil + compte rendu ● Animation Comité technique + compte rendu ● Suivi projet via outils de gestion de projet (Jira, Gsheet etc.) ● Suivi Budgétaire ● Suivi Plan de Charge ● Suivi des risques ● Document d'architecture des solutions à mettre en oeuvre ● Maîtrise avancée des outils de la Google Suite (Gmail, Sheets, Slides, Google Scripts, Gemini, Looker Studio, Big Query …) ● Diriger des programmes d'envergure nécessitant une maîtrise experte d'un domaine critique pour l'entreprise. ● Solide connaissance des technologies d'infrastructure IT (réseaux, serveurs, stockage, virtualisation, cloud computing, etc.) ● Connaissance des standards et bonnes pratiques ITIL ● Gérer des relations contractuelles complexes avec des partenaires technologiques majeurs et des éditeurs. ● Influencer les décisions stratégiques de l'entreprise grâce à une vision d'expert sur les tendances du marché. ● Valider la cohérence et la pérennité architecturale des solutions déployées au sein du programme spécialisé.
Freelance

Mission freelance
Cloud Ops Engineer GCP

CAT-AMANIA
Publiée le
AWS Cloud
Cloud Provider
Google Cloud Platform (GCP)

1 an
100-450 €
Lille, Hauts-de-France
Gérer l’organisation des 2 principaux Cloud providers : GCP et AWS Proposer, de part votre expérience sur le Cloud, de nouvelles approches de déploiement, gestion et exploitation de systèmes sur le Cloud. Scripting/automatisation/Infrastructure As Code : industrialisation des solutions avec des outils/langages tels que Terraform, Python, CloudFormation… Développer et mettre à disposition des reporting et tour de contrôle (inventaire et qualité) permettant d’informer nos utilisateurs et notre équipe de la qualité et évolution de nos environnements. Coder des applications (API, orchestration) en Python en utilisant les bonnes pratiques de code. Écrire et sensibiliser aux bonnes pratiques d’utilisation du Cloud avec également la formation de nos équipes techniques. Collaborer étroitement avec nos équipes de sécurité pour la gestion des alertes et du renforcement de nos process techniques et fonctionnels.
Freelance

Mission freelance
Ingénieur Système et Réseau

ALLEGIS GROUP
Publiée le
AWS Cloud
CI/CD
Google Cloud Platform (GCP)

6 mois
Rennes, Bretagne
Contexte du poste Au sein de l’équipe Infrastructure & Sécurité du SI, vous participez à la conception, l’évolution et le maintien en condition opérationnelle de l’ensemble des infrastructures du Groupe. Vous intervenez sur des environnements complexes mêlant systèmes, réseaux, sécurité, cloud public (GCP) et technologies open source. Vous jouez un rôle d’expert technique, de pilote de projets et de support avancé. Missions principales 1. Administration Système Conception, mise en œuvre, optimisation et MCO des infrastructures SI. Gestion et administration des environnements : Serveurs Windows & Linux VMware Stockage NetApp / IBM Sauvegardes Veeam Administration des services Microsoft : Exchange Online, AD, Azure AD . Participation à des architectures Open Source . Mise en place et exploitation de solutions Kubernetes (containerisation & orchestration). Gestion des pipelines CI/CD via GitLab CI . Infrastructure as Code avec Terraform pour des environnements GCP . 2. Administration Réseau & Sécurité Administration et supervision des équipements et solutions de sécurité : FW, Proxy, Reverse Proxy, WAF, PAM, SSE, EDR, SSO . Gestion et exploitation des environnements réseaux : Matériel Cisco (dont Nexus) Réseaux LAN / WAN / SDWAN Protocoles TCP/IP, routage 3. Transverse Apporter une expertise technique et proposer des solutions adaptées aux besoins métiers. Piloter les projets réalisés par les intégrateurs. Rédiger et maintenir la documentation : Procédures infra (architecture, sauvegarde, réinstallation). Documents à destination du CSI ou de l’exploitation. 4. Pilotage de projets Conduire les projets de bout en bout, de la conception à la mise en production. Suivre l’avancement, assurer le reporting et piloter les prestataires. Rédiger les procédures d’exploitation et la documentation technique. 5. Support utilisateurs (Niveau 2) Prendre en charge les escalades niveau 2 en provenance des équipes CSI et exploitation. Traiter les demandes applicatives, matérielles et logicielles. Assurer une veille technologique afin de proposer des solutions innovantes.
Freelance

Mission freelance
Directeur de projet GMAO - DATA - H/F - 93

Mindquest
Publiée le
AWS Cloud
Azure
Gestion de projet

3 mois
Seine-Saint-Denis, France
Objectifs de la mission: - Piloter et coordonner les projets GMAO et Data - Garantir la livraison des projets dans le respect des coûts, délais et qualité - Structurer et optimiser le pilotage des équipes et des activités - Assurer l’alignement entre besoins métiers et solutions IT - Mettre en œuvre et faire respecter la gouvernance Data Périmètre d’intervention: Pilotage de projets: - Définition et suivi de la roadmap projets - Planification et pilotage des activités - Suivi des jalons, gestion des risques et arbitrages Coordination des parties prenantes (métiers, IT, prestataires) AMOA & cadrage: - Animation d’ateliers de cadrage - Formalisation des expressions de besoins - Accompagnement des métiers et de la MOA SI - Supervision des recettes fonctionnelles Management & coordination: - Pilotage d’équipes (développeurs, testeurs, AMOA) - Gestion des plans de charge - Organisation et animation des comités projets - Reporting régulier et remontée des alertes Expertise technique & Data: - Supervision des architectures applicatives et data - Environnements Cloud : AWS, Azure - Suivi des outils analytiques et valorisation des données - Recommandations sur les évolutions techniques Gouvernance & qualité: - Mise en œuvre des standards de gouvernance des données - Contrôle de la qualité des livrables - Respect des méthodologies projets - Maintien de la documentation projet Livrables attendus: - Roadmap et planning détaillé des projets - Reporting opérationnel et tableaux de bord - Expressions de besoins et cadrage fonctionnel - Comptes rendus d’ateliers et comités - Suivi budgétaire et indicateurs de performance - Suivi des jalons et qualité des livraisons Documentation projet à jour
CDI

Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience

Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue

La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
Freelance

Mission freelance
DevOps GCP - Rennes

Intuition IT Solutions Ltd.
Publiée le
DevOps
Google Cloud Platform (GCP)

6 mois
400 €
Rennes, Bretagne
1. Contexte du besoin Le client recherche un Consultant DevOps pour rejoindre une équipe existante de 3 DevOps . Cette équipe intervient sur la ligne de produits “Gestion Commerciale en magasin” , solution de back‑office utilisée quotidiennement par plus de 1400 magasins pour la gestion des produits, prix, stocks, commandes, inventaires, balances, traçabilité et étiquettes électroniques..pdf) La mission implique des interventions sur deux environnements : Serveurs Windows en magasins Solutions Cloud, idéalement GCP (Google Cloud Platform) 2. Profil recherché Type : Consultant DevOps Séniorité : 5 ans minimum Capacité attendue : Forte autonomie + esprit collectif
2774 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous