Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 503 résultats.
Freelance
CDI

Offre d'emploi
Product Owner GCP

SMILE
Publiée le
Google Cloud Platform (GCP)

3 mois
40k-55k €
400-550 €
75015, Paris, Île-de-France

Vous rejoignez l’équipe Cloud Public, au sein de laquelle vous intégrerez la squad GCP. Vous aurez en charge le delivery technique des éléments de roadmap décidés. Vous serez responsable de la gestion du backlog et de l’animation de la squad GCP. Le périmètre de cette Squad s’étend de la conception technique du produit, de sa sécurisation, de sa mise en œuvre opérationnelle, de son maintien en condition opérationnelle en production et sa mise en œuvre financière. Vous évoluerez dans un environnement technique riche, distribué, sécurisé et hautement disponible. L’équipe est organisée en Agile. A ce titre, vos missions principales seront : o Mise en œuvre des actions en déclinaison de la Roadmap o Gestion du backlog produit et de son traitement en animant les ressources de la squad o Vision à 360 de toutes les activités relatives au produit o Animation de la squad et des contributeurs en coordonnant les activités et en animant la comitologie du produit o Piloter le budget de Build o Participer à la construction du budget Build et Build to run et optimiser le budget Run du produit en remontant les besoins au Product Manager o Communication interne Socle o Communication externe Socle: Pôles et Clusters du client, Entités du groupe

Freelance

Mission freelance
Architecte Opérationnel Cloud Public (ArchOps) – GCP

Signe +
Publiée le
Google Cloud Platform (GCP)

6 mois
400-650 €
Paris, France

Le client recherche un Architecte Opérationnel Cloud Public (ArchOps) – GCP afin de faire évoluer, cadrer et industrialiser sa Landing Zone GCP , sécuriser les choix d’architecture et accélérer l’adoption maîtrisée des services managés par les projets internes. L’ArchOps travaillera en lien avec le System Architect de la chaîne de service Cloud Public, les intégrateurs, le fournisseur cloud, et les équipes internes pour définir la trajectoire technique, outiller la gouvernance et accompagner les projets (Build & Run). Enjeux principaux Élever le design de la Landing Zone selon l’état de l’art : réseau, IAM, sécurité, scalabilité, FinOps. Cadrer et valider les services managés GCP au sein du CSR (contrôles, Org Policies, tags, gouvernance). Industrialiser l’automatisation (Terraform, GitLab CI/CD, scripts) et renforcer le DevEx. Accompagner les projets dans leur accostage à la Landing Zone (conseil, validation, dossiers d’architecture). Assurer le support N3, le transfert de compétences et la documentation d’exploitation à jour. Garantir une gouvernance outillée et traçable des décisions d’architecture, alignée avec les comités CCOE / Design Authority. Périmètre des missions Étude et évolution de l’architecture (réseau, IAM, sécurité, scalabilité, FinOps). Validation des services managés GCP (cadrage, règles de contrôle, Org Policies). Contribution au backlog d’évolution technique et préparation des PI Planning. Définition/maintenance du DevEx (CI/CD, scripts, catalogue de services). Industrialisation en code et documentation (tests, traçabilité CI/CD, normes EDF). Support à l’exploitation et transfert de compétences (guides, formations, REX). Participation aux instances SAFe et comités de pilotage. Livrables attendus Architecture : Dossier d’Architecture Technique du socle (mis à jour à chaque évolution majeure). Synthèse des décisions d’architecture avec traçabilité continue. Dossiers d’étude et d’aide à la décision (Confluence/PPT) par release. CSR & Gouvernance : Cahiers de recette avec jeux de tests automatisés (lorsque possible). Fiches de service (au moins une par trimestre) présentées en comité CCOE / Design Authority avec plan de contrôle. Projets : Comptes rendus et dossiers d’architecture (fonctionnelle/technique, RACI). Indicateurs de satisfaction projets. DevEx & Industrialisation : Pipelines CI/CD et scripts par release. Catalogue des services (MAJ semestrielle). Documentation DevEx initiale puis mise à jour. 100 % du code documenté/versionné (Git), respect qualité/process, zéro geste manuel. Transfert de compétences : Guides d’exploitation par release. Supports et rapports de formation (2–3/an, satisfaction >80 %). Suivi : PVR mensuel contradictoire conditionnant la rémunération (qualité/délais/volumes). Compétences requises Architecture Cloud Public – Expert – Impératif. Google Cloud Platform (GCP) – Expert – Impératif. Google Cloud Storage – Expert – Impératif. CI/CD DevOps (Terraform, GitLab CI/CD, scripts) – Expert – Impératif. Français courant (oral & écrit) – Impératif.

Freelance

Mission freelance
[LFR] Product Ownership GCP senior - Paris - 840

ISUPPLIER
Publiée le

10 mois
300-580 €
Paris, France

Contexte métier/technique Dans le cadre de son plan à moyen terme, l’entreprise a décidé de déployer un nouveau projet client afin de renforcer sa dynamique de croissance et d'investir pour améliorer durablement son efficacité industrielle. Ces priorités et les ruptures technologiques sans précédent qui accompagnent la révolution digitale vont conduire toutes les entités à investir durablement et significativement dans de nouveaux standards informatiques (Cloud, DevOps, …). Dans ce contexte, il a été décidé de créer un pôle unique infrastructure et production informatique regroupant la majorité des activités de production informatique. Présent sur tout le territoire français avec 17 sites, cette entité regroupe près de 80 % de la production informatique et dispose d'une gouvernance paritaire. Elle est constituée de Socles (Z, Natif, Open, Digital Workplace, Réseaux et internet, Centre Opérationnel Cyberdéfense, Datacenters et Supervision), de Clusters (Banque de proximité, Grandes clientèles, Gestion de l’épargne et de l’assurance, Services financiers spécialisés, Paiements) et de fonctions transverses. L’objectif est de devenir un pôle technologique de 1er plan en Europe, attractif pour les collaborateurs, les nouveaux talents et les partenaires technologiques. Organisation du projet L’entreprise est maître d'ouvrage de la prestation et conserve le droit, aux vues des premières conclusions, d'abandonner la prestation ou de n'en retenir qu'une partie. Les frais liés aux études, formations et à la constitution des réponses seront à la charge des soumissionnaires. Objectifs de la mission Intégrer l’équipe Cloud Public et la Squad GCP pour assurer le delivery technique des éléments de roadmap. Gérer le backlog produit et animer la squad GCP. Couvrir l’ensemble du cycle de vie du produit : conception technique, sécurisation, mise en œuvre opérationnelle, maintien en condition opérationnelle, gestion financière. Évoluer dans un environnement technique riche, distribué, sécurisé et hautement disponible, en organisation Agile. Missions principales Mettre en œuvre les actions issues de la roadmap Gérer le backlog produit et animer les ressources de la squad Maintenir une vision globale (360°) des activités liées au produit Coordonner les activités et animer la comitologie du produit Piloter le budget de Build Contribuer à la construction du budget Build et Build-to-Run, optimiser le budget Run en remontant les besoins au Product Manager Assurer la communication interne et externe sur le périmètre du socle Compétences requises Comprendre une architecture Cloud Public (GCP) et les besoins clients associés Maîtriser la méthodologie Agile Être force de proposition Communiquer et partager efficacement Connaissance IT de l’activité encadrée Maîtrise du cycle de vie produit Product Management Priorisation du Product Backlog Planification des tâches et ressources projet Reporting, alerting et suivi des KPIs projet Gestion et optimisation des coûts projets Gestion de la relation client Capacité à pitcher Lieu d’exécution de la mission PARIS ou GUYANCOUR • Les astreintes (HNO, etc…) : oui • La possibilité de renouvellement : Oui • Type de prestation (Client / Hybrid / Remote) : Client • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours / semaine

Freelance
CDI

Offre d'emploi
Data scientist

Management Square
Publiée le
Docker
Google Cloud Platform (GCP)

1 an
45k-50k €
400-450 €
Lille, Hauts-de-France

Nous sommes à la recherche d'un(e) : Data Scientist - Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. - Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). - Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). - Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. - Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. - Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. - Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

Freelance

Mission freelance
Lead Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Google Cloud Platform (GCP)

6 mois
540-600 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Freelance

Mission freelance
Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Google Cloud Platform (GCP)

6 mois
540-600 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Freelance

Mission freelance
data ingnénieur

Etixway
Publiée le
Apache Kafka
BigQuery
Docker

1 an
330-530 €
Lille, Hauts-de-France

Objectif global :Développer le socle data Loyalty & Quotation  Contrainte forte du projet -  Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

Freelance

Mission freelance
Cloud FinOps Specialist H/F

KOLABS Group
Publiée le
Azure
Cloud
FinOps

6 mois
Paris, France

Pour le compte de notre client du secteur du luxe, nous recherchons un Expert Cloud FinOps pour intervenir dans un environnement multi-cloud. La mission s’inscrit dans un contexte de transformation IT, avec un focus sur la maîtrise des coûts et la performance des ressources cloud. 💼 MISSIONS Assurer le suivi et l’optimisation des budgets cloud (FinOps) pour les environnements Azure et GCP Participer aux projets de migration cloud, incluant deux applications et 900 serveurs, avec un rôle de coordination technique Mettre en place et gérer des stratégies de “start/stop” et de right-sizing pour optimiser l’utilisation des ressources cloud Produire des rapports d’analyse et des présentations à destination du management (Excel, PowerPoint) Collaborer avec les équipes techniques et projets pour assurer la performance et la rentabilité des infrastructures cloud

CDI
Freelance

Offre d'emploi
Ingénieur API & Intelligence Artificielle (H/F)

Amontech
Publiée le
API
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-550 €
Île-de-France, France

Nous recherchons un API & Prompt Engineer expérimenté pour rejoindre une équipe engagée dans le développement d’une plateforme SaaS innovante dédiée au calcul d’empreinte environnementale (carbone, hydrique, biodiversité). Vous contribuerez à l’intégration de l’IA dans une gamme de produits digitaux stratégiques, en lien direct avec les équipes produit et techniques. 🎯 Missions Concevoir, développer et optimiser les agents AI et leurs fonctionnalités. Écrire, tester et améliorer des prompts . Définir et développer les APIs nécessaires au fonctionnement des agents. Contribuer au développement de nouvelles fonctionnalités en mode collaboratif. Travailler au quotidien avec Product Owners, Product Managers, développeurs et UX Designer. Garantir les bonnes pratiques de développement et la qualité technique des livrables. 🔧 Compétences recherchées 5+ ans d’expérience en développement logiciel, notamment en Python . Solide maîtrise de la conception d’APIs . Expérience confirmée en intégration de solutions AI . Bonne connaissance des méthodologies Agile (Scrum, CI/CD, GitLab, etc.) . Connaissance de l’ environnement Cloud (GCP apprécié). Excellentes qualités relationnelles et capacité à travailler en équipe. 📍 Localisation & organisation Basé en Île-de-France. Télétravail possible jusqu’à 2 jours par semaine . Équipe projet internationale et pluridisciplinaire (12 personnes). 📅 Démarrage & durée Démarrage : ASAP – septembre 2025 . Mission longue durée : 12 mois et plus . Positionnement possible en CDI ou en freelance (ouverture aux sous-traitants).

Freelance
CDI

Offre d'emploi
Data Engineer GCP & Talend

Espritek
Publiée le
Google Cloud Platform (GCP)
SQL
Talend

3 ans
Ivry-sur-Seine, Île-de-France

Au sein de la Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour nos équipes. Description  Missions principales • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe Livrables Développements Cahiers de test/recette Dossier de recette / Mise en production Spécifications Document d'exploitation Fiche consigne Compétences  Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • Talend : Solides compétences dans la conception et la gestion des workflows • GCP : Expérience sur les outils BigQuery, Dataflow, DataForm, Pub/Sub, CoudComposer et d’autres services GCP liés aux données. • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins, ou Terraform (serait un plus).

Freelance

Mission freelance
Data Analyste H/F

WHEEL OF WORK
Publiée le
Apache Kafka
BigQuery
ETL (Extract-transform-load)

3 ans
380-400 €
Lille, Hauts-de-France

Contexte Notre client poursuit sa stratégie Data en renforçant ses équipes autour du développement et de la maintenance de solutions Data Analytics . L’objectif est d’exploiter pleinement la donnée pour optimiser la prise de décision et accompagner les métiers dans leurs usages, en s’appuyant sur les environnements SQL, ETL, Power BI, Looker et GCP . Missions Le consultant interviendra au sein d’une équipe agile et sera en charge de : Analyser les besoins utilisateurs et proposer des solutions adaptées. Concevoir, développer et maintenir les solutions Data (alimentation, stockage, modélisation, restitution). Participer au run et assurer la qualité des développements. Optimiser le patrimoine existant et contribuer à la construction du nouveau socle Data sur Google Cloud Platform . Développer des modèles sémantiques Power BI en réponse aux besoins métiers. Participer aux rituels agiles et accompagner les métiers dans l’acculturation Data et les bonnes pratiques.

Freelance

Mission freelance
Data Analyst

Coriom Conseil
Publiée le
Apache Kafka
BigQuery
CI/CD

12 mois
400-450 €
Lille, Hauts-de-France

Expertise SQL, ETL - Expert - Impératif Power BI, Looker - Confirmé - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Souhaitable Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data - Réaliser les modèles sémantiques Power BI répondant aux besoins métiers

Freelance

Mission freelance
Architecte Solution Cloud GCP

PARTENOR
Publiée le
API
Google Cloud Platform (GCP)
oauth

1 an
400-870 €
Paris, France

Afin de renforcer nos équipes chez l'un de nos clients grands compte, nous recherchons un(e) Architecte technique Solution F/H. Missions : - Définir l’architecture technique, la documenter et mettre en œuvre les composants nécessaires à la construction et l’évolution des produits - En s’appuyant sur le catalogue des patterns d’entreprise, s’assurer que les architectures proposées répondent aux exigences suivantes : - Conformité avec les guidelines et directives d’architecture de l’entreprise - Standardisation et respect de la stack technologique - Sécurité (selon les préconisations DIRS) - Scalabilité et robustesse (à leur juste niveau) - Coût et d’optimisation de coût Durant les phases de développement MVP et releases, vous serez en support aux projets sur la conception et la résolution des problèmes techniques. Environnement technique : OnPremise et Cloud GCP Solutions de stockage de données (SGBD, NoSQL, fichiers, Big data) Calcul (VM, containers, orchestration, serverless) Interfaçages (API, events, streaming) Authentification (OIDC/OAuth) CI/CD Intégration de progiciels Connaissance d’un language de développement Maitrise de la méthodologie Agile et SAFe Maitrise de l’anglais

Freelance

Mission freelance
Ingénieur Devops (F/H)

CELAD
Publiée le
Bash
CI/CD
GitLab CI

1 an
400-450 €
Nîmes, Occitanie

A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 Freelance OU portage (400-450€/j) – 🏠 3 jours de télétravail par semaine – 📍 Nîmes (30) – 🛠 Expérience de 4/5 ans min. Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous recherchons pour notre client un Ingénieur Devops. 💻💼 🎯 Voici un aperçu détaillé de vos missions : - Automatiser les processus de déploiement et de gestion des infrastructures, - Mettre en place et gérer les outils de CI/CD (Intégration Continue / Déploiement Continu), - Surveiller les performances des systèmes et des applications, - Assurer la sécurité et la conformité des infrastructures, - Collaborer avec les équipes de développement pour optimiser les processus de développement et de déploiement, - Gérer les incidents et assurer la disponibilité des services, - Documenter les procédures et les configurations.

Freelance

Mission freelance
Ops Engineer – Réseau & Cloud (Infrastructure & Automatisation)

ESENCA
Publiée le
Google Cloud Platform (GCP)
Python
Réseaux

1 an
400-500 €
Lille, Hauts-de-France

En tant que Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall) et cloud (Landing Zone). - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau et cloud. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau et au cloud. - Appliquer les mises à jour et les correctifs de sécurité. - Participer a l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau et cloud. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations). Compétences Techniques Requises Réseau : - Maîtrise des protocoles réseau (TCP/IP, BGP, OSPF, MPLS). - Expertise sur les équipements Cisco, ou équivalents (routing, switching). - Connaissance approfondie des firewalls (Palo Alto). Cloud : - Expérience significative sur au moins un fournisseur de cloud majeur (GCP, Azure). - Maîtrise des services réseau cloud (VNet/VPC, FW, Cloud NAT, routing). - Expérience avec l'Infrastructure as Code (Terraform). Software Engineering: - Experience en Software Engineering (Python)/API Monitoring : - Expérience avec des outils de monitoring (Datadog, Zabbix).

Freelance

Mission freelance
JS FullStack Developer, on GenAI (GCP) - 92 - English mandatory

Montreal Associates
Publiée le
AI
Google Cloud Platform (GCP)
Javascript

4 mois
500-650 €
Saint-Denis, Île-de-France

JS FullStack Developer, on GenAI (GCP) - 92 - English mandatory 🎯 Le projet : Nous recherchons quelqu'un pour participez à un projet innovant et international qui associe développement web JS et intelligence artificielle générative , on Cloud (GCP) Vous travaillerez au sein d’une équipe dynamique sur la création et l’optimisation d’applications full stack JS intégrant les dernières avancées en IA générative (textes & images) , avec un fort accent sur la performance, la scalabilité et l’expérience utilisateur. 🔧 Missions principales : Concevoir et développer des applications web full stack robustes et performantes. Intégrer des modèles de GenAI dans les plateformes (NLP & génération d’images). Concevoir et implémenter des interfaces utilisateurs ergonomiques et esthétiques . Collaborer sur l’infrastructure cloud GCP et les bases de données (orchestrées par MongoDB) afin de garantir des solutions scalables et optimisées. Participer activement aux choix techniques et à l’amélioration continue du projet.

2503 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous