L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 707 résultats.
Offre d'emploi
Expert Cloud GCP
Publiée le
Google Cloud Platform (GCP)
Jenkins
Terraform
40k-50k €
Nantes, Pays de la Loire
Télétravail partiel
Vous serez intégré au sein de l’équipe plateforme LandingZone sur GCP fonctionnant en mode agile (PO, Agile Master, Lead Tech). L’équipe est responsable du Build, Run, MCO et astreinte de la plateforme. Vos tâches : Contribuer aux activités de la LandingZone GCP en mode agile (Scrum / Kanban). Définir des solutions techniques alignées avec le backlog priorisé par le PO. Travailler en binôme avec un équipier et en trinôme avec le PO DevSecOps et les architectes Cloud . Assurer un rôle de conseil, vulgarisation et formation auprès des membres de l’équipe. Accompagner et fédérer autour de nouvelles pratiques et outils. Participer au Build / Run / MCO , incluant des astreintes HNO (1 semaine toutes les 6).
Offre d'emploi
Devops (AWS et GCP) (expert dynatrace) full remote
Publiée le
Ansible
AWS Cloud
DevOps
1 an
47k-56k €
400-550 €
France
Télétravail 100%
Contexte de la mission Dans le cadre d’un programme stratégique visant à renforcer les capacités d’ observabilité et de monitoring multi-cloud , notre client recherche 3 ingénieurs DevOps seniors disposant d’une expertise confirmée sur Dynatrace et d’une solide expérience sur les environnements AWS et GCP . L’objectif est de concevoir, optimiser et automatiser les plateformes de supervision applicative et d’observabilité dans un environnement Cloud moderne et à grande échelle, intégrant des approches IA / Machine Learning (AIOps) pour la détection et la remédiation proactive des incidents. Rôles et responsabilités principales Concevoir et implémenter des solutions complètes de monitoring et d’observabilité sur AWS et GCP. Administrer et personnaliser les environnements Dynatrace (Logs, APM, Metrics, Grail) . Optimiser la collecte, la visualisation et l’analyse des données de performance applicative (Prometheus, Grafana, OpenTelemetry…). Mettre en place et automatiser les chaînes CI/CD (Jenkins, GitLab CI, ArgoCD). Développer et maintenir des infrastructures via Infrastructure as Code (Terraform, Ansible, Helm) . Participer à l’intégration de briques AIOps basées sur l’analyse des données et le Machine Learning. Assurer la gouvernance, la documentation et la standardisation des bonnes pratiques DevOps. Collaborer étroitement avec les équipes Cloud, Sécurité et Architecture pour garantir la performance et la conformité des systèmes. Compétences techniques requises Dynatrace (Logs, APM, Grail, Dashboards, Alerting) – expertise indispensable AWS et GCP – intégration, supervision et exploitation des services natifs Monitoring / Observabilité : Prometheus, Grafana, OpenTelemetry, SolarWinds IaC / Automatisation : Terraform, Ansible, Helm, GitOps CI/CD : GitLab CI, Jenkins, ArgoCD Langages / Scripting : Python, Bash, YAML DevSecOps : intégration sécurité dans les pipelines (Checkov, Trivy, etc.) AIOps / ML : notions ou expérience d’intégration IA pour la supervision (un plus) Anglais professionnel courant (équipe internationale) Informations pratiques Niveau recherché : Senior (minimum 5–6 ans d’expérience sur Dynatrace / Observabilité) Localisation : Full Remote (rares déplacements possibles à Marseille) Ouverture : Profils basés en France, nearshore ou offshore acceptés Démarrage : ASAP Durée : Mission longue et reconductible Langue de travail : Anglais courant Télétravail : 100 % remote possible
Offre d'emploi
Développeur Java / Kafka H/F
Publiée le
Apache Kafka
Docker
Google Cloud Platform (GCP)
12 mois
40k-50k €
400-500 €
Île-de-France, France
Les missions s’articulent autour des axes suivants : · Participer aux phases de Discovery ; · Prendre part dans les analyses techniques et les études d’impacts en amont des développements ; · Concevoir des solutions en respectant et en promouvant les bonnes pratiques de développements ; · Fournir des estimations concernant les futures réalisations (dans le cadre de la méthode SCRUM) · Réaliser les développements en suivant les bonnes pratiques de développement. · Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe ; · Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette ; · Assurer le support lors des mises en production de chacune des évolutions ; · Assurer le maintien en condition opérationnelle des applications du périmètre. · Participer aux activités du Chapter Back End (développement de librairies transverses, partage de connaissances, développement de poc avec impact sur la squad et le Chapter)
Offre d'emploi
Ingénieur DevOps (H/F)
Publiée le
Ansible
AWS Cloud
Azure
12 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Les bonnes pratiques DevOps n’ont plus de secret pour toi et tu souhaites mettre à profit ton expertise dans des projets innovants ? C’est sans doute toi qu’on attend pour compléter notre équipe en intégrant ce poste d’ Ingénieur DevOps ! 🚀 Ton challenge si tu l’acceptes : Accompagner les équipes de développement et d'infrastructure dans l'implémentation des pratiques DevOps Concevoir et maintenir les pipelines CI/CD Automatiser le déploiement et certaines procédures afin d'optimiser la gestion des infrastructures Assurer le bon fonctionnement, la disponibilité ainsi que la sécurité des systèmes et des applications Contribuer aux décisions d'architecture et faire preuve d'une expertise auprès de nos clients Gérer les incidents et problèmes liés aux environnements de production
Offre d'emploi
Data Engineer Python/Spark GCP
Publiée le
Apache Airflow
Apache Spark
Google Cloud Platform (GCP)
2 ans
44k-90k €
400-650 €
Paris, France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Python/Spark/GCP Le data ingénieur avec la stack Python, Spark, SQL, dbt, BigQuery, Airflow, Terraform, Terragrunt, GCP . Ses missions : Déployer des datasets normés Accompagner les utilisateurs dans leurs usages. Mettre en place du contrôle qualité sur les datasets. En détail : Participer aux phases de conception, planification et réalisation. Construire et maintenir des pipelines data robustes et scalables. Organiser et structurer le stockage des données. Mettre en place et maintenir des infrastructures scalables et sécurisées. Contribuer à la gouvernance des données (qualité, fiabilité, intégrité). Construire et maintenir les workflows de CI/CD. Partager et appliquer les bonnes pratiques data engineering. Assurer évolutivité, sécurité et stabilité des environnements. Participer aux instances data engineers et à la mise à jour de la documentation. Assurer une veille technologique active .
Mission freelance
Architecte Intégration
Publiée le
Architecture
Intégration
12 mois
Paris, France
Télétravail partiel
Architecte IT - Intégrateur d'applications sénior, Freelance, 1 ans de contrat initial, Paris, 40% de remote Opportunité attrayante pour un(e) Intégrateur d'applications sénior chevronné(e) pour rejoindre notre client final basé dans Paris XV qui accompagne des milliers de particuliers et de professionnel à travers le monde sur un ambitieux projet de transformation digitale l’un des programmes de move to cloud les plus importants. En tant qu’Intégrateur d’applications Sénior, vous jouerez un rôle clé dans la cohérence technique et applicative du SI, sur les aspects matériels, systèmes, applicatifs et réseaux. Principales missions : Intégrer de nouvelles applications et faire évoluer les existantes. Installer les produits dans le respect des normes et prérequis éditeurs. Mettre en place et maintenir le pipeline CI/CD sous Azure DevOps. Apporter un support de niveau 3 aux équipes de production et de développement. Participer à la définition des architectures techniques des nouveaux projets. Rédiger et maintenir la documentation technique (DAT, DEX, procédures d’installation). Coordonner les chantiers techniques au sein de la DTO.
Offre d'emploi
INGENIEUR CLOUD - DEVOPS
Publiée le
Ansible
CI/CD
ELK
3 ans
40k-55k €
400-450 €
Île-de-France, France
Télétravail partiel
INGENIEUR DEVOPS GCP JUNIOR Démarrage : ASAP Durée : 3 Ans Localisation : Ile de France Télétravail : 40% Profil : Minimum 2 ans d'expérience Cloud (GCP de péréfrence) Certification Kubernetes (CKA / CKAD) Obligatoire Maitrise de Kubernetes, terraform, Gitlab CI/CD, observabilité Anglais : Profesionnel Rigueur, curiosité, esprit d'équipe Responsabilités : Opérer et sécuriser des workloads conteneurisés sur Kubernetes / GKE Automatiser l'infrastructure avec terraform / Ansible et des pipeline CI/CD Déployer et maintenir des solutions et supervision et observabilité (Prometheus, Grafana, ELK) Contribuer aux bonne pratique SRE / DevOps : GitOps, Sécurité by design, documentation
Offre d'emploi
Développeur SPARK/ SCALA
Publiée le
Apache Kafka
Apache Maven
Apache Spark
3 ans
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Contexte du poste: Dans le cadre du développement de sa plateforme Data & Analytics, l'entreprise recherche un Développeur Spark/Scala expérimenté pour rejoindre une équipe agile en pleine croissance. Vous interviendrez sur des projets stratégiques de traitement de données massives et d’industrialisation de pipelines analytiques dans un environnement Cloud et DevOps. Missions principales: Conception et développement de pipelines Big Data avec Spark & Scala Traitement de données batch et temps réel Optimisation de performances et tuning Spark Implémentation de scripts d’industrialisation et automatisation via CI/CD Participation aux cérémonies Agile et collaboration avec les Data Engineers et Architectes Contribution à la mise en production et au MCO des solutions développées Environnement technique: Langages & Frameworks Scala & Spark (obligatoire) Python (confirmé) Java (optionnel, un plus) CI/CD & Automatisation Jenkins (maîtrise impérative) XLR / XLD (XL Release & XL Deploy) Git, Maven Data & Cloud (bonus) Kafka, Hadoop, HDFS Cloud GCP ou Azure (apprécié)
Mission freelance
Intégrateur de solutions cybersécurité – SOC Log Integrator & Parsing Engineer
Publiée le
Apache Kafka
AWS Cloud
Azure
1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Nous recherchons un SOC Log Integrator & Parsing Engineer pour rejoindre une équipe Cybersécurité au sein du Security Operations Center (SOC) . Vous serez responsable de l’ensemble du processus de collecte, parsing et normalisation des logs à travers des environnements cloud et on-premise , en support des opérations SOC 24/7. Rattaché(e) au Build Team Lead , vous collaborerez étroitement avec les équipes Cybersécurité, IT et métiers afin de garantir des mécanismes de défense robustes, scalables et automatisés . Responsabilités Concevoir, implémenter et maintenir des pipelines complets de collecte et parsing de logs Gérer et optimiser les systèmes d’ingestion et de transfert de logs (Fluentd, Kafka, etc.) Développer des parsers avancés pour normaliser les données selon des schémas spécifiques Assurer la qualité, fiabilité et standardisation des logs sur l’ensemble des systèmes Intégrer de nouvelles sources de logs en coordination avec les équipes Réseau, Applicatives et SOC Développer et maintenir les règles de parsing, de normalisation et d’enrichissement pour ingestion dans les SIEM (Elastic, Splunk, Sentinel, etc.) Implémenter des pipelines CI/CD pour l’automatisation du déploiement des configurations Appliquer les pratiques DevSecOps pour sécuriser et fiabiliser les processus d’ingestion Créer des mécanismes de supervision continue du pipeline d’ingestion Contribuer à l’amélioration continue de l’observabilité et des capacités de détection du SOC Documenter l’ensemble des workflows, parsers et composants d’intégration
Mission freelance
Développeur Python Senior – RAG – Boulogne-Billancourt F/H
Publiée le
FastAPI
Google Cloud Platform (GCP)
IA Générative
1 an
450-490 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Contexte du poste Rejoignez une entreprise de renommée mondiale dans le secteur de l'automobile, tournée vers l'innovation numérique et l'intelligence artificielle. Basée à Boulogne-Billancourt, notre entreprise est en pleine transformation digitale et développe une plateforme révolutionnaire basée sur des agents intelligents tels que les agents de type Retrieval-Augmented Generation (RAG). Au sein de notre département Digital & IT, vous intégrerez une équipe dynamique et soudée, œuvrant sur des projets à fort impact. Ce poste est clé pour renforcer notre capacité d’innovation et répondre aux défis croissants du marché. C’est une opportunité unique de contribuer à un projet ambitieux dans un environnement stimulant. Missions Principales Participer au développement back-end de la nouvelle plateforme GenAI interne (ChatGPT d’entreprise) Implémenter des workflows LLM et des agents conversationnels orchestrés (RAG, Agentic, Langchain, LiteLLM...) Développer des API robustes et performantes (FastAPI, Python async) Contribuer à l’intégration dans l’écosystème GCP et au déploiement sécurisé des composants Annexes Participer aux ateliers techniques d’architecture et d’orchestration d’agents Effectuer des revues de code, maintenir les standards TDD, et pratiquer le pair programming Contribuer à la veille technologique sur les frameworks GenAI émergents.
Offre premium
Offre d'emploi
Data analyst H/F
Publiée le
Google Cloud Platform (GCP)
MySQL
PowerBI
Lille, Hauts-de-France
🎯 Venez renforcer nos équipes ! Afin d’accompagner nos clients finaux et de renforcer nos équipes dans le cadre de projets à forte valeur ajoutée sur nos activités, nous recherchons pour notre agence Lilloise un Data Analyst H/F. 📍 Ce qui vous attend : Intégré à l’une de nos équipes, vous participerez aux différentes phases d’analyse et de traitement de la donnée. Vos principales missions permettront de collecter, organiser et exploiter les données stratégiques du client afin de mettre à sa disposition des informations et des outils fiables pour l’aider à prendre des décisions pertinentes. Dans ce cadre, vos principales activités s’articuleront autour de : L’analyse et la compréhension des enjeux et besoins métiers et techniques La localisation et la compréhension des données de production, des processus de mise à jour et des règles de gestion des données La définition de l'architecture et l’identification des spécifications techniques du système cible en tenant compte de l'ensemble des contraintes Le développement de l'ensemble des processus d'intégration : préparation, extraction, transformation, chargement La modélisation et l’enrichissement des DataLakes, DataWarehouses et DataMarts dédiés à une fonction particulière dans l'entreprise La mise en œuvre des outils d'analyse et tableaux de bords associés permettant une exploitation de données collectées en réponse aux besoins clients
Offre d'emploi
EXPERT CNAPP / CWPP
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
50k-70k €
500-600 €
Paris, France
🎯 Missions principales : - Piloter et réaliser le déploiement des agents de sécurité CWPP sur les environnements conteneurisés (Kubernetes, Docker…) et VM, en garantissant leur intégration et leur fonctionnement optimal. - Participer à la mise en œuvre et à l’amélioration continue de la plateforme de sécurité cloud, en tenant compte des besoins métiers et des risques identifiés. - Assurer la gestion et la supervision des solutions CWPP, avec un focus particulier sur la protection des workloads dans un environnement multicloud (Azure,GCP, AWS, Alibaba Cloud etc...). - Collaborer étroitement avec les équipes cloud, sécurité et opérations pour assurer la conformité et la robustesse des protections mises en place. - Participer à des activités de project management : planification, suivi des déploiements, gestion des risques et coordination avec les parties prenantes. - Rédiger la documentation technique, les procédures et les guides d’utilisation, tout en animant des formations ou ateliers internes si besoin. - Rester à la pointe des évolutions technologiques dans le domaine CWPP et proposer des améliorations pour renforcer la posture sécurité cloud.
Mission freelance
Devops GCP / kubernetes
Publiée le
Google Cloud Platform (GCP)
Kubernetes
3 ans
310 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un grand groupe international, nous recherchons un DevOps Junior GCP/Kubernetes . Vous participerez à la conception, au déploiement et à l’amélioration continue d’infrastructures cloud sur Google Cloud Platform. Sous la supervision d’experts confirmés, vous interviendrez sur l’orchestration de conteneurs via GKE, l’automatisation des déploiements, le suivi des performances et l’accompagnement des équipes projets pour garantir stabilité et sécurité des environnements. Stack : GCP KUBERNETES
Mission freelance
Mission Freelance – Data Engineer (GCP / Python / BigQuery)
Publiée le
Google Cloud Platform (GCP)
1 an
400-560 €
Île-de-France, France
Télétravail partiel
Vos missions Concevoir, construire et maintenir des pipelines de données robustes et scalables (batch & stream). Participer à la mise en production et à la qualité des datasets liés à la personnalisation des contenus. Industrialiser les traitements avec Airflow, Terraform et Terragrunt. Garantir la qualité et l’intégrité des données (tests, monitoring, alerting). Optimiser les performances et la structure des données dans BigQuery . Participer à la gouvernance Data : documentation, bonnes pratiques, CI/CD, sécurité. Collaborer avec les équipes Data pour les aider à exploiter et requêter efficacement la donnée. Assurer la veille technologique sur les outils Data & Cloud. 🛠️ Stack technique Langages : Python, SQL, PySpark Cloud : Google Cloud Platform (BigQuery, Cloud Storage, IAM) Orchestration : Airflow Infra as Code : Terraform, Terragrunt CI/CD : GitLab CI Méthodologie : Agile / Scrum / Kanban
Mission freelance
FinOps Consultant, Freelance, France, 80% de remote
Publiée le
AWS Cloud
FinOps
Google Cloud Platform (GCP)
12 mois
France
Télétravail partiel
FinOps Consultant, Freelance, France, 80% de remote Opportunité attrayante pour un(e) Consultant(e) FinOps confirmé(e) pour rejoindre notre client final qui accompagne des millions de particuliers et de professionnel à travers le monde sur l’un des programmes de move to cloud les plus importants. Vous rejoindrez une équipe en plein développement pour intervenir dans la gestion des coûts des plateformes AWS et GCP où vous pourrez proposer votre propre vision du FinOps Principales missions : - Implémenter et mettre en œuvre la stratégie FinOps - Définir les KPI & Dashboard FinOps - Estimer et optimiser les coûts - Evangéliser les bonnes pratiques et animer des workshops de sensibilisation - Suivre les consommations et établir des prévisions budgétaires
Mission freelance
Consultant (H/F) Senior Devops AWS/GCP- Expert Dynatrace
Publiée le
AWS Cloud
Dynatrace
Google Cloud Platform (GCP)
12 mois
France
Télétravail 100%
Dans le cadre d’un projet international de longue durée, nous recherchons un ingénieur DevOps spécialisé sur les environnements AWS / GCP , avec une expertise confirmée sur Dynatrace . Le consultant interviendra sur la conception et la mise en œuvre de solutions complètes de supervision et d’observabilité, l’optimisation des systèmes de monitoring, et l’intégration de technologies basées sur l’IA et le Machine Learning pour l’automatisation. Le rôle inclut la personnalisation et la gestion d’outils tels que Dynatrace, SolarWinds, OpenTelemetry, Prometheus et Grafana .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Le marché du freelancing et de l’IT en 2026 : à quoi s’attendre ?
- Passer de la micro à l'EURL dans les règles de l'art
- Projet d'évolution
- Réforme de l’assiette sociale
- Demande d’enquête métier – Manager en infrastructures et cybersécurité des systèmes d’information
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
2707 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois