L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 388 résultats.
Mission freelance
Ingénieur Devops
Publiée le
DevOps
Google Cloud Platform (GCP)
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Bonjour, Dans le cadre d'une recherche pour un client au poste d'ingénieur Devops, nous recherchons un(e) consultant disponible ASAP. Intégrer de nouvelles applications dans le cadre de projets métiers. Piloter les projets OPS de bout en bout (étude, planification, réalisation, coordination). Participer à la mise en œuvre de nouvelles infrastructures et migrations (cloud, outils, applicatifs). Assurer la coordination entre les équipes Cloud, Systèmes, Réseaux, DBA et Sécurité. Évaluer et piloter les charges, budgets et risques projet. Rédiger et maintenir la documentation technique et projet (comités d’architecture, livrables OPS, etc.). Contribuer à la mise en conformité (sécurité, DORA, cybersécurité). Côté Run : Garantir la stabilité, la performance et la disponibilité des applications en production. Réaliser les opérations techniques nécessaires aux évolutions, corrections et incidents. Assurer le suivi des problèmes et la mise en place de correctifs durables. Contribuer à la gestion des obsolescences techniques. Améliorer en continu les processus d’exploitation pour réduire les incidents. Suivre les indicateurs de performance (Dynatrace, Kibana, Grafana) et établir un reporting régulier. Coordonner les opérations planifiées et les contributeurs techniques.
Mission freelance
Data engineer senior H/F
Publiée le
Google Cloud Platform (GCP)
HFSQL
Python
2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
Mission freelance
Chef de Projet Technique RUN & Gestion de Projet
Publiée le
Gestion de projet
Google Cloud Platform (GCP)
Linux
3 ans
100-430 €
Lille, Hauts-de-France
Télétravail partiel
Responsabilités Gestion de projet (70%) Pilotage des projets techniques liés aux systèmes magasins. Coordination avec les équipes internes et externes. Suivi des livrables, planning et reporting. RUN / Support technique (30% à 50%) Traitement des incidents magasins (environnement retail). Analyse et résolution des problèmes techniques côté Linux/Windows. Interaction avec les équipes pour escalade et communication claire. Compétences techniques obligatoires Chefferie de projet technique (capacité à rentrer dans le détail technique). Expérience en traitement d’incidents magasins (retail fortement apprécié). Systèmes : Linux (maîtrise), Windows. Cloud : GCP (Google Cloud Platform), notions d’Azure. Outils Unix . Puppet (automatisation). Stack Linux (forte expertise). Soft Skills & Personnalité Proactivité : capacité à prendre des décisions et trouver des solutions. Communication : savoir interagir avec les équipes, prendre du recul. Souplesse : profil polyvalent, à l’aise pour toucher à tout. Posture : leadership technique sans rigidité (profil trop « banque/assurance » à éviter). Esprit d’équipe : collaboratif, pas isolé.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
DBT
DevOps
Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Mission freelance
Pilote RSE (F/H) - 59
Publiée le
CI/CD
Datadog
Github
1 an
500-590 €
Ronchin, Hauts-de-France
Télétravail partiel
Mon client recherche un Pilote SRE pour une mission freelance à Ronchin (59). Lieu : Ronchin (59) Remote : 2j par semaine Secteur : retail Durée : 1 an minimum Contexte : Vous serez associé à un domaine spécifique en collaboration avec les équipes OPS. Vous serez en charge d’améliorer la fiabilité, la performance et l’observabilité des systèmes critiques de l’entreprise. Votre rôle sera d’automatiser les processus, de réduire la dette technique et de collaborer avec les équipes Dev, Ops et Security pour aligner les pratiques SRE sur les objectifs business. Mission : Définir et suivre des SLO et SLI pour les services critiques. Automatiser les tâches manuelles (déploiements, scaling, backups) Concevoir et maintenir des dashboards Travailler avec les équipes DevOps, Cloud, Security et Développement pour intégrer les bonnes pratiques SRE Appliquer les politiques de conformité et contribuer à la sécurisation des infrastructures
Mission freelance
Concepteur Développeur
Publiée le
BigQuery
Google Cloud Platform (GCP)
Python
12 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
Développe et construit des schémas / monitorings de qualité de données dans l'entreprise Compétences techniques SQL / Big Query - Confirmé - Impératif Google Cloud Plateform - Confirmé - Impératif Python - Junior - Important Connaissances linguistiques Français Courant (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Positionné(e) dans l'équipe RUN / Process Transverses / Tour de Contrôle, il/elle met en oeuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d'organiser, synthétiser et traduire efficacement des données afin de vérifier la qualité sur l'ensemble des chaînes de valeur monitorées.
Mission freelance
Senior Data Engineer GCP MLOps
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Offre d'emploi
Lead ML Engineering (26)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Lead ML EngineeringContexte de la mission Création d'une équipe dédiée à la personnalisation (PO, DS, Lead MLE, MLE) pour lancer des cas de recommandation et de ML en production. Stack GCP incluant Python, Vertex AI, BigQuery, Cloud Run, Airflow/Cloud Composer (et autres services GCP). Objectifs : créer les premiers use cases, déployer & A/B tester en prod, monitorer la performance. Activités attendues Définir l'architecture & la feuille de route technique (performance, scalabilité, sécurité). Coacher l'équipe pour garantir la qualité du code/modèles. Concevoir, construire & maintenir des pipelines ML de la collecte à l'exposition via API REST. Organiser le stockage ; assurer scalabilité, sécurité, stabilité des environnements. Mettre en place des infrastructures scalables et les workflows CI/CD ; industrialiser les modèles avec les DS. Collaborer avec Data Engineers & équipes techniques ; documentation & veille ; participation au cadrage/planification/réalisation.
Mission freelance
Développeur Java / Kafka F/H
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java
12 mois
450-480 €
La Défense, Île-de-France
Télétravail partiel
Description de la prestation : Le consultant intégrera une squad du programme Galaxy. En intégrant l’équipe de développeurs, il participera à l’estimation et la réalisation des fonctionnalités. En lien avec le Tech Lead de sa Squad, il travaillera avec un Ops pour la partie CICD et sera garant de la qualité du code produit. Les missions s’articulent autour des axes suivants : • Participer aux phases de Discovery ; • Prendre part dans les analyses techniques et les études d’impacts en amont des développements ; • Concevoir des solutions en respectant et en promouvant les bonnes pratiques de développements ; • Fournir des estimations concernant les futures réalisations (dans le cadre de la méthode SCRUM) • Réaliser les développements en suivant les bonnes pratiques de développement de l'entreprise. • Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe ; • Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette ; • Assurer le support lors des mises en production de chacune des évolutions ; • Assurer le maintien en condition opérationnelle des applications du périmètre. • Participer aux activités du Chapter Back End (développement de librairies transverses, partage de connaissances, développement de poc avec impact sur la squad et le Chapter) Les aptitudes requises : Compétences métiers/techniques : • Développement Back-End en JAVA 17/21 • Les frameworks JAVA communs tels que Spring (Web, Security, Boot...) • Connaissance et pratique d’Apache Kafka (Producer, Consumer). Les connaissances de Kafka Stream, Kafka Connect et du Schema Registry seront considérées comme un gros plus • Maitrise des API REST • Les modèles d’architectures Microservice • Connaissance et pratique de l’architecture hexagonale • Connaissance et pratique du TDD, BDD, Cucumber • Pratique de la sécurité des API • Serveur d'application Jetty, Tomcat et des technologies JEE • Utilisation des outils de CICD (Gitlab) et de contrôle de source (Git) • Utilisation de Docker et Kubernetes • Les bases de données et la modélisation (SQL, PostgreSQL, Oracle, MySQL, Hibernate) • Les méthodologies Agile (User story, backlog, cérémonies, etc …)
Mission freelance
Cloud Cybersecurity Expert
Publiée le
Cybersécurité
Google Cloud Platform (GCP)
3 ans
Île-de-France, France
Cloud Cybersecurity Expert, Freelance, 3 ans de contrat initial, IDF, 65% de remote Opportunité attrayante pour un(e) expert en cybersécurité cloud avec plusieurs expériences sur GCP afin de rejoindre notre client final qui accompagne des millions de particuliers et de professionnel à travers le monde sur l’un des programmes de move to cloud les plus importants de son marché et de son histoire ! Vous rejoindrez une équipe en plein développement pour intervenir dans un contexte multi cloud exigeant et complexe où vous pourrez proposer votre propre vision de la sécurité du cloud appliquée à l’IA. Principales missions : · Suivi, évolution et maintien de la sécurité d’une Landing Zone Google Cloud · Études & design de solutions de cybersécurité · Implémentations en IaC (Terraform) · Analyses de services Google Cloud (Agentspace, VPC-SC, PSC, Gemini Code Assist, etc.) · Documentation sous Confluence (validation interne obligatoire) · Participation à la comitologie Cloud & Cyber (réunions hebdo) · Support ponctuel RUN / réponse à incident
Mission freelance
Administrer moteurs bases de données et plateformes data
Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL
1 an
370-390 €
Tours, Centre-Val de Loire
Télétravail partiel
Missions principales L’ingénieur de Production data assure : L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. La gestion des incidents et participe à la résolution des problèmes Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) Maintien en conditions opérationnelles des plateformes Suivi et amélioration des performances (mémoire, disques, index, requêtes), Stratégies de sauvegarde, restauration et supervision La gestion des accès et création des comptes autorisés à se connecter aux plateformes De la veille technologique La gestion documentaire du périmètre Astreinte
Mission freelance
Devops AWS / GCP
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
12 mois
370-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un OPS Cloud Public / DevOps confirmé pour intervenir sur le cycle de vie applicatif, l’exploitation Cloud (AWS/GCP), la CI/CD, l’observabilité et la gestion des incidents/changes. Missions principales : Création & gestion de ressources natives Kubernetes / Cloud Accompagnement des équipes applicatives à l’usage des outils DevOps Bon accostage Dev → Cloud public via CI/CD (GitLab, Artifactory, Vault…) Définition des flux de logs, automatisation des tests & prérequis d’exploitation Mise en place de tests de sécurité (images, vulnérabilités, intrusion) Construction de l’observabilité, supervision & alerting (GCP/AWS) Provisionnement & déploiement IaC (Terraform, KCC) Gestion des changements : Prise en charge des requêtes ServiceNow jusqu’à clôture Analyse d’impact, préparation & autorisation des changements Contribution aux devis projets & respect des normes de production Coordination mise en production, validation DTA, supervision, consignes Incidents & problèmes : Gestion complète des incidents & communication client Coordination restauration service / SLA Production post-mortem + suivi plan d’actions Analyse des causes racines & actions pérennes Configuration & reporting : Gestion CMDB (CI) Reporting opérationnel & contribution aux comités Mise à jour documentation, DEX, DTA, référentiels
Mission freelance
Architecte réseau et sécurité (F/H)
Publiée le
Azure
Fortinet
Google Cloud Platform (GCP)
6 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Architecte Réseau et Sécurité afin de rejoindre l'équipe Architecture Technique de la direction Infrastructures et Technologies et intégré aux équipes opérationnelles Missions A ce titre vous aurez la charge : - de concevoir le design des solutions Réseaux dans le cadre des programmes technologiques: - de définir la feuille de route de la transformation technologique associée - de garantir l'implémentation de la feuille de route en participant activement aux projets de déploiement - d'assister les équipes de production via votre expertise sur les solutions - d'identifier les problèmes et construire les plans de correction et d'amélioration L'ensemble de ces missions doivent être réalisées dans le respect des bonnes pratiques, des exigences de sécurité et de conformités De nature passionnée, curieuse, et persévérante, vous souhaitez intervenir dans le cadre de missions challengeantes et variées.
Offre d'emploi
Expert Kubernetes / DevOps
Publiée le
Ansible
Azure
Cloud
3 ans
40k-65k €
400-560 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de son pôle DevOps, un grand groupe international du secteur du luxe recherche un Expert Kubernetes / DevOps afin d’industrialiser les déploiements des infrastructures cloud et de renforcer l’expertise autour des plateformes de conteneurisation. La mission s’inscrit au sein d’une équipe DevOps transverse, en charge des produits et solutions d’automatisation utilisés par les équipes techniques et projets. Objectifs de la mission L’expert interviendra sur les sujets suivants : Définition, évolution et maintien des toolkits de la fondation Kubernetes déployée sur plusieurs environnements cloud Contribution experte au déploiement et à l’extension de la plateforme Kubernetes sur différents fournisseurs cloud Mise en place de standards, bonnes pratiques et patterns d’industrialisation Accompagnement des équipes projets dans l’adoption et l’utilisation de la fondation Kubernetes Support aux équipes opérationnelles Transfert de compétences vers les équipes internes Responsabilités principales Participer à l’animation et à l’expertise du domaine DevOps Intervenir en tant que référent technique Kubernetes Garantir la qualité, la robustesse et la maintenabilité des déploiements Contribuer à l’amélioration continue des processus et outils DevOps
Mission freelance
Senior Data Engineer GCP (H/F)
Publiée le
Google Cloud Platform (GCP)
12 mois
550 €
Paris, France
Télétravail partiel
Nous recherchons un Senior Data Engineer pour intervenir au sein d’une équipe Data & Commerce dans un environnement international exigeant. Le consultant interviendra sur la conception et la mise en œuvre d’architectures Cloud GCP complexes, l’optimisation avancée BigQuery, le développement API, l’orchestration de pipelines et l’industrialisation des modèles Data & AI. La mission couvre un périmètre complet allant de l’architecture à la performance, en passant par les pratiques DevOps et IaC avec Terraform. Le rôle inclut également la participation aux initiatives GenAI, l’encadrement technique des développeurs et l’optimisation des modèles de données (Star Schema, Snowflake). Le consultant interagira directement avec les équipes Customer Service / Client Management pour soutenir la construction d’une plateforme Data évolutive, performante et conforme aux standards du groupe.
Offre d'emploi
Expert Sécurité Cloud spécialisé en IAM H/F
Publiée le
AWS Cloud
CI/CD
Google Cloud Platform (GCP)
36 mois
50k-65k €
530-600 €
Paris, France
Télétravail partiel
Nous recherchons un expert Sécurité Cloud spécialisé en Identity and Access Management (IAM) pour intervenir sur un projet stratégique à l’échelle internationale. Intégré à une équipe d’experts sécurité, vous serez chargé d’auditer les configurations IAM existantes sur les environnements GCP, Azure et AWS, d’identifier les vulnérabilités, et de concevoir une stratégie IAM robuste et conforme aux standards de sécurité du groupe. Vous participerez à la mise en œuvre de contrôles via des outils tels que AWS SCP et GCP Deny Policy, tout en accompagnant les équipes projets dans la compréhension et l’adoption des bonnes pratiques IAM.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Passage sasu à eurl: transition mutuelle/prévoyance
- Décider quand on est freelance selon ses chiffres
- Résultat négatif veut dire CCA débiteur donc illégal ?
- Transfert d'activité - cession du fond de commerce
- Mise à jour info-retraite
388 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois