Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 184 résultats.
Freelance

Mission freelance
Site Reliability Engineer (SRE) transverse

Publiée le
Bash
Datadog
Google Cloud Platform (GCP)

3 ans
100-460 €
Lille, Hauts-de-France
Télétravail partiel
Site Reliability Engineer (SRE) Transverse - Plateforme CCDP Au sein de la Customer & Commerce Digital Platform (CCDP), vous interviendrez en tant que Site Reliability Engineer (SRE) Transverse. Votre rôle est clé : apporter une expertise technique pointue, soutenir les équipes Produit et garantir l'excellence opérationnelle de la plateforme. Nous recherchons un profil axé sur l'Ingénierie de la Fiabilité et l'Automatisation pour scaler nos services. Vos Responsabilités Clés Ingénierie de la Fiabilité (SRE) : Piloter l'amélioration continue de la stabilité, performance et résilience de la plateforme. Accompagner les équipes Produit dans la définition et le suivi des SLOs/SLIs (Service Level Objectives/Indicators). Gérer et analyser les incidents de production (incident response et post-mortems sans reproche). Automatisation & Réduction du Toil : Identifier, développer et déployer des outils d'automatisation (scripts, IaC) pour réduire le "Toil" des équipes de niveau 1 et 2, augmentant ainsi l'efficacité opérationnelle. Renforcer les pratiques d'Observabilité (métriques, logs, tracing) pour un diagnostic proactif. Expertise et Conseil : Apporter votre savoir-faire pour garantir la continuité de service et assister quotidiennement les équipes dans l'adoption des meilleures pratiques SRE (Infrastructure, Sécurité, Gestion des changements). Compétences Recherchées Solide expérience en tant que SRE ou DevOps/Software Engineer avec une forte culture fiabilité. Maîtrise de l'automatisation (Python/Go, Bash) et de l'Infrastructure as Code (Terraform). Connaissance approfondie de l'écosystème Kubernetes et Cloud.
CDI
Freelance

Offre d'emploi
Architecte Cloud GCP (H/F)

Publiée le
CI/CD
Git
IAM

24 mois
50k-60k €
400-450 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 à 3 jours par semaines 👉 Contexte client : L’entreprise pour laquelle tu interviendras place désormais le Cloud au cœur de sa stratégie. Tous les nouveaux projets sont conçus nativement sur GCP, et l’équipe architecture joue un rôle clé dans la structuration, l’amélioration continue et l’industrialisation des environnements Cloud. Tu rejoindras une équipe d’architectes experte en GCP, en architectures techniques et applicatives, et maîtrisant les enjeux. Tu auras pour missions de : Concevoir des architectures Cloud GCP robustes, sécurisées, évolutives et optimisées FinOps. Améliorer en continu les environnements Cloud : performance, sécurité, résilience, gouvernance. Réaliser des études d’architecture : cadrage, design, analyse d’impacts et recommandations techniques. Jouer le rôle d’interface entre les besoins métiers et les solutions Cloud. Définir et industrialiser des standards, patterns et bonnes pratiques. Contribuer à l’automatisation et à l’industrialisation des plateformes Cloud. Sensibiliser, former et accompagner les équipes internes sur les usages GCP. Participer activement à la gouvernance Cloud (sécurité, coûts, organisation, cohérence technique). Travailler dans un écosystème composé d’experts internes et externes, avec une forte dynamique de partage et de montée en compétence collective. Stack technique : GCP, Kubernetes/GKE, Terraform, Git, CI/CD, Cloud Monitoring, IAM, VPC, Cloud Armor, Security Command Center, pratiques FinOps...
CDI

Offre d'emploi
Data Architecte - Lyon

Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance
CDI

Offre d'emploi
Lead ML Engineering (26)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Lead ML EngineeringContexte de la mission Création d'une équipe dédiée à la personnalisation (PO, DS, Lead MLE, MLE) pour lancer des cas de recommandation et de ML en production. Stack GCP incluant Python, Vertex AI, BigQuery, Cloud Run, Airflow/Cloud Composer (et autres services GCP). Objectifs : créer les premiers use cases, déployer & A/B tester en prod, monitorer la performance. Activités attendues Définir l'architecture & la feuille de route technique (performance, scalabilité, sécurité). Coacher l'équipe pour garantir la qualité du code/modèles. Concevoir, construire & maintenir des pipelines ML de la collecte à l'exposition via API REST. Organiser le stockage ; assurer scalabilité, sécurité, stabilité des environnements. Mettre en place des infrastructures scalables et les workflows CI/CD ; industrialiser les modèles avec les DS. Collaborer avec Data Engineers & équipes techniques ; documentation & veille ; participation au cadrage/planification/réalisation.
Freelance
CDI

Offre d'emploi
Data Quality Analyst

Publiée le
Data governance
Data quality

1 an
40k-45k €
400-610 €
Paris, France
Télétravail partiel
Mission La mission du Data Office s'est fortement enrichie avec la promotion de l'utilisation de la DATA par l'ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de l'organisation et du Groupe. L'objectif est de développer l'activité commerciale, de diminuer les couts, d'améliorer l'efficacité opérationnelle et de répondre à la dimension règlementaire. La mission est au sein de l'équipe Data Office Data Quality. L'activité de cette équipe porte sur le développement, l'amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l'écosystème de l'organisation et sur l'accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion..)
Freelance
CDI

Offre d'emploi
Data engineer

Publiée le
Big Data
BigQuery
DBT

1 an
40k-50k €
400-550 €
Île-de-France, France
Télétravail partiel
Intégré(e) au sein des équipes de la Digital Factory Supply Chain, le/la Data Engineer contribuera ou pilotera la conception, le développement, la maintenance et l'optimisation de solutions de traitement de données massives. La Digital Factory Supply Chain développe l'ensemble des assets digitaux pour une expérience omnicanale, au service de l'approvisionnement des magasins, de la commande automatique à la livraison. Missions et Responsabilités Principales : Conception et Développement : Concevoir, développer et maintenir des solutions Big Data en utilisant les technologies Cloud (GCP). Pour les profils Sénior, cela inclut la mise en place et l'optimisation des pipelines de données. Contribution aux Projets : Participer activement à la réalisation de projets métier, notamment autour de solutions ELT in-house (BigLoader) et DBT. Opérations et Maintenance : Assurer la prise en charge des demandes de corrections issues d'incidents ou d'anomalies. Pour les profils Sénior, cela inclut l'analyse des performances et l'amélioration continue des solutions existantes. DevOps et Automatisation : Contribuer aux pratiques Devops , à l'automatisation du delivery , et à l'application des bonnes pratiques et normes de développement. Participer aux chiffrages des usages et à la constitution des releases . Expertise et Mentoring : Participer à l'auto-formation et à la montée en compétences de l'équipe de développement.
Freelance
CDI

Offre d'emploi
Data Engineer – GCP confirmé·e

Publiée le
Google Cloud Platform (GCP)
Python
SQL

3 ans
Rouen, Normandie
Télétravail partiel
Vous aimez relever des défis techniques ambitieux et contribuer à la mise en place d’architectures data performantes et innovantes ? Vous souhaitez évoluer au cœur d’un environnement cloud moderne et collaboratif ? Cette opportunité est faite pour vous ! Nous recherchons un·e Data Engineer – GCP confirmé·e pour accompagner la construction et le déploiement de solutions data pour notre client du secteur de l’assurance. Intégré·e à la DataFabric, vous rejoindrez une équipe agile composée de 5 à 7 Data Engineers, en lien direct avec le Tech Lead. Vous participerez activement au build et au run des traitements livrés en production sur la plateforme Google Cloud Platform (GCP). Vos principales responsabilités : Analyser, concevoir et modéliser les solutions data adaptées aux besoins métiers Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Rédiger les documents techniques associés (spécifications, cahier de recette, documentation d’exploitation) Réaliser les recettes techniques et assurer la qualité des livrables grâce à des tests de non-régression Participer activement à la maintenance et à l’amélioration continue des traitements data en production Environnement technique : GCP : BigQuery, Cloud Storage, Cloud Composer, Airflow, GKE Langages & outils : SQL, Python CI/CD : maîtrise des outils d’intégration et de déploiement continu Infrastructure as Code : Terraform
Freelance

Mission freelance
Pilote RSE (F/H) - 59

Publiée le
CI/CD
Datadog
Github

1 an
500-590 €
Ronchin, Hauts-de-France
Télétravail partiel
Mon client recherche un Pilote SRE pour une mission freelance à Ronchin (59). Lieu : Ronchin (59) Remote : 2j par semaine Secteur : retail Durée : 1 an minimum Contexte : Vous serez associé à un domaine spécifique en collaboration avec les équipes OPS. Vous serez en charge d’améliorer la fiabilité, la performance et l’observabilité des systèmes critiques de l’entreprise. Votre rôle sera d’automatiser les processus, de réduire la dette technique et de collaborer avec les équipes Dev, Ops et Security pour aligner les pratiques SRE sur les objectifs business. Mission : Définir et suivre des SLO et SLI pour les services critiques. Automatiser les tâches manuelles (déploiements, scaling, backups) Concevoir et maintenir des dashboards Travailler avec les équipes DevOps, Cloud, Security et Développement pour intégrer les bonnes pratiques SRE Appliquer les politiques de conformité et contribuer à la sécurisation des infrastructures
CDI

Offre d'emploi
 Ingénieur Big Data / Bases de Données

Publiée le
AWS Cloud
BigQuery
Cassandra

40k-54k €
Paris, France
Télétravail partiel
Redlab cherche pour le compte d'un client grand compte , un ingénieur big Data /bases de données Expert des architectures data : bases de données SQL & NoSQL, Big Data, pipelines, gouvernance, performance, sécurité. Missions clés Administrer et optimiser bases SQL & NoSQL. Concevoir pipelines ETL/ELT sur données hétérogènes. Travailler sur Hadoop, Spark, Hive, Delta Lake. Mettre en place partitionnement, Mettre en place sharding, caches. Déployer en cloud (AWS/Azure/GCP). Forte maitrise des Bases de données
Freelance

Mission freelance
Développeur Java / Kafka F/H

Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java

12 mois
450-480 €
La Défense, Île-de-France
Télétravail partiel
Description de la prestation : Le consultant intégrera une squad du programme Galaxy. En intégrant l’équipe de développeurs, il participera à l’estimation et la réalisation des fonctionnalités. En lien avec le Tech Lead de sa Squad, il travaillera avec un Ops pour la partie CICD et sera garant de la qualité du code produit. Les missions s’articulent autour des axes suivants : • Participer aux phases de Discovery ; • Prendre part dans les analyses techniques et les études d’impacts en amont des développements ; • Concevoir des solutions en respectant et en promouvant les bonnes pratiques de développements ; • Fournir des estimations concernant les futures réalisations (dans le cadre de la méthode SCRUM) • Réaliser les développements en suivant les bonnes pratiques de développement de l'entreprise. • Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe ; • Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette ; • Assurer le support lors des mises en production de chacune des évolutions ; • Assurer le maintien en condition opérationnelle des applications du périmètre. • Participer aux activités du Chapter Back End (développement de librairies transverses, partage de connaissances, développement de poc avec impact sur la squad et le Chapter) Les aptitudes requises : Compétences métiers/techniques : • Développement Back-End en JAVA 17/21 • Les frameworks JAVA communs tels que Spring (Web, Security, Boot...) • Connaissance et pratique d’Apache Kafka (Producer, Consumer). Les connaissances de Kafka Stream, Kafka Connect et du Schema Registry seront considérées comme un gros plus • Maitrise des API REST • Les modèles d’architectures Microservice • Connaissance et pratique de l’architecture hexagonale • Connaissance et pratique du TDD, BDD, Cucumber • Pratique de la sécurité des API • Serveur d'application Jetty, Tomcat et des technologies JEE • Utilisation des outils de CICD (Gitlab) et de contrôle de source (Git) • Utilisation de Docker et Kubernetes • Les bases de données et la modélisation (SQL, PostgreSQL, Oracle, MySQL, Hibernate) • Les méthodologies Agile (User story, backlog, cérémonies, etc …)
Freelance

Mission freelance
Data Engineer / Data Analyst

Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)

2 ans
420-500 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Freelance

Mission freelance
Développeur Fullstack / AI (Python / FastAPI / React / GCP)

Publiée le
Python
React

8 mois
600 €
Saint-Ouen, Hauts-de-France
Télétravail partiel
Contexte Dans le cadre du développement d’un agent conversationnel interne à grande échelle, tu interviendras sur une application web fullstack intégrant des capacités génératives (Firefly, Gemini, APIs internes). L’objectif : améliorer la créativité et la productivité des collaborateurs au sein d’un groupe international. Tu travailleras en proximité avec les équipes Produit, Design et IA. Missions Front-end – Développer des interfaces modernes, performantes et responsives – Implémenter les maquettes UI/UX en React, TypeScript, ViteJS et Material UI – Construire des composants modulaires et maintenables Back-end – Concevoir et développer des APIs en Python (FastAPI) – Implémenter des fonctionnalités backend robustes et scalables – Concevoir, maintenir et optimiser la base de données Firestore – Exposer les endpoints nécessaires au front-end Transversal – Intégrer des APIs génératives (Firefly, Gemini, APIs internes) – Respecter les bonnes pratiques de dev : tests, documentation, CI – Travailler en équipe avec les designers, PM et ingénieurs IA – S’adapter à une possible migration backend future vers Next.js Environnement technique Cloud & Infra – GCP : Cloud Run, Firestore, Cloud Storage Back-end – Python – FastAPI Front-end – React – TypeScript – ViteJS – Material UI Fullstack – Très bonne maîtrise front + back – Connaissance souhaitée de Next.js Profil recherché – 5 à 8 ans d’expérience en développement fullstack – Solide expérience en Python + FastAPI – Excellente maîtrise de React + TypeScript – Déjà travaillé dans un environnement GCP (ou cloud équivalent) – À l’aise avec les APIs génératives – Rigueur, bonnes pratiques, sens produit – Capacité à travailler sur un produit utilisé à grande échelle
Freelance

Mission freelance
Chef de Projet Technique RUN & Gestion de Projet

Publiée le
Gestion de projet
Google Cloud Platform (GCP)
Linux

3 ans
100-430 €
Lille, Hauts-de-France
Télétravail partiel
Responsabilités Gestion de projet (70%) Pilotage des projets techniques liés aux systèmes magasins. Coordination avec les équipes internes et externes. Suivi des livrables, planning et reporting. RUN / Support technique (30% à 50%) Traitement des incidents magasins (environnement retail). Analyse et résolution des problèmes techniques côté Linux/Windows. Interaction avec les équipes pour escalade et communication claire. Compétences techniques obligatoires Chefferie de projet technique (capacité à rentrer dans le détail technique). Expérience en traitement d’incidents magasins (retail fortement apprécié). Systèmes : Linux (maîtrise), Windows. Cloud : GCP (Google Cloud Platform), notions d’Azure. Outils Unix . Puppet (automatisation). Stack Linux (forte expertise). Soft Skills & Personnalité Proactivité : capacité à prendre des décisions et trouver des solutions. Communication : savoir interagir avec les équipes, prendre du recul. Souplesse : profil polyvalent, à l’aise pour toucher à tout. Posture : leadership technique sans rigidité (profil trop « banque/assurance » à éviter). Esprit d’équipe : collaboratif, pas isolé.
Freelance

Mission freelance
Consultant(e) AI Scientist & Agentique

Publiée le
BigQuery
Google Cloud Platform (GCP)
IAM

6 mois
Paris, France
Télétravail partiel
Missions Développer et structurer du code Python de qualité (tests, environnements, API). Construire des pipelines IA autour de modèles LLM (Large Language Models). Mettre en œuvre des systèmes RAG (Retrieval Augmented Generation) pour connecter l’IA aux données internes. Concevoir des agents IA (planification, outils, actions) avec des frameworks spécialisés. Déployer les solutions sur Google Cloud Platform et ses services IA (Vertex AI). Intégrer l’IA dans des environnements de production : authentification, monitoring, connecteurs métier. Collaborer avec les équipes data, produit et engineering pour industrialiser les solutions.
CDI
Freelance

Offre d'emploi
Expert Kubernetes / DevOps

Publiée le
Ansible
Azure
Cloud

3 ans
40k-65k €
400-560 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de son pôle DevOps, un grand groupe international du secteur du luxe recherche un Expert Kubernetes / DevOps afin d’industrialiser les déploiements des infrastructures cloud et de renforcer l’expertise autour des plateformes de conteneurisation. La mission s’inscrit au sein d’une équipe DevOps transverse, en charge des produits et solutions d’automatisation utilisés par les équipes techniques et projets. Objectifs de la mission L’expert interviendra sur les sujets suivants : Définition, évolution et maintien des toolkits de la fondation Kubernetes déployée sur plusieurs environnements cloud Contribution experte au déploiement et à l’extension de la plateforme Kubernetes sur différents fournisseurs cloud Mise en place de standards, bonnes pratiques et patterns d’industrialisation Accompagnement des équipes projets dans l’adoption et l’utilisation de la fondation Kubernetes Support aux équipes opérationnelles Transfert de compétences vers les équipes internes Responsabilités principales Participer à l’animation et à l’expertise du domaine DevOps Intervenir en tant que référent technique Kubernetes Garantir la qualité, la robustesse et la maintenabilité des déploiements Contribuer à l’amélioration continue des processus et outils DevOps
Freelance

Mission freelance
[SCH] Architecte GCP - 1064

Publiée le

10 mois
350-450 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de modernisation et centralisation des données RH, le client recherche un Architecte Google Cloud Platform (GCP) expérimenté pour concevoir, déployer et accompagner la mise en place d’une plateforme Data RH unifiée. L’objectif est de fiabiliser, gouverner et valoriser les données RH au sein d’un environnement GCP à forte volumétrie. Missions principales : -Concevoir et documenter l’architecture GCP (BigQuery, Cloud Composer, Storage, IAM, Dataflow…). -Accompagner les équipes Data et RH sur la migration, intégration et fiabilisation des flux de données existants. -Piloter la mise en œuvre des pipelines ETL/ELT et orchestrations avec Cloud Composer / Airflow. -Assurer la sécurité, la gouvernance et la qualité des données dans le respect des standards du groupe. -Contribuer à l’industrialisation des environnements (Terraform, CI/CD). -Coacher les équipes internes sur les bonnes pratiques GCP et l’usage de BigQuery pour les reporting RH. -Participer aux rituels agiles (daily, sprint review, backlog grooming). Objectifs & livrables attendus : -Architecture GCP validée et documentée (DAT, DEX, schémas d’intégration). -Mise en place de la plateforme Data RH (BigQuery, Composer, GCS). -Pipelines automatisés et sécurisés pour la collecte, transformation et exposition des données RH. -Accompagnement des équipes jusqu’à la stabilisation et passage en RUN. Profil recherché : - +8 ans d’expérience en architecture data / cloud, dont 3+ sur GCP. -Maîtrise approfondie des composants BigQuery, Cloud Composer (Airflow), Cloud Storage, IAM. -Expérience en data engineering / ETL / orchestration. -Connaissance des outils de visualisation type Power BI. -Sensibilité aux enjeux RH et gouvernance des données. -Pratique confirmée de l’agilité (Scrum / SAFe). -Excellent relationnel et capacité à vulgariser les aspects techniques auprès des équipes métiers.
2184 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous