Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 667 résultats.
Freelance

Mission freelance
Développeur C++ / Grid Computing & Cloud

Publiée le
Google Cloud Platform (GCP)
Kubernetes
Openshift

3 ans
400-600 €
Île-de-France, France
Télétravail partiel
Pour l’un de nos clients grand compte, acteur majeur du secteur financier, nous recherchons un Développeur C++ spécialisé en Grid Computing et Cloud Services . Missions principales Développer et maintenir des applications en C++ dans un contexte de calcul distribué (Grid). Contribuer à l’optimisation des performances : parallélisation, HPC, tuning, tr Pour l’un de nos clients grand compte, acteur majeur du secteur financier, nous recherchons un Développeur C++ spécialisé en Grid Computing et Cloud Services . Missions principales Développer et maintenir des applications en C++ dans un contexte de calcul distribué (Grid). Contribuer à l’optimisation des performances : parallélisation, HPC, tuning, troubleshooting . Participer à la conception et à l’évolution de l’architecture Grid/Cloud. Intégrer et déployer des services dans des environnements Cloud (GCP, Qarnot) et conteneurisés ( Kubernetes / OpenShift ). Travailler sur l’amélioration continue des pipelines CI/CD (Git, Jenkins, DevOps XLR/XLD). Collaborer avec les équipes métier pour la compréhension des besoins financiers et des modèles de valorisation. Contribuer à la qualité du code, à la documentation et au respect des standards Participer à la conception et à l’évolution de l’architecture Grid/Cloud. Intégrer et déployer des services dans des environnements Cloud (GCP, Qarnot) et conteneurisés ( Kubernetes / OpenShift ). Travailler sur l’amélioration continue des pipelines CI/CD (Git, Jenkins, DevOps XLR/XLD). Collaborer avec les équipes métier pour la compréhension des besoins financiers et des modèles de valorisation. Contribuer à la qualité du code, à la documentation et au respect des standards internes
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Datadog
Google Cloud Platform (GCP)

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Attaché à la Global Tech & Data platform, dans le Domain Voice of Customer tu rejoins une équipe pluridisciplinaire d’assistance à nos clients internes (BU, plateformes, …) dont la mission principale est de prendre en charge toutes les sollicitations en provenance des utilisateurs de la Tech&Data (Incidents, demandes de services, questions). Tu seras rattaché directement à l'activité de l'un de nos produits de data engineering: Datahub Pipelines pour lequel nous avons besoin de support fonctionnel (compréhension du logiciel back et front), technique (comprendre et régler des problèmes d'implémentations, notamment dans la stack technique des produits digitaux via terraform). L'univers de développement est complètement encadré dans GCP. Missions principales : 🛠 Tu analyses et résous des incidents complexes 🔍 Tu identifies les incidents récurrents 🤝 Tu traites les demandes de services 🤝 Tu collabores avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents 🤝 Tu collabores avec l'équipe onboarding et advocacy pour l'accompagnement des nouveaux utilisateurs 📊 Tu contribues à l'automatisation et à l’amélioration continue du/des produits 📝 Tu documentes et partages nos résolutions pour capitaliser 2. Compétences techniques requises : ✅ Cloud Computing : GCP ✅ Observabilité & Monitoring : Datadog, Prometheus, Grafana, ✅ Automatisation & Infrastructure as Code : Terraform, Ansible, Helm, Kubernetes (K8s) ✅ Scripting : Python, Bash, Go ✅ Gestion des alertes : PagerDuty 3. Soft Skills recherchées : ⭐ Esprit analytique : Capacité à détecter rapidement des problèmes et à les résoudre efficacement. ⭐ Proactivité & autonomie : Capacité à anticiper les incidents avant qu’ils n’impactent les services. ⭐ Collaboration : Travail en équipe avec les équipes produit ⭐ Sens du service client : la satisfaction de nos clients est ta priorité Un minimum de 2 jours sur site est exigé
Freelance

Mission freelance
Data Engineer/ Expert GCP

Publiée le
BigQuery
Cloud
Data science

12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
CDI
Freelance

Offre d'emploi
Ingénieur Sécurité & Cloud GCP (H/F)

Publiée le
Git
IAM
Jenkins

24 mois
45k-55k €
450-550 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 jours 👉 Contexte client : Tu rejoins la DSI d’un acteur national majeur de la grande distribution, avec un SI d’envergure : plusieurs milliers de serveurs, des applications critiques et une stratégie multi-cloud ambitieuse. Dans ce cadre, tu intègres l’équipe responsable de la sécurisation de la plateforme GCP centrale, un pilier majeur de la transformation Cloud du groupe. L’enjeu : garantir une Landing Zone sécurisée, scalable et gouvernée, tout en contribuant à un fonctionnement Agile et collectif. Tu auras pour missions de : Renforcer et faire évoluer la sécurisation de la Landing Zone GCP (IAM, réseaux, gouvernance, conformité, VPC SC). Définir et mettre en œuvre les standards de sécurité Cloud avec les architectes et les experts SecOps. Automatiser les contrôles et déploiements via Terraform, CI/CD et intégration dans les pipelines. Participer aux activités Build & Run avec une logique d’amélioration continue et de sécurisation continue. Conseiller et challenger les équipes projets sur leurs choix techniques et leurs patterns de sécurité. Accompagner la sécurisation des environnements GKE / Kubernetes (politiques, réseau, durcissement). Contribuer à la validation technique collective des décisions pour l’équipe. Monter en compétence avec les autres membres (pairing, partage, revues, co-construction). Promouvoir un mindset Agile basé sur l’entraide, la transparence, et l’amélioration continue. Stack technique : GCP – GKE / Kubernetes – Terraform – Git – Jenkins – Python – Security Command Center – Cloud Armor – IAM – VPC Service Controls – CDN/Cloudflare – Hashicorp Vault – Datadome
Freelance

Mission freelance
Cloud Cybersecurity Expert

Publiée le
Cybersécurité
Google Cloud Platform (GCP)

3 ans
Île-de-France, France
Cloud Cybersecurity Expert, Freelance, 3 ans de contrat initial, IDF, 65% de remote Opportunité attrayante pour un(e) expert en cybersécurité cloud avec plusieurs expériences sur GCP afin de rejoindre notre client final qui accompagne des millions de particuliers et de professionnel à travers le monde sur l’un des programmes de move to cloud les plus importants de son marché et de son histoire ! Vous rejoindrez une équipe en plein développement pour intervenir dans un contexte multi cloud exigeant et complexe où vous pourrez proposer votre propre vision de la sécurité du cloud appliquée à l’IA. Principales missions : · Suivi, évolution et maintien de la sécurité d’une Landing Zone Google Cloud · Études & design de solutions de cybersécurité · Implémentations en IaC (Terraform) · Analyses de services Google Cloud (Agentspace, VPC-SC, PSC, Gemini Code Assist, etc.) · Documentation sous Confluence (validation interne obligatoire) · Participation à la comitologie Cloud & Cyber (réunions hebdo) · Support ponctuel RUN / réponse à incident
CDI
Freelance

Offre d'emploi
Architecte Cloud GCP (H/F)

Publiée le
CI/CD
Git
IAM

24 mois
50k-60k €
400-450 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 à 3 jours par semaines 👉 Contexte client : L’entreprise pour laquelle tu interviendras place désormais le Cloud au cœur de sa stratégie. Tous les nouveaux projets sont conçus nativement sur GCP, et l’équipe architecture joue un rôle clé dans la structuration, l’amélioration continue et l’industrialisation des environnements Cloud. Tu rejoindras une équipe d’architectes experte en GCP, en architectures techniques et applicatives, et maîtrisant les enjeux. Tu auras pour missions de : Concevoir des architectures Cloud GCP robustes, sécurisées, évolutives et optimisées FinOps. Améliorer en continu les environnements Cloud : performance, sécurité, résilience, gouvernance. Réaliser des études d’architecture : cadrage, design, analyse d’impacts et recommandations techniques. Jouer le rôle d’interface entre les besoins métiers et les solutions Cloud. Définir et industrialiser des standards, patterns et bonnes pratiques. Contribuer à l’automatisation et à l’industrialisation des plateformes Cloud. Sensibiliser, former et accompagner les équipes internes sur les usages GCP. Participer activement à la gouvernance Cloud (sécurité, coûts, organisation, cohérence technique). Travailler dans un écosystème composé d’experts internes et externes, avec une forte dynamique de partage et de montée en compétence collective. Stack technique : GCP, Kubernetes/GKE, Terraform, Git, CI/CD, Cloud Monitoring, IAM, VPC, Cloud Armor, Security Command Center, pratiques FinOps...
Freelance

Mission freelance
DATA ARCHITECTE GCP

Publiée le
Google Cloud Platform (GCP)

3 mois
400-650 €
Paris, France
· Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation
Freelance

Mission freelance
Renforts/Support Plateformes Cloud GCP - à BREST

Publiée le
Google Cloud Platform (GCP)
Relation client
Support utilisateurs

1 an
400 €
Brest, Bretagne
Vous aurez la responsabilité de garantir le maintien en conditions opérationnelles des plateformes cloud, d’assurer le support technique de niveau 2, et de contribuer aux projets d’évolution via une approche d’infrastructure as code. Support niveau 2/3 et RUN Gestion du backlogs des incidents snow/jira Réponse aux sollicitations via chat/email Sollicitations sur GCP (Wordpress as a Service, création de projet Datahub, …) Support aux utilisateurs Expertise dans la résolution d’incident Projets et évolution Participation à la poursuite de la mise en place de la landing zone GCP Mise en place, amélioration, maintien des services proposés (Infrastructure as Code) et Mise à disposition de nouveaux services GCP Évolutions du catalogue de service dans une approche as a service avec une ligne directrice “Qualité de Service“, “Satisfaction utilisateur” et Sécurité Poursuite de la mise en place d’indicateurs de mesure “FinOps” (suivi de consommation, notifications, inventaire, suivi de l'obsolescence…) Collaboration avec des équipes transverses, contribution aux travaux d’équipes / squads externes Veille et proposition d’améliorations techniques
Freelance

Mission freelance
data analyst GCP

Publiée le
BigQuery
Google Cloud Platform (GCP)

3 mois
100-400 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Freelance

Mission freelance
Architecte Data GCP

Publiée le
Architecture
Google Cloud Platform (GCP)
Python

3 mois
620-700 €
Hauts-de-Seine, France
Nous recherchons un Architecte Data GCP senior pour accompagner une grande organisation française dans la structuration et l’évolution de sa Data Platform au sein d’équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, équipes techniques transverses…). Vos missions En tant qu’Architecte Data, vous interviendrez sur un périmètre stratégique incluant : Architecture Data Garantir la cohérence et la standardisation de la stack technique entre les différentes équipes. Auditer l’architecture existante et proposer des améliorations structurantes. Définir les contrats d’interface entre les équipes (data products / data mesh). Participer à l’introduction et aux tests de nouvelles technologies. Veille technologique continue sur les solutions Cloud & Data. Developer Experience Contribuer à la rédaction et à l’industrialisation de modules Terraform / Terragrunt. Accompagner les équipes dans la montée en compétence sur l’Infrastructure as Code. Définir les standards CI/CD applicables à l’ensemble des équipes Data. FinOps Suivi et contrôle du budget Data (multi-équipes). Mise en place d’outils de monitoring, alerting et optimisation des ressources. Identification et priorisation des optimisations de coûts Cloud.
Freelance
CDI

Offre d'emploi
Consultant Senior & Architecte GCP / S3NS

Publiée le
Architecture
Google Cloud Platform (GCP)

5 ans
Paris, France
Télétravail partiel
1. Accompagnement des projets Cloud Accompagner les projets applicatifs dans leur migration ou création sur GCP et S3NS Intervenir dès les phases amont : analyse de l’existant étude d’opportunité Cloud cadrage technico-fonctionnel définition des trajectoires cibles Concevoir des architectures Cloud détaillées Réaliser des études technico-économiques incluant une estimation des coûts et du ROI Accompagner les équipes projets jusqu’à la mise en œuvre effective (support à l’implémentation, validation des choix techniques) 2. Architecture / expertise Cloud Concevoir et challenger des architectures GCP et S3NS conformes aux exigences de sécurité et de conformité Prototyper des solutions sur des environnements d’expérimentation Apporter un regard d’expert sur : les choix de services managés les patterns d’architecture Cloud la résilience et la haute disponibilité les mécanismes de sécurité et d’isolement Produire et maintenir des bonnes pratiques d’architecture (standards, patterns, guidelines) 3. Évolution des landing zones / socles Cloud Étudier et proposer des évolutions des LZ GCP et S3NS Contribuer à : l’ouverture de nouveaux services Cloud l’amélioration des mécanismes de sécurité l’automatisation des déploiements la simplification des parcours projets Suivre la mise en œuvre des évolutions et, le cas échéant, participer aux phases de recette S’inscrire dans une logique de construction de socles Cloud pérennes et industrialisés 4. Pilotage, coordination & communication S’intégrer dans une organisation agile (rituels, comités, ateliers techniques) Maintenir une communication fluide avec les équipes projets, les équipes Cloud et les parties prenantes sécurité Assurer un suivi rigoureux des activités (tableaux de bord, reporting, indicateurs) Produire des comptes rendus clairs et exploitables , dans les délais attendus
Freelance

Mission freelance
LEAD DATA SCIENTIST GCP (550 MAX)

Publiée le
Google Cloud Platform (GCP)

1 an
400-550 €
Île-de-France, France
Télétravail partiel
Pilotage Technique & Architecture : Concevoir l'architecture des briques algorithmiques (Clustering, Prévision de ventes, Optimisation sous contraintes) sur GCP. ● Développement algorithmique (Hands-on) : Coder les modèles complexes, notamment l'algorithme d'optimisation (Recherche Opérationnelle) pour respecter les contraintes magasins (linéaire, supply, mix marge/CA). ● Coaching & Code Quality : En support éventuel de notre Lead Data Scientist interne, encadrer les Data Scientists séniors, garantir les bonnes pratiques (CI/CD, DVC, Tests) et l'industrialisation via Airflow/Composer. ● Mesure de la performance : Mettre en place des méthodologies robustes (ex: Causal Impact) pour mesurer les gains business (CA/Marge) post-déploiement. ● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery et une bonne connaissance des bases de données SQL/NoSQL (PostgreSQL, MongoDB, DBL…). ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Connaissance des architectures data modernes (Data Lake, Data Warehouse) et des environnements Cloud (GCP, AWS, Azure). ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Compréhension des principes DevOps, avec une vision orientée fiabilité et amélioration continue. ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog
Freelance
CDI

Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Freelance

Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP

Publiée le
Azure
Cloud
Infrastructure

24 mois
350-700 €
Paris, France
Télétravail partiel
o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.
Freelance

Mission freelance
DevOps Cloud GCP - Anthos

Publiée le
Ansible
Google Cloud Platform (GCP)
Kubernetes

12 mois
530-570 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de déploiement d’une plateforme Cloud Hybride basée sur Anthos et des infrastructures Edge , notre client recherche un Ingénieur DevOps Cloud pour renforcer l’équipe en charge de la mise en place, de l’industrialisation et du support des environnements Kubernetes du Dev à la Production. Vous interviendrez au sein de la Direction Plateforme & Cloud, en support du Product Leader Cloud, et jouerez un rôle clé dans la construction d’un environnement hybride innovant. Missions : 1. Déploiement & Exploitation Anthos / Kubernetes Mise en œuvre d’Anthos sur infrastructures Edge hybrides (on-prem + cloud public). Création, configuration et industrialisation de clusters Kubernetes (on-prem / cloud). Mise en place et maintenance des environnements Dev, Test, Pré-prod et Prod. 2. Automatisation & Infra-as-Code Automatisation des déploiements d’infrastructure via Terraform et Ansible . Contribution à la mise en place d’une approche GitOps. Standardisation et fiabilisation des processus CI/CD. 3. Documentation & Transfert de compétences Rédaction de documentation technique et opérationnelle. Accompagnement et montée en compétences des équipes internes (infrastructure & projets). 4. Support & Run Support N2/N3 sur la plateforme en production. Assistance aux équipes projets dans l’utilisation de Kubernetes / Anthos. Participation à l’amélioration continue de la plateforme.
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
3667 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous