L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 786 résultats.
Mission freelance
Ingénieur Cloud GCP & DevOps – Support et Évolution Infrastructure
Publiée le
Ansible
CI/CD
Cloud
6 mois
Brest, Bretagne
Au sein d'un environnement bancaire, vous assurerez le Maintien en Conditions Opérationnelles de l'infrastructure Google Cloud Platform. Votre rôle consistera à gérer les incidents et le support technique (Niveau 2/3) via ServiceNow et Jira, avec pour objectif la résolution efficace des tickets. Vous apporterez votre expertise technique sur les environnements Linux et réseaux pour le diagnostic, tout en accompagnant les utilisateurs via chat et email. Vous prendrez également en charge des opérations clés comme le déploiement d'instances (Wordpress as a Service), la configuration Datahub et la gestion IAM, en veillant constamment à la qualité de service et à la sécurité. Côté projets, vous participerez à l'évolution de l'infrastructure en appliquant les principes de l'Infrastructure as Code. À l'aide de Terraform et Ansible, vous déploierez et maintiendrez les services de la Landing Zone GCP. L'automatisation (Python) sera au cœur de votre activité pour enrichir le catalogue de services vers une offre "As a Service". Vous intégrerez également une dimension FinOps à vos missions, en configurant le monitoring budgétaire et en suivant l'obsolescence des ressources, en lien étroit avec les équipes externes.
Mission freelance
data analyst GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 mois
100-400 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
LEAD DATA SCIENTIST GCP (550 MAX)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Île-de-France, France
Télétravail partiel
Pilotage Technique & Architecture : Concevoir l'architecture des briques algorithmiques (Clustering, Prévision de ventes, Optimisation sous contraintes) sur GCP. ● Développement algorithmique (Hands-on) : Coder les modèles complexes, notamment l'algorithme d'optimisation (Recherche Opérationnelle) pour respecter les contraintes magasins (linéaire, supply, mix marge/CA). ● Coaching & Code Quality : En support éventuel de notre Lead Data Scientist interne, encadrer les Data Scientists séniors, garantir les bonnes pratiques (CI/CD, DVC, Tests) et l'industrialisation via Airflow/Composer. ● Mesure de la performance : Mettre en place des méthodologies robustes (ex: Causal Impact) pour mesurer les gains business (CA/Marge) post-déploiement. ● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery et une bonne connaissance des bases de données SQL/NoSQL (PostgreSQL, MongoDB, DBL…). ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Connaissance des architectures data modernes (Data Lake, Data Warehouse) et des environnements Cloud (GCP, AWS, Azure). ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Compréhension des principes DevOps, avec une vision orientée fiabilité et amélioration continue. ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog
Mission freelance
Renforts/Support Plateformes Cloud GCP - à BREST
Publiée le
Google Cloud Platform (GCP)
Relation client
Support utilisateurs
1 an
400 €
Brest, Bretagne
Vous aurez la responsabilité de garantir le maintien en conditions opérationnelles des plateformes cloud, d’assurer le support technique de niveau 2, et de contribuer aux projets d’évolution via une approche d’infrastructure as code. Support niveau 2/3 et RUN Gestion du backlogs des incidents snow/jira Réponse aux sollicitations via chat/email Sollicitations sur GCP (Wordpress as a Service, création de projet Datahub, …) Support aux utilisateurs Expertise dans la résolution d’incident Projets et évolution Participation à la poursuite de la mise en place de la landing zone GCP Mise en place, amélioration, maintien des services proposés (Infrastructure as Code) et Mise à disposition de nouveaux services GCP Évolutions du catalogue de service dans une approche as a service avec une ligne directrice “Qualité de Service“, “Satisfaction utilisateur” et Sécurité Poursuite de la mise en place d’indicateurs de mesure “FinOps” (suivi de consommation, notifications, inventaire, suivi de l'obsolescence…) Collaboration avec des équipes transverses, contribution aux travaux d’équipes / squads externes Veille et proposition d’améliorations techniques
Mission freelance
DATA ARCHITECTE GCP
Publiée le
Google Cloud Platform (GCP)
3 mois
400-650 €
Paris, France
· Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation
Mission freelance
Senior GCP Cloud Engineer - Génie Civile - Full Remote (H/F)
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
6 mois
500-550 €
Toulouse, Occitanie
Télétravail 100%
Grand groupe dans le secteur GENIE CIVIL, rejoignez une équipe tech ambitieuse en tant que Senior GCP Cloud Engineer le déploiement de deux nouveaux projets pour concevoir, automatiser et maintenir l’infrastructure cloud de notre plateforme sur GCP. Vous jouerez un rôle central dans l’implémentation de solutions scalables et robustes à travers Terraform, Terragrunt, Python, chaîne DevOps avec github et Jenkins. Mission longue durée à pourvoir début janvier 2026. Missions - Développer, déployer et optimiser des Landing Zones sur GCP pour de nouveaux projets stratégiques. - Collaborer étroitement avec les équipes de DevOps pour intégrer des solutions automatisées avec Terraform et Terragrunt. - Assurer le support et la formation des équipes internes ainsi que des clients sur les meilleures pratiques et innovations de GCP. - Gérer les permissions IAM et la configuration VPC-SC afin de garantir l'intégrité et la sécurité de l'environnement cloud. - Interagir régulièrement avec les stakeholders pour comprendre et répondre aux besoins commerciaux et techniques. - Documenter les processus et partager les bonnes pratiques au sein de l'entreprise. - Participer à des sessions de formation pour contribuer à l'évolution technique de l'équipe.
Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Mission freelance
Architecte Data GCP
Publiée le
Architecture
Google Cloud Platform (GCP)
Python
3 mois
620-700 €
Hauts-de-Seine, France
Nous recherchons un Architecte Data GCP senior pour accompagner une grande organisation française dans la structuration et l’évolution de sa Data Platform au sein d’équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, équipes techniques transverses…). Vos missions En tant qu’Architecte Data, vous interviendrez sur un périmètre stratégique incluant : Architecture Data Garantir la cohérence et la standardisation de la stack technique entre les différentes équipes. Auditer l’architecture existante et proposer des améliorations structurantes. Définir les contrats d’interface entre les équipes (data products / data mesh). Participer à l’introduction et aux tests de nouvelles technologies. Veille technologique continue sur les solutions Cloud & Data. Developer Experience Contribuer à la rédaction et à l’industrialisation de modules Terraform / Terragrunt. Accompagner les équipes dans la montée en compétence sur l’Infrastructure as Code. Définir les standards CI/CD applicables à l’ensemble des équipes Data. FinOps Suivi et contrôle du budget Data (multi-équipes). Mise en place d’outils de monitoring, alerting et optimisation des ressources. Identification et priorisation des optimisations de coûts Cloud.
Mission freelance
Sustainability & Green IT Lead (GenAI / Media) h/f
Publiée le
GenAI
Google Cloud Platform (GCP)
3 mois
400-610 €
Clichy, Île-de-France
Télétravail partiel
Objectifs de la mission Définir une stratégie de durabilité pour les services GenAI Mesurer, suivre et piloter l’impact CO₂ et énergétique Influencer les choix techniques et produits sous l’angle environnemental Responsabilités Définir les guidelines Green IT & éco-design pour l’ensemble des services AI tech Modéliser, mesurer et monitorer la consommation énergétique et CO₂ (modèles, infra, data, media processing, stockage) Challenger les choix d’architecture (modèles IA, cloud, pipelines data) Collaborer avec les équipes Produit, Tech, Data et Design Construire des dashboards & KPI pour le pilotage et la prise de décision Réaliser une veille & benchmark des standards et bonnes pratiques Sustainable AI / Green IT
Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Offre d'emploi
Ingénieur de production Devops AWS / GCP (H/F)
Publiée le
Paris, France
Nous recherchons pour notre client, un Ingénieur de production Devops AWS / GCP (H/F), pour intervenir sur Paris. Vous interviendrez au sein de l'équipe support applicatif en charge des applications métiers RH et Communication pour le compte de notre client.Ce poste clé s'inscrit dans un contexte de nouveaux projets métiers et techniques et requiert un haut niveau de maîtrise technique, notamment sur des environnements cloud (AWS / GCP) et DevOps. A ce titre vos missions principales seront les suivantes: - Assurer le support applicatif (incidents, MCO) des applications métiers. - Participer aux projets techniques (migration, refresh, déploiement de nouvelles applications...). - Intégrer des outils DevOps (XLDeploy, XLRelease) aux applications du périmètre. - Collaborer avec les équipes développement et infrastructure, en interaction régulière avec des interlocuteurs internationaux (équipe basée à Porto). - Travailler dans un environnement Windows / Linux avec des outils de scheduling comme Control-M. - Participer au dispositif d'astreinte et à des opérations en HPO. De formation Bac+3 en informatique ou expérience significative dans un poste équivalent. Vous justifiez de minimum 5ans d'expérience sur un poste similaire, Niveau N2/N3 en environnement de production. Vous possédez les compétences techniques suivantes: AWS / GCP (impératif)DevOps (intégration, automatisation, CI/CD)Systèmes Windows / LinuxScripting & Control-M Anglais Courant obligatoire (environnement international).
Offre d'emploi
Architecte Cloud GCP (H/F)
Publiée le
CI/CD
Git
IAM
24 mois
50k-60k €
400-450 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 à 3 jours par semaines 👉 Contexte client : L’entreprise pour laquelle tu interviendras place désormais le Cloud au cœur de sa stratégie. Tous les nouveaux projets sont conçus nativement sur GCP, et l’équipe architecture joue un rôle clé dans la structuration, l’amélioration continue et l’industrialisation des environnements Cloud. Tu rejoindras une équipe d’architectes experte en GCP, en architectures techniques et applicatives, et maîtrisant les enjeux. Tu auras pour missions de : Concevoir des architectures Cloud GCP robustes, sécurisées, évolutives et optimisées FinOps. Améliorer en continu les environnements Cloud : performance, sécurité, résilience, gouvernance. Réaliser des études d’architecture : cadrage, design, analyse d’impacts et recommandations techniques. Jouer le rôle d’interface entre les besoins métiers et les solutions Cloud. Définir et industrialiser des standards, patterns et bonnes pratiques. Contribuer à l’automatisation et à l’industrialisation des plateformes Cloud. Sensibiliser, former et accompagner les équipes internes sur les usages GCP. Participer activement à la gouvernance Cloud (sécurité, coûts, organisation, cohérence technique). Travailler dans un écosystème composé d’experts internes et externes, avec une forte dynamique de partage et de montée en compétence collective. Stack technique : GCP, Kubernetes/GKE, Terraform, Git, CI/CD, Cloud Monitoring, IAM, VPC, Cloud Armor, Security Command Center, pratiques FinOps...
Offre d'emploi
Data Engineer – Intégration & Cloud (GCP / BigQuery / Talend)
Publiée le
API REST
BigQuery
Microsoft Power BI
40k-45k €
Paris, France
Nous recherchons un Data Engineer pour intervenir sur un projet stratégique d’intégration et de valorisation de données au sein d’un environnement Cloud moderne. Le consultant interviendra sur la création, l’optimisation et la maintenance de pipelines data entre plusieurs plateformes internes, avec un fort niveau d’autonomie technique. Concevoir, développer et maintenir des flux de données entre différentes sources (API REST, Cloud, bases SQL). Mettre en place des traitements d’ingestion, transformation, normalisation et contrôle qualité des données. Développer et optimiser des pipelines dans GCP / BigQuery . Construire et maintenir des jobs Talend pour l’intégration et l’automatisation des traitements. Automatiser et industrialiser les workflows via des scripts Shell / Bash . Contribuer à la création et à l’optimisation de dashboards Power BI (KPI, dataviz). Garantir la qualité, la performance et la conformité des données. Documenter les flux, rédiger les spécifications et collaborer avec les équipes métiers et techniques. Versionner les développements via GitLab et respecter les bonnes pratiques CI/CD.
Mission freelance
Senior Data Engineer GCP MLOps
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Mission freelance
Développeur Python
Publiée le
GenAI
Google Cloud Platform (GCP)
Python
3 mois
400-430 €
Lille, Hauts-de-France
Télétravail partiel
OBJET DE LA MISSION : Nous recherchons un développeur expérimenté passionné par l'IA qui rejoindra une équipe agile (3 devs, 1 PO) et travaillera en collaboration avec nos experts Data et Ops. Au delà des compétences techniques, ce développeur doit être curieux car l'écosystème GenAI change chaque semaine. Veille technique et expérimentation de nouvelles approches sont nécessaires. De plus, nous attendons de la pro-activité et de la débrouillardise. En résumé, son rôle est de développer, industrialiser et maintenir la couche backend qui propulse nos agents virtuels: - Développement Applicatif & Architecture : Concevoir et développer les microservices en Python qui orchestrent les conversations. Nous attendons du code propre, testé et maintenable. - Intégration GenAI (LLM) : Implémenter et optimiser les workflows d'IA Générative utilisant les modèles Google Gemini. Vous travaillerez sur la construction des prompts, la gestion du contexte et la récupération d'information (RAG). - Qualité & Évaluation IA : Mettre en place des pipelines d'évaluation automatique des réponses du LLM (LLM-as-a-judge, métriques de pertinence) pour garantir la fiabilité du bot en production. - Observabilité & Run : S'assurer que ce que vous codez tient la charge. Vous serez responsable de l'instrumentation de votre code (via Datadog) pour monitorer les latences, les coûts de tokens et les erreurs en temps réel. - DevOps Culture : Gérer vos déploiements et votre infrastructure sur Google Cloud Platform (GCP) et utiliser les incontournables Git, CI/CD, tests unitaires L'usage de l'anglais est indispensable pour cela. DEMARRAGE : Dès janvier 2025. Travail en présentiel 2 jours par semaine (mercredi et vendredi).
Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP
Publiée le
Azure
Cloud
24 mois
325-650 €
Paris, France
Télétravail partiel
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
2786 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois