L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 713 résultats.
Mission freelance
Data Engineer GCP
Publiée le
DBT
Google Cloud Platform (GCP)
18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.
Mission freelance
Expert Sécurité Cloud GCP
Publiée le
Google Cloud Platform (GCP)
6 mois
100-490 €
Île-de-France, France
Télétravail partiel
Dans le cadre du premier projet de migration vers Google Cloud Platform (GCP), visant à fournir un accès centralisé aux modèles VERTEX et GEMINI, l’objectif est d’assurer une sécurité by design de l’environnement GCP. Objectifs de la mission : Étudier l’implémentation de la sécurité GCP dans une autre entité du Groupe. Formaliser des guidelines techniques de sécurité pour les services GCP utilisés. Proposer des guardrails à mettre en place au niveau de l’organisation GCP. Services GCP concernés : Organization Cloud Storage Secret Manager Cloud KMS Cloud Router HA VPN Gateway Cloud Interconnect Vertex AI Model Armor Private Service Connect Endpoint Compétences techniques : Expertise confirmée en sécurité GCP (minimum 7 ans d’expérience). Maîtrise des bonnes pratiques de sécurité cloud. Expérience significative en hardening, revue d’architecture, et analyse de risques. Capacité à travailler de manière autonome et à proposer des solutions adaptées à des environnements complexes. Formation : Diplôme universitaire en informatique, cybersécurité, architecture des systèmes ou domaine connexe. Expertise sécurité cloud, spécialiste GCP
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
DBT
DevOps
Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Offre d'emploi
Data Engineer GCP
Publiée le
Apache Airflow
DBT
DevOps
12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
Offre d'emploi
Mission sécurité RESEAU du cloud GCP(impératif) H/F
Publiée le
ISO 27001
NIST
36 mois
40k-65k €
550-660 €
Paris, France
Télétravail partiel
Si vous n'êtes pas un profil SECURITE GCP, ne postulez pas. Nous recherchons un consultant spécialisé dans sécurité du cloud GCP (services PaaS; IAM, automation, CI/CD) avec de l'expertise sécurité réseaux Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à utiliser des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations.
Offre premium
Mission freelance
Architecte Sécurité & Réseau Cloud - SRE
Publiée le
Azure
F5
Google Cloud Platform (GCP)
6 mois
Paris, France
Télétravail partiel
En tant qu’Architecte Sécurité & Réseau Cloud, vous êtes le garant de la posture de sécurité et de la connectivité des plateformes cloud. Vous concevez des architectures "Security by Design" et "Zero Trust", en définissant les patterns de sécurité qui permettent aux équipes de développer et d’opérer des services fiables et sécurisés à grande échelle. Vos responsabilités incluent : La conception d’architectures sécurisées sur IBM Cloud (HLD, DAT) pour les briques sécurité et réseau. La définition et l’implémentation de stratégies IAM (humains et machines), avec gestion des accès et des privilèges. La gestion des flux Nord-Sud et Est-Ouest entre les différentes couches applicatives. La sécurisation des flux (mTLS, VPN) et des données (chiffrement au repos/en transit). La stratégie PKI et le cycle de vie des certificats via Secret Manager ou Hashicorp Vault. La création de patterns d’architecture réutilisables (modules IaC). La supervision des campagnes de tests de sécurité en lien avec les équipes SRE et développement. La veille technologique et le conseil stratégique auprès du leadership sécurité.
Offre d'emploi
DATA ENGINEER MSBI / GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
MSBI
6 mois
40k-45k €
400-550 €
Paris, France
Contexte du poste Dans le cadre d’un programme de migration des solutions décisionnelles Microsoft vers Google Cloud Platform (GCP) , nous recherchons un Consultant Data Engineer expérimenté capable d’assurer la transition technique et fonctionnelle d’un environnement MSBI on-premise vers un écosystème GCP cloud-native . L’objectif est de moderniser la plateforme BI existante (SSIS, SSAS, SQL Server) vers des architectures Cloud basées sur BigQuery , Dataflow , Cloud Storage et Looker Studio , tout en garantissant la continuité des flux , la performance et la qualité des données . Missions principales Participer aux ateliers de cadrage technique et fonctionnel pour définir la stratégie de migration MSBI → GCP. Analyser l’existant MSBI (packages SSIS, cubes SSAS, rapports SSRS / Power BI) et identifier les dépendances techniques. Concevoir la nouvelle architecture cible GCP (BigQuery, Dataflow, Composer, Cloud Storage, IAM). Assurer la migration et la réécriture des flux ETL vers GCP (Dataflow / DBT / Python). Mettre en place les pipelines d’intégration continue et les jobs d’orchestration (Airflow / Cloud Composer). Optimiser les performances et les coûts d’exécution des traitements cloud. Garantir la gouvernance, la sécurité et la qualité des données dans le nouvel environnement. Accompagner les équipes internes dans la montée en compétences sur GCP . Compétences techniques requises Environnements Microsoft : SQL Server (T-SQL, procédures stockées, optimisation requêtes) SSIS (conception de flux ETL complexes) SSAS (tabular / multidimensionnel) Power BI / SSRS pour la partie reporting Environnements Google Cloud : BigQuery (datawarehouse cloud, modélisation, partitionnement, optimisation) Dataflow / Cloud Composer (orchestration et traitement de données) Cloud Storage, Pub/Sub, IAM Looker Studio pour la restitution Autres atouts : Connaissance de DBT , Python , ou Terraform Notions de DataOps , CI/CD , gouvernance des données Expérience sur des projets de migration cloud (Azure, AWS, ou GCP)
Mission freelance
Data Engineer GCP (Rouen)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Rouen, Normandie
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
Mission freelance
Data Engineer GCP - Rennes
Publiée le
Agile Scrum
Apache Airflow
BigQuery
12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Offre d'emploi
DEVELOPPEUR BACK-END PYTHON GCP (460€ MAX)
Publiée le
Google Cloud Platform (GCP)
Python
3 mois
40k-50k €
330-460 €
Île-de-France, France
Télétravail partiel
excellentes compétences en communication orale et écrite ainsi qu’une maîtrise de Python, des API REST (FastAPI), de GCP, du SQL et de Kubernetes sont requises. Bonne maîtrise de Python, des REST API (FastAPI), de GCP, SQL, Kubernetes. Facultatif, mais idéalement une connaissance de l’environnement Salesforce (Data Cloud & Marketing Cloud Engagement). Familier avec les principes DevOps, notamment la CICD. Familier avec le versionning, notamment Git. Contribuer à l'amélioration de la qualité du produit (Test coverage, Sonar, SOLID, YAGNI…) Participer à toutes les phases du cycle de développement logiciel, de la conception en passant par la mise en production et le run. Familier avec les principes d’observabilité. Excellentes aptitudes à la collaboration et au travail en équipe. Aider à la décision et arbitrage des choix techniques et fonctionnels. Bonne communication écrite et orale en français pour des interactions fluides avec le métier. Contribuer à l'amélioration continue des pratiques de développement. Assurer la maintenance et l'évolution des applications existantes. Maîtrise des méthodes agiles, notamment SCRUM
Mission freelance
directeur(rice) de programme CLOUD GCP
Publiée le
Google Cloud Platform (GCP)
3 mois
Paris, France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DIRECTEUR(RICE) de programme CLOUD GCP . Skills : direction de programme - GCP - anglais Mission : -piloter l’ensemble des phases du programme (cadrage, planification, exécution, clôture) -superviser les équipes projets internes et externes (chefs de projet, architectes, devOps…) -garantir la bonne gestion des délais, budgets, risques et qualité -assurer l’alignement stratégique entre les objectifs métiers et les initiatives Cloud GCP -collaborer avec les parties prenantes (métiers, DSI, partenaires) pour assurer l’adoption des solutions cloud N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
Data Engineer Google Cloud / BigQuery H/F
Publiée le
BigQuery
Google Cloud Platform (GCP)
2 ans
400-550 €
Rouen, Normandie
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer Google Cloud / BigQuery H/F à Rouen, France. Missions principales : Analyse, Conception et Modélisation Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Réaliser la recette technique Assurer la qualité avec des tests de non-régression
Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP
Publiée le
Azure
Cloud
Infrastructure
24 mois
350-700 €
Paris, France
Télétravail partiel
o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.
Offre d'emploi
skiils | DevOps Kubernetes/GCP - Full remote (Maghreb)
Publiée le
Google Cloud Platform (GCP)
Kubernetes
3 ans
10k-26k €
100-280 €
Safi, Maroc
Télétravail 100%
Nous recherchons un DevOps Senior (H/F) d’un grand acteur international du retail. 🎯 L’objectif ? Contribuer à la construction, la fiabilité et l’industrialisation de la plateforme Data du groupe, en apportant ton expertise sur les environnements Kubernetes et Google Cloud Platform (GCP) . Tu évolueras dans un environnement technique exigeant et collaboratif, au cœur de la transformation data-driven de l’entreprise. 🚀 Tes missions principales : Participer à la construction et l’évolution de la plateforme Data sur GCP Mettre en place et maintenir les pipelines d’intégration et de déploiement continu (CI/CD) Assurer la stabilité, la sécurité et la performance de l’infrastructure Kubernetes Gérer les déploiements d’applications et services dans le cloud Automatiser les processus et améliorer la scalabilité de la plateforme Collaborer avec les équipes Data, Cloud et Sécurité pour garantir la cohérence globale des environnements Surveiller, diagnostiquer et résoudre les incidents liés à l’infrastructure Être force de proposition pour l’amélioration continue des outils et des pratiques DevOps 🔧 Environnement technique : Cloud & Infrastructure : Google Cloud Platform (GCP), Kubernetes (GKE) Outils CI/CD : GitLab CI, Jenkins, Terraform, Helm Monitoring & Logging : Prometheus, Grafana, Stackdriver Langages / Scripting : Bash, Python, YAML Messaging / Streaming : Kafka (atout apprécié, non obligatoire) Méthodologie : Agile / Scrum
Offre d'emploi
DATA SCIENTIST IA
Publiée le
Google Cloud Platform (GCP)
3 mois
Paris, France
8 ANS XP MINI •Création et à l’enrichissement du socle de données en auditant les nouvelles données disponibles sur le datalake •Explorer les données, analyser et comprendre les profils et comportements des utilisateurs •En mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … •Mettre en place la data science : comprendre le besoin métier, proposer des approches pertinentes et adaptées au besoin métier, savoir vulgariser •Prévision des audiences •Enrichissement du catalogue via l’IAG •Analyses sémantiques de commentaires utilisateurs •Prédiction de l’inactivité, des appétences, … •Segmentations de notre base utilisateurs •Expériences sur des projets IA de type prévisions, algo de recommandation, score d’appétence, anti-churn, analyse sémantique, détection d’anomalies •Expérience significative sur des sujets d’IAG •Maitrise de Python et SQL •Connaissance d’un environnement cloud, idéalement Google Cloud Platform •Expérience des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics...) •Connaissance d’un outil de dataviz •La connaissance des architectures API serait un plus •La connaissance des outils de gestion de versions GIT serait un plus
Mission freelance
Développeur·se PHP / Cloud (GCP)
Publiée le
AWS Cloud
Cloud
Google Cloud Platform (GCP)
2 ans
Paris, France
Télétravail partiel
Vous êtes développeur·se backend avec une bonne maîtrise de PHP et un intérêt pour les environnements cloud ? Vous souhaitez rejoindre un projet structuré au sein d’une équipe expérimentée, sur une mission technique et stable ? Cette opportunité pourrait bien vous correspondre ! Nous recherchons un·e Développeur·se PHP / Cloud (GCP) pour une mission de longue durée au sein d’une DSI du secteur de l'énergie. interviendrez sur : La maintenance évolutive des applications PHP / Symfony en production La mise en œuvre de nouvelles fonctionnalités techniques ou métiers L’optimisation de la performance des applications existantes L’amélioration continue de la qualité du code et des pipelines CI/CD (GitLab, tests automatisés) Le renforcement de l’observabilité et du monitoring applicatif La collaboration avec les équipes dev et ops, dans un environnement agile Environnement technique : Langages & Frameworks : PHP, Symfony Cloud : Google Cloud Platform (GCP) CI/CD & Conteneurisation : GitLab CI, Docker, Docker-in-Docker, Kaniko SGBD : Oracle, PostgreSQL Méthodologies : Scrum, Agile Outils et pratiques DevOps : Git, Bash, Ansible, Puppet, Terraform, Kubernetes, monitoring et documentation des infrastructures
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passer de la micro à l'EURL dans les règles de l'art
- Le marché du freelancing et de l’IT en 2026 : à quoi s’attendre ?
- Projet d'évolution
- Réforme de l’assiette sociale
- Demande d’enquête métier – Manager en infrastructures et cybersécurité des systèmes d’information
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
2713 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois