Find your next tech and IT Job or contract Vertex AI

Your search returns 13 results.
Contractor

Contractor job
Ingénieur Sécurité GCP

Groupe Aptenia
Published on
Google Cloud Platform (GCP)
Vertex AI

3 years
Paris, France

Étude de l’implémentation de la sécurité GCP dans une autre entité du Groupe. Formalisation de guidelines techniques de sécurité pour les services GCP utilisés. Proposition de guardrails à mettre en place au niveau de l’organisation GCP. Expertise confirmée en sécurité GCP (minimum 7 ans d’expérience). Maîtrise des bonnes pratiques de sécurité cloud. Expérience en hardening, revue d’architecture et analyse de risques. Capacité à travailler de manière autonome dans des environnements complexes. Connaissance des services GCP : Organization, Cloud Storage, Secret Manager, Cloud KMS, Cloud Router, HA VPN Gateway, Cloud Interconnect, Vertex AI, Model Armor, Private Service Connect Endpoint.

Contractor
Permanent

Job Vacancy
Senior AI Engineer

UCASE CONSULTING
Published on
Generative AI
MySQL
Python

6 months
40k-45k €
400-550 €
Paris, France

Je recherche pour un de mes clients, un TechLead AI : Missions principales : • Accompagner les AI / ML Engineers de l’équipe sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien. • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance. • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale. • Participer aux analyses, études d’impacts et cadrage techniques. • Concevoir des solutions industrialisées en respectant les bonnes pratiques d’architecture AI / ML et développement. • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe. • Réaliser le développement de nouveaux produits IA et assurer la maintenance évolutive et corrective des produits existants • Rédiger la documentation technique • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impacts techniques • Faire des propositions techniques • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements Compétences techniques : • Langages de programmation : Python, SQL • Utilisation de plateformes pour le développement et le déploiement des modèles d’IA : Docker, Kubernetes, Helm • Maitrise des frameworks de developpement d'application IA: Langgraph, ADK, Hugging Face, Guardrails, FastAPI • Maitrise des services data et IA de GCP : GCP BigQuery, VertexAI, Cloud storage, GKE • Maitrise des enjeux de securité liés au déploiement de modèles d'IA générative. • Maîtrise du déploiement et de la mise en production des modèles LLM open source. • Maitrise des plateformes d’IA Gen, de leur installation à l’opération des modèles • Maitrise des bases de données vectorielles : PGVector

Contractor

Contractor job
Lead Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Published on
BigQuery
Composer
Google Cloud Platform (GCP)

6 months
540-600 €
Ivry-sur-Seine, Ile-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Permanent
Contractor

Job Vacancy
Mission sécurité RESEAU du cloud GCP(impératif) H/F

ISE SYSTEMS
Published on
ISO 27001
NIST

36 months
40k-65k €
550-660 €
Paris, France

Si vous n'êtes pas un profil SECURITE GCP, ne postulez pas. Nous recherchons un consultant spécialisé dans sécurité du cloud GCP (services PaaS; IAM, automation, CI/CD) avec de l'expertise sécurité réseaux Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à utiliser des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations.

Contractor

Contractor job
Expert Cloud GCP

STHREE SAS pour HUXLEY
Published on

3 months
680-780 €
75001, Paris, Île-de-France

Dans le cadre de notre premier projet de migration vers GCP, dont l'objectif est de fournir un accès centralisé via API aux modèles VERTEX et GEMINI, nous devons garantir la sécurité dès la conception de notre environnement GCP. Le consultant est attendu pour : comprendre la mise en œuvre de la sécurité dans GCP par une autre filiale du groupe formaliser des lignes directrices techniques de sécurité pour les services GCP qui seront utilisés proposer des garde-fous à mettre en place au niveau de l'organisation GCP Services GCP identifiés : Organisation Cloud Storage Secret Manager Cloud KMS Cloud Router HA VPN Gateway GCP Cloud Interconnect Vertex AI Model Armor Point de terminaison Private Service Connect Remarque : Les benchmarks de niveau 1 du CIS applicables à GCP ont déjà été sélectionnés

Contractor

Contractor job
Expert Sécurité Cloud GCP

ematiss
Published on
Google Cloud Platform (GCP)

6 months
100-490 €
Ile-de-France, France

Dans le cadre du premier projet de migration vers Google Cloud Platform (GCP), visant à fournir un accès centralisé aux modèles VERTEX et GEMINI, l’objectif est d’assurer une sécurité by design de l’environnement GCP. Objectifs de la mission : Étudier l’implémentation de la sécurité GCP dans une autre entité du Groupe. Formaliser des guidelines techniques de sécurité pour les services GCP utilisés. Proposer des guardrails à mettre en place au niveau de l’organisation GCP. Services GCP concernés : Organization Cloud Storage Secret Manager Cloud KMS Cloud Router HA VPN Gateway Cloud Interconnect Vertex AI Model Armor Private Service Connect Endpoint Compétences techniques : Expertise confirmée en sécurité GCP (minimum 7 ans d’expérience). Maîtrise des bonnes pratiques de sécurité cloud. Expérience significative en hardening, revue d’architecture, et analyse de risques. Capacité à travailler de manière autonome et à proposer des solutions adaptées à des environnements complexes. Formation : Diplôme universitaire en informatique, cybersécurité, architecture des systèmes ou domaine connexe. Expertise sécurité cloud, spécialiste GCP

Contractor
Permanent

Job Vacancy
Consultant MLOps GenAI

UCASE CONSULTING
Published on
DBT
Generative AI
Google Cloud Platform (GCP)

6 months
40k-65k €
400-620 €
Paris, France

Contexte Dans le cadre du renforcement de notre pôle Data & IA, nous recherchons un(e) Consultant(e) confirmé(e) Data Engineer / MLOps spécialisé(e) GenAI . Le profil idéal se situe à mi-chemin entre le Data Engineering et le MLOps , avec une solide expertise sur GCP, une appétence pour la GenAI , et la capacité à résoudre des problématiques de production . Missions principales Concevoir, industrialiser et maintenir des pipelines data sur GCP (BigQuery, Dataflow, Pub/Sub). Mettre en place et optimiser des modèles et services IA/GenAI via Vertex AI . Assurer l’ industrialisation et la mise en production de modèles (CI/CD, monitoring, optimisation). Développer en Python des outils et composants réutilisables pour les projets Data/IA. Implémenter des transformations et orchestrations de données avec DBT . Diagnostiquer et résoudre les incidents de production liés aux pipelines, modèles ou API IA. Collaborer avec les équipes Data Science, DevOps et métiers pour assurer la qualité, robustesse et performance des solutions. Compétences techniques recherchées Langages : Python (avancé), SQL. Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Vertex AI). Data Engineering : DBT, orchestration (Airflow, Cloud Composer). MLOps / GenAI : Vertex AI pipelines, modèles LLM/GenAI, monitoring et déploiement en prod. CI/CD : GitLab CI/CD, Terraform, Docker, Kubernetes. Observabilité : Logging, monitoring, optimisation de pipelines et modèles en prod. Soft skills Esprit analytique et orienté résolution de problèmes . Capacité à travailler en transverse avec des équipes Data Science, IT et métiers. Autonomie, proactivité et rigueur , avec une approche pragmatique. Intérêt marqué pour les dernières évolutions IA et GenAI . Profil recherché Expérience : 3 à 6 ans en Data Engineering et/ou MLOps, avec une exposition significative à GCP. Bonus : une première expérience réussie sur des projets GenAI (LLM, Vertex AI, APIs d’IA générative).

Contractor
Permanent

Job Vacancy
Architecte Cloud Data Stratégique GCP

PointRD
Published on
AWS Cloud
Azure
Big Data

24 months
Ile-de-France, France

Vos Responsabilités Clés Conception d'Architectures Data GCP : Définir et concevoir des architectures Data Cloud robustes, sécurisées et évolutives (Data Lakes, Data Warehouses, Data Mesh, solutions d'Analytics) en utilisant les services natifs de GCP. Expertise et maîtrise de services clés tels que BigQuery, Dataflow, Dataproc, Cloud Storage, Pub/Sub et Vertex AI . Stratégie Multi-Cloud et Migration : Contribuer à la stratégie Multi-Cloud du groupe, en assurant l'interopérabilité et l'intégration des services Data de GCP avec d'autres fournisseurs (AWS/Azure) ou les systèmes on-premise . Mener des phases de migration de systèmes de données existants (Legacy) vers la cible Cloud, en déterminant la meilleure approche (Re-platforming, Refactoring). Gouvernance et Sécurité (Cloud Data Security) : Définir la Landing Zone Data sur GCP , incluant les politiques de sécurité (IAM, KMS) et la gestion de la conformité réglementaire Data. Garantir la mise en œuvre de l' Infrastructure as Code (IaC) via Terraform pour le déploiement reproductible et sécurisé des plateformes Data. Optimisation et Conseil : Mettre en place des pratiques de FinOps pour optimiser les coûts liés au stockage et au traitement des gros volumes de données sur GCP. Fournir un leadership technique et un support aux équipes de Data Engineers et Data Scientists.

Contractor
Permanent

Job Vacancy
Data Scientist Senior – E-commerce Opération (H/F)

skiils
Published on
Apache Airflow
Google Cloud Platform (GCP)
Python

1 year
10k-58k €
100-580 €
Paris, France

Nous recherchons un Data Scientist Senior (H/F) pour rejoindre l'équipe E-commerce, Marketing & Relation Clients d’un acteur du retail. 🎯 L’objectif ? Concevoir, industrialiser et améliorer des solutions de machine learning visant à optimiser la performance opérationnelle et commerciale du e-commerce : qualité des opérations, rentabilité, productivité et personnalisation client. Tu évolueras au sein du pôle Data Science Customer , dans un environnement agile, collaboratif et cloud-native , où les approches data-driven et l’innovation sont au cœur de la stratégie omnicanale du groupe. 🚀 Tes missions principales : Identifier, avec les équipes métier et opérationnelles, les cas d’usage data à fort impact business Explorer et fiabiliser les données : nettoyage, agrégation, étude ad-hoc et préparation de datasets Concevoir, implémenter et évaluer des modèles de machine learning et d’analyse prédictive Définir et conduire des protocoles de test en conditions réelles (magasins, entrepôts, plateformes logistiques) Industrialiser et maintenir les solutions dans les environnements cloud (CI/CD, monitoring, itérations) Assurer la transmission des bonnes pratiques et le mentoring de data scientists juniors Participer activement à la communauté Data Science du groupe (séminaires, retours d’expérience, veille technologique) 🔧 Environnement technique : Langages & outils : Python, SQL, Terraform, Docker, GitLab, Jenkins Cloud & Orchestration : Google Cloud Platform (GCP), Cloud Composer / Airflow, Cloud Run, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage Méthodologies : Agile / Scrum, itérations rapides, revue de code et bonnes pratiques DevOps

Contractor

Contractor job
Data Scientist GCP adtech

Cherry Pick
Published on
Data science
Google Cloud Platform (GCP)

3 months
520-540 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur des medias Description 🎯 Contexte du projet L’équipe BI, Analytics & Data Science (10 personnes : Data Analysts, Data Scientists, ML Engineers) travaille en transverse pour l’ensemble des marques et métiers du groupe (abonnement, vente au numéro, régie publicitaire…). L’activité couvre un spectre large : analyses ad hoc, dashboards, projets data science et IA. La stack technologique est entièrement sur Google Cloud Platform (BigQuery, Airflow, Vertex AI). Face à la montée en charge et à des besoins spécifiques en AdTech (audience, publicité digitale, personnalisation), l’équipe recherche un Data Scientist confirmé pour renforcer ses capacités sur la fin d’année. 🛠️ Missions principales Intervenir sur des projets AdTech : audience, ciblage publicitaire, recommandations de contenu, personnalisation, pricing. Gérer des projets end-to-end : Collecte et préparation des données, Feature engineering et modélisation, Déploiement et mise en production des modèles (Vertex AI, Airflow). Développer et industrialiser des modèles de machine learning prédictif (pas de focus sur l’IA générative). Collaborer avec les équipes Data, BI, régie publicitaire et métiers internes. Produire des analyses et recommandations pour soutenir la stratégie publicitaire et marketing.

Contractor

Contractor job
Ingénieur IA – Développement d’Agents et Intégration GCP

Signe +
Published on
Google Cloud Platform (GCP)

6 months
570 €
Paris, France

Contexte Le département des Opérations IT & Finance de L’Oréal recherche un Ingénieur IA expérimenté pour concevoir, implémenter et industrialiser des agents d’intelligence artificielle et leurs interactions dans un environnement Google Cloud Platform (GCP) . L’objectif : passer de preuves de concepts (PoC) à des solutions fiables, sécurisées et maintenables à grande échelle. Missions principales Implémenter des agents IA et des services Python intégrés dans l’écosystème GCP. Concevoir et déployer des APIs et des outils MCP (FastAPI/async), conteneurisés et déployés sur Cloud Run . Développer des serveurs MCP pour exposer de manière sécurisée les outils et données internes aux agents. Concevoir et implémenter la communication agent à agent (basée sur événements ou RPC). Définir les schémas de messages , le routage , la gestion d’état et les mécanismes de retry . Intégrer les solutions avec Vertex AI (ou équivalent) pour les appels de modèles, la sécurité et l’évaluation des résultats. Mettre en place une chaîne CI/CD complète (Cloud Build, GitHub Actions) et une infrastructure as code (Terraform). Garantir la qualité logicielle via des tests unitaires, d’intégration et de contrat. Mettre en œuvre des mécanismes d’ observabilité (Cloud Logging, OpenTelemetry) et de sécurité (DLP, IAM, secrets). Rédiger la documentation technique et opérationnelle et assurer la passation aux équipes internes . Accompagner les équipes métiers dans l’adoption de cas d’usage en IA générative . Compétences techniques requises Excellente maîtrise du langage Python et des modèles asynchrones (async/await) . Expérience confirmée sur GCP : Pub/Sub, IAM, Cloud Run / GKE, Secret Manager, Cloud Logging & Monitoring. Solides bases en DevOps : CI/CD (Cloud Build, GitHub Actions) et Terraform . Connaissance pratique des frameworks d’agents IA (LangGraph, ADK, Autogen ou équivalents). Expérience d’intégration avec des LLM (Large Language Models). Culture de la sécurité , de la qualité logicielle et de la documentation . Profil recherché Ingénieur expérimenté en développement Python et GCP , orienté industrialisation IA . Capacité à travailler en environnement cloud distribué et à transformer des PoC en solutions robustes. Autonomie, rigueur, esprit d’équipe et sens du partage technique.

Contractor

Contractor job
Expert sécurité opérationnelle cloud GCP/ IAM GCP/ SECURITE, RESEAUX/ TERRAFORM/ PYTHON (H/F)

Octopus Group
Published on
IAM
IT security
Networks

1 year
560-650 €
Paris, France

Nous recherchons pour le compte de notre client dans le domaine bancaire un expert sécurité GCP afin de les accompagner dans l'évaluation, la mise en œuvre et l'optimisation de leurs pratiques de sécurité Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité. Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique

Contractor

Contractor job
Data Scientist Full-Stack Python / Streamlit (H/F)

Cherry Pick
Published on
Python
Streamlit

12 months
590-650 €
Paris, France

Cherry Pick est à la recherche d'un Data Scientist Full-Stack Python / Streamlit (H/F) pour l'un de ses clients. ontexte de la mission Dans le cadre d'un projet de transformation digitale d'envergure pour un acteur majeur de la grande distribution, vous rejoindrez l'équipe en charge d'une plateforme web interne. Ce projet vise à révolutionner la gestion des campagnes de couponing personnalisé en remplaçant les supports publicitaires physiques (kakemonos) par des écrans électroniques (e-paper) en magasin. Ce projet est à la croisée de l'IoT et de la gestion de campagnes marketing. Vos missions et responsabilités En tant que renfort clé pour l'équipe, vous jouerez un rôle central dans la construction et l'évolution des "produits data" de la plateforme. Vos missions principales seront les suivantes : Concevoir et mettre en place le système de mesure de la performance des campagnes, de la collecte des données brutes à la restitution des résultats. Définir les KPIs pertinents en collaboration avec les équipes métier. Traiter, analyser et préparer les données pour le calcul d'indicateurs de performance et d'agrégats statistiques. Automatiser la création d'échantillons et le calcul de la performance des campagnes. Développer et maintenir le front-end de la plateforme à l'aide de Streamlit , en apportant votre expertise pour des développements complexes. Collaborer sur des projets de "data sharing" afin de rendre les données accessibles et exploitables. Environnement Technique Langages : Python, SQL Framework : Streamlit (expertise forte requise) Cloud : GCP (Google Cloud Platform) Services GCP : Vertex AI, BigQuery Outils : GitLab Profil recherché Vous justifiez d'une expérience solide de 6 à 8 ans dans le domaine de la Data Science et de l'ingénierie data, avec un track record de projets complexes et mis en production. Vous maîtrisez parfaitement Python et avez une expertise avérée sur Streamlit , idéalement sur des projets de grande envergure. Une bonne connaissance de l'environnement GCP et de ses services (BigQuery, Vertex AI) est indispensable. Vous êtes autonome, rigoureux et proactif, capable de prendre en charge des sujets de bout en bout. Un niveau d'anglais professionnel est requis.

13 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us