L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 19 résultats.
Mission freelance
Data Engineer/ Expert GCP
Publiée le
BigQuery
Cloud
Data science
12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Offre d'emploi
Data Scientist
Publiée le
Google Cloud Platform (GCP)
Machine Learning
1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Mission freelance
Consultant(e) AI Scientist & Agentique
Publiée le
BigQuery
Google Cloud Platform (GCP)
IAM
6 mois
Paris, France
Télétravail partiel
Missions Développer et structurer du code Python de qualité (tests, environnements, API). Construire des pipelines IA autour de modèles LLM (Large Language Models). Mettre en œuvre des systèmes RAG (Retrieval Augmented Generation) pour connecter l’IA aux données internes. Concevoir des agents IA (planification, outils, actions) avec des frameworks spécialisés. Déployer les solutions sur Google Cloud Platform et ses services IA (Vertex AI). Intégrer l’IA dans des environnements de production : authentification, monitoring, connecteurs métier. Collaborer avec les équipes data, produit et engineering pour industrialiser les solutions.
Offre d'emploi
TECH LEAD IA
Publiée le
Google Cloud Platform (GCP)
MLOps
Vertex AI
6 mois
40k-68k €
500-730 €
Paris, France
Je recherche pour un de mes clients dans le domaine de la banque/Assurance un techLead IA : Mission Définir les standards, frameworks et guidelines pour la mise en production des modèles IA/ML sur GCP. Concevoir et superviser la mise en place de pipelines MLOps automatisés et scalables (Vertex AI, Cloud Functions, BigQuery, etc.). Encadrer les ingénieurs dans la réalisation des pipelines et des intégrations. Industrialiser et monitorer des chatbots IA et applications LLM en production. Mettre en place une démarche CI/CD & ML Collaborer avec les architectes cloud et équipes sécurité pour fiabiliser l’infrastructure IA. Assurer la performance, la conformité et la sécurité des solutions mises en production. Contribuer à la veille technologique IA/MLOps et à l’adoption de nouveaux outils (LangChain, MLFlow, Vertex Pipelines, etc.). Profil recherché Expérience : confirmé Expertise démontrée sur GCP et sa stack IA/ML (Vertex AI, GKE, Dataflow, BigQuery). Expérience confirmée en design d’architectures IA/ML et en gouvernance MLOps (mise en place de frameworks, monitoring, CI/CD ML). Maîtrise des environnements LLMs et des solutions de productionisation de modèles conversationnels (chatbots, agents IA). Leadership technique : accompagnement d’équipes, code review, standardisation, montée en compétence. Capacités de communication et de vulgarisation auprès des équipes techniques et métiers. Anglais professionnel (projets internationaux). Stack & environnement technique Cloud : Google Cloud Platform (GCP), Vertex AI, GKE, BigQuery, Dataflow Langages : Python (expertise requise), YAML, SQL Outils MLOps : MLFlow, Kubeflow, Vertex Pipelines, Airflow CI/CD : GitLab CI, Cloud Build, Terraform LLMs : OpenAI API, Vertex AI LLM, LangChain, HuggingFace Transformers Monitoring & Observabilité : Prometheus, Grafana, Cloud Monitoring Méthodologie : Agile / Scrum
Offre d'emploi
Lead ML Engineering (26)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Lead ML EngineeringContexte de la mission Création d'une équipe dédiée à la personnalisation (PO, DS, Lead MLE, MLE) pour lancer des cas de recommandation et de ML en production. Stack GCP incluant Python, Vertex AI, BigQuery, Cloud Run, Airflow/Cloud Composer (et autres services GCP). Objectifs : créer les premiers use cases, déployer & A/B tester en prod, monitorer la performance. Activités attendues Définir l'architecture & la feuille de route technique (performance, scalabilité, sécurité). Coacher l'équipe pour garantir la qualité du code/modèles. Concevoir, construire & maintenir des pipelines ML de la collecte à l'exposition via API REST. Organiser le stockage ; assurer scalabilité, sécurité, stabilité des environnements. Mettre en place des infrastructures scalables et les workflows CI/CD ; industrialiser les modèles avec les DS. Collaborer avec Data Engineers & équipes techniques ; documentation & veille ; participation au cadrage/planification/réalisation.
Offre d'emploi
DATA SCIENTIST
Publiée le
Natural Language Processing (NLP)
6 mois
40k-45k €
400-550 €
Paris, France
Contexte : Dans le cadre du développement de nos projets IA, nous recherchons un Data Scientist expérimenté maîtrisant Vertex AI et les technologies modernes de modélisation et d’industrialisation. Missions : Développement et entraînement de modèles ML/IA (supervisé, non supervisé, deep learning). Utilisation avancée de Vertex AI (training, pipelines, model registry, monitoring). Participation à la construction de solutions génératives ou prédictives (LLM, NLP, time series, recommendation…). Préparation, exploration et structuration de datasets à grande échelle. Déploiement, optimisation et suivi des modèles en production. Compétences recherchées : Très bonne maîtrise de Python , Scikit-Learn, TensorFlow ou PyTorch. Expertise Vertex AI (training, notebooks, pipelines, endpoints). Connaissance des environnements GCP (BigQuery, Storage, Pub/Sub). Solides compétences en statistiques, math appliquée et optimisation. Expérience avec LangChain / LangGraph / LLM (souhaitée). Profil attendu : 3 à 8 ans d’expérience en Data Science ou ML Engineering. Capacité à vulgariser et à proposer des solutions adaptées au besoin métier. Forte autonomie et sens du delivery.
Offre d'emploi
Machine Learning Engineering
Publiée le
Agile Scrum
Big Data
CI/CD
12 mois
40k-48k €
500-570 €
Paris, France
Télétravail partiel
Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. La prestation de l'équipe : Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues : En interaction avec les membres de l’équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Mission freelance
EXPERT SECURITE CLOUD GCP
Publiée le
Google Cloud Platform (GCP)
1 an
400-650 €
Paris, France
Télétravail partiel
Mission : Cloud Security Expert – GCP 👤 Profil recherché Consultant senior (7 ans d’expérience) en sécurité cloud GCP Solide maîtrise : Gouvernance sécurité Cloud & environnements hybrides Sécurisation multi-tenant et architectures GCP Normes CIS Benchmarks, ISO 27001, Zero Trust Expertise technique : IAM, VPC, KMS, logging, API & network security Expérience grands comptes internationaux Soft skills : autonomie, rigueur, esprit analytique, collaboration internationale 🧠 Missions principales Analyser les implémentations de sécurité GCP existantes dans le groupe Rédiger des Security Technical Guidelines pour les services GCP utilisés Définir et documenter les guardrails et policies GCP : organisation policies, IAM, KMS, logging, réseau Assurer la conformité au CIS Benchmark GCP Level 1 et à la politique sécurité interne Produire les livrables : Cartographie de l’environnement GCP Documentation technique de référence Rapport de conformité et écarts résiduels Présentation synthétique aux équipes GO Security & Cloud Engineering 🎯 Objectif global Garantir la sécurité by design de la nouvelle plateforme GCP hébergeant les modèles Vertex AI et Gemini, en définissant les principes d’architecture, lignes directrices techniques et garde-fous sécurité à l’échelle du groupe.
Offre d'emploi
Data Scientist Senior – E-commerce Opération (H/F)
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
Python
1 an
10k-58k €
100-580 €
Paris, France
Télétravail partiel
Nous recherchons un Data Scientist Senior (H/F) pour rejoindre l'équipe E-commerce, Marketing & Relation Clients d’un acteur du retail. 🎯 L’objectif ? Concevoir, industrialiser et améliorer des solutions de machine learning visant à optimiser la performance opérationnelle et commerciale du e-commerce : qualité des opérations, rentabilité, productivité et personnalisation client. Tu évolueras au sein du pôle Data Science Customer , dans un environnement agile, collaboratif et cloud-native , où les approches data-driven et l’innovation sont au cœur de la stratégie omnicanale du groupe. 🚀 Tes missions principales : Identifier, avec les équipes métier et opérationnelles, les cas d’usage data à fort impact business Explorer et fiabiliser les données : nettoyage, agrégation, étude ad-hoc et préparation de datasets Concevoir, implémenter et évaluer des modèles de machine learning et d’analyse prédictive Définir et conduire des protocoles de test en conditions réelles (magasins, entrepôts, plateformes logistiques) Industrialiser et maintenir les solutions dans les environnements cloud (CI/CD, monitoring, itérations) Assurer la transmission des bonnes pratiques et le mentoring de data scientists juniors Participer activement à la communauté Data Science du groupe (séminaires, retours d’expérience, veille technologique) 🔧 Environnement technique : Langages & outils : Python, SQL, Terraform, Docker, GitLab, Jenkins Cloud & Orchestration : Google Cloud Platform (GCP), Cloud Composer / Airflow, Cloud Run, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage Méthodologies : Agile / Scrum, itérations rapides, revue de code et bonnes pratiques DevOps
Mission freelance
Lead Machine leaning engineering
Publiée le
FastAPI
Flask
Gitlab
12 mois
470-510 €
Île-de-France, France
Télétravail partiel
Je recherche un(e) Lead Machine Learning Engineer pour accompagner la Direction Data d’un grand média français dans la mise en place d’une équipe dédiée aux sujets de recommandation et de personnalisation. 👤 Mission Vous interviendrez au cœur d’une équipe Data (PO, Data Scientist, Lead ML, ML Engineer) pour concevoir, déployer et industrialiser des modèles de machine learning en production, dans un environnement full Google Cloud. 💼 Compétences requises : • 5+ années d’expérience en environnement Data / Machine Learning • Déploiement en production de modèles ML (scalabilité, haute perf) • Maîtrise de Google Cloud (Vertex AI, BigQuery, Cloud Run, Composer, CloudSQL, IAM) • Très bonnes compétences en Python et SQL • Connaissances de Flask, FastAPI, SQLAlchemy, Pgvector, Pandas, Hugging Face • Expérience en Terraform / Terragrunt • Très bonnes connaissances en ML, Deep Learning, systèmes de recommandation • Maîtrise de GitLab & GitLab CI/CD • Capacité à vulgariser, communiquer et accompagner une équipe • Expérience des méthodes Agile (Scrum / Kanban) 📍 Modalités : • Présence sur site requise (~50% du temps) • Expérience attendue : Sénior • Environnement : Paris • Matériel sécurisé requis (chiffrement, antivirus, etc.)
Mission freelance
Data Scientist Sénior - Mi-temps
Publiée le
CI/CD
Large Language Model (LLM)
MLOps
6 mois
Paris, France
Télétravail partiel
Nous recherchons un·e Data Scientist Senior pour rejoindre une équipe Retail composée de 5 Data Scientists, afin de contribuer à l’optimisation et au développement de solutions IA dédiées à l’amélioration du ciblage clients et à la performance des produits. Missions principales Suivre techniquement le développement de solutions data & IA orientées Retail (segmentation, ciblage, scoring…). Participer à l’amélioration continue des modèles existants : recommandations produits, recherche produits, sentiment analysis, scoring, etc. Proposer des approches robustes pour optimiser la performance des modèles et la qualité des livrables. Collaborer avec les équipes métiers pour comprendre les enjeux et traduire les besoins en solutions concrètes. Réaliser la revue de code, assurer la qualité technique et contribuer aux bonnes pratiques. Compétences requises Expertise en développement, déploiement et revue de code (pratiques clean code, MLOps, CI/CD). Expérience solide en prompting et utilisation de modèles LLM. Maîtrise des environnements Cloud, particulièrement Google Cloud Platform et ses outils associés (Dataproc, BigQuery, Vertex AI). Capacité à comprendre les besoins business et à y répondre efficacement via des solutions data performantes. Autonomie, rigueur, sens du collectif, capacité à évoluer dans un environnement agile.
Offre d'emploi
Ingénieur DataOps IA
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
IA Générative
France
Télétravail partiel
Au sein de l’équipe Data & IA, vous participerez activement à la mise en production et à la fiabilisation des plateformes de données et des modèles IA. Vous interviendrez sur les volets suivants : Développement et automatisation de pipelines Data/ML (ETL, CI/CD, orchestration). Industrialisation et monitoring des modèles de Machine Learning. Déploiement d’infrastructures Cloud sur GCP (Vertex AI, BigQuery, Dataflow, Cloud Run) et AWS (S3, Lambda, SageMaker). Implémentation d’une approche Infrastructure as Code (Terraform, CloudFormation). Optimisation de la performance, la sécurité et la résilience des environnements. Collaboration étroite avec les Data Scientists pour fiabiliser les déploiements de modèles IA.
Mission freelance
Mission : Machine Learning / Generative AI
Publiée le
AI
Machine Learning
12 mois
550-700 €
Paris, France
Télétravail partiel
Je recherche pour un client un Machine Learning Engineer avec une forte expertice en IA. Missions : Au Sein de l’équipe Data, vous contribuerez au déploiement d’algorithmes de Machine Learning / Generative AI sur la data plateforme (Google Cloud Platform). En collaboration avec le responsable Data, les Product Owners Data et les équipes business, vous serez impliqué(e) dans l’ensemble du processus de réflexion et de déploiement des solutions IA/ML et aurez pour missions : Le Machine Learning doit maîtriser la plateforme Vertex de Google Cloud Platform (GCP), capable de coder, packager et industrialiser des modèles IA.
Offre d'emploi
Machine Learning Engineer
Publiée le
Computer vision
Dataiku
Python
6 mois
Paris, France
Nous recherchons un(e) Machine Learning Engineer . Vous intégrerez l’équipe Data et participerez au déploiement d’algorithmes de Machine Learning et de Generative AI sur la plateforme de données (Google Cloud Platform). En étroite collaboration avec le responsable Data, les Product Owners et les équipes métiers, vous serez impliqué(e) dans toutes les étapes de réflexion et de mise en œuvre des solutions IA/ML Missions : Sensibiliser les équipes aux concepts et bénéfices du Machine Learning et de la Generative AI Recueillir et analyser les besoins métiers pour des solutions IA/ML Étudier et évaluer les solutions du marché répondant aux besoins métiers Préparer et transformer les données pour les algorithmes Tester, valider et sélectionner les algorithmes de Machine Learning et d’intelligence artificielle Mettre en place un système de monitoring des résultats des algorithmes (ML Ops) Développer des modules de code réutilisables (préprocessing, entraînement, postprocessing, déploiement) Créer des interfaces utilisateurs pour exploiter les modèles développés Rédiger la documentation technique et fonctionnelle
Mission freelance
Ingénieur MLOps – Production de la chaîne d’intégration des modèles de Machine Learning
Publiée le
Apache Airflow
Docker
MLOps
3 ans
100-520 €
Lille, Hauts-de-France
Télétravail partiel
Livrable attendu Pipelines MLOps automatisés (CI/CD) pour entraînement, validation et déploiement. Infrastructure cloud (IaC) opérationnelle. Système de monitoring et alerting pour modèles ML en production. Documentation technique et bonnes pratiques MLOps. Compétences techniques (Impératives) Frameworks MLOps : ZenML, MLflow, Vertex AI ou équivalent. Python : Confirmé. Orchestration/Pipelines : Airflow, Kubeflow, Dagster ou Prefect. Conteneurisation : Docker, Kubernetes. CI/CD & IaC : Git/GitLab/GitHub, Terraform/Ansible. Data Quality/Versioning : Great Expectations, Deeque, Feast, MLflow Model Registry. Cloud : Maîtrise d’un cloud majeur (GCP fortement recommandé). Connaissances linguistiques Français : Courant (Impératif). Anglais : Professionnel (Impératif).
Offre d'emploi
Expert DevSecOps / LLMOps – Gitlab
Publiée le
Jenkins
18 mois
10k-60k €
180-600 €
Paris, France
Télétravail partiel
CONTEXTE Nous recherchons une expertise technique DevSecOps/LLMOps afin de maintenir et faire évoluer le Portail Multi-IAG face aux besoins croissants d’industrialisation, de sécurité, de conformité et de performance, et de contribuer à la montée en compétence de l’équipe sur les pratiques propres aux modèles génératifs. La mission s’exécute dans un contexte multi-environnements (Landing Zone GCP, On-Prem, cloud de confiance/ SecNumCloud à venir) et s’interface avec les briques internes du groupe (API Gateway, observabilité, etc.). La prestation s'articule autour de cinq missions clés : Fiabilisation et accélération du Portail V1 • Objectif : Améliorer et industrialiser les pratiques opérationnelles pour sécuriser et optimiser les services existants. • Périmètre : Mise en œuvre de la CI/CD, renforcement de la sécurité (IAM, secrets), structuration de l'observabilité (traces, métriques, logs) et des pratiques FinOps. Conception et préparation du Portail V2 (cible 2026) • Objectif : Définir et construire les fondations techniques de la future version du portail. • Périmètre : Conception de l'architecture DevSecOps cible, production des artefacts documentaires (HLD/LLD), développement de l'Infrastructure as Code (IaC) et des pipelines, et pilotage de la migration. Structuration de la filière LLMOps • Objectif : Définir et mettre en œuvre les standards, outils et processus pour industrialiser le cycle de vie des modèles génératifs. • Périmètre : Intégration des évaluations continues (qualité, sécurité, coûts) dans la CI, mise en place de "guardrails" et de politiques de sécurité (Policies as Code), et garantie de la conformité (RGPD / AI Act). Anticipation de l'IA Agentique • Objectif : Préparer la plateforme à l'intégration future des technologies d'agents IA. • Périmètre : Veille technologique, prototypage des briques d'orchestration et de contrôle (HITL, guardrails spécifiques), et contribution à l'architecture cible. Accompagnement et transfert de compétences • Objectif : Assurer la montée en compétence et l'autonomie des équipes internes (Portail et Plateforme Data). • Périmètre : Acculturation, production de documentation (playbooks, runbooks), formation et support méthodologique. Activités détaillées Pour réaliser ces missions, le prestataire mènera les activités suivantes : • Ingénierie et industrialisation : Développement de pipelines CI/CD (GitLab), de scripts d'automatisation, d'Infrastructure as Code (Terraform), et de charts Helm. • Qualité et sécurité : Mise en œuvre des tests (unitaires, performance, SAST/SCA/SBOM), intégration des évaluations de LLM et des "guardrails" (input/output, LLMGuard) comme étapes bloquantes dans la CI. • Déploiement : o Gestion et déploiement des modèles d’IA génératif o Gestion et déploiement applicatif (solutions open source : LangFlow, LangFuse, OpenWebUI, n8n, LiteLLM, etc…) à l’échelle de l’entreprise. • Support et MCO : Résolution d'incidents de niveau 2/3, optimisation des performances et des coûts, assistance technique aux équipes. Exigences transverses • Respect du référentiel technique et méthodologique de l’Entreprise, des procédures en vigueur (tests/validation), des contraintes & délais du présent document et du cadre contractuel associé. • Respect des exigences sécurité & conformité (IAM, Vault/KMS, réseau privé, DPIA, RGPD/AI Act, journalisation/audit, résidence des données). PERIMETRE/COMPETENCES : • Jenkins (périmètre à harmoniser) Stack d'observabilité et d'évaluation LLM : • Prometheus, Grafana, Loki, OpenTelemetry… • LangSmith, Langfuse Environnements d'hébergement : • Google Cloud Platform (Landing Zone, Vertex AI, GKE) • Infrastructures On-Premise
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
19 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois