Trouvez votre prochaine offre d’emploi ou de mission freelance Vertex AI
Votre recherche renvoie 17 résultats.
Offre d'emploi
Data Scientist Computer Vision sur Alsace
EterniTech
Publiée le
Computer vision
Data science
Vertex AI
3 mois
Grand Est, France
Je recherche pour un de mes clients un Data Scientist Computer Vision sur Alsace Vos missions Développer des modèles de Computer Vision pour identifier les fonctions et contenus des objets dans des images Accompagner les équipes commerciales dans l’exploitation des outils de classification et d’analyse visuelle Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes permettant la visualisation en temps réel de scènes d’ameublement Collaborer avec les équipes métier pour traduire les enjeux business en solutions techniques et aider au déploiement en production. Assurer une veille technologique pour intégrer les dernières avancées en vision par ordinateur Profil recherché Compétences techniques : Maîtrise des technologies Computer Vision (détection, segmentation, classification d’images) Expérience avec Vertex AI et déploiement sur GCP Solides connaissances en machine learning et deep learning Maîtrise de Python et frameworks associés (TensorFlow, PyTorch…) Connaissance des pipelines de production et des bonnes pratiques MLOps Profil : Diplôme Bac+5 (Data Science, IA, Informatique ou équivalent) Expérience significative en Computer Vision de 2 ans minimum dans des contextes similaires Capacité à comprendre les enjeux business et à collaborer avec les équipes commerciales Autonomie, rigueur et curiosité technologique Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et dynamique Télétravail flexible et équipe collaborative
Offre d'emploi
Data Scientist MLOps (H/F)
STORM GROUP
Publiée le
Apache Airflow
BigQuery
MLOps
3 ans
45k-55k €
400-500 €
Île-de-France, France
Missions : • contribution aux projets décisionnels - Big data • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs
Offre d'emploi
Data engineer
SKYLLIT
Publiée le
Docker
Github
Google Cloud Platform (GCP)
1 an
Île-de-France, France
Profil Data Engineer/Data Analyst Senior pour gérer des applications liées au métier de la CDMO (Chief Digital & Marketing Office), dans une équipe dynamique aux profils variés (Tech Lead, Dev Full Stack, Data Scientist, Product Owner, QA...) Une des applications One Creative consiste à offrir une vision complète de la performance & l'optimisation de chaque asset media, de la stratégie globale à l'activation locale. o Développer et maintenir les data pipelines de : · Sourcing des données (Datalake BigQuery) · Téléchargement d'assets vidéo via API social media platforms · Analyse créative (application interne Augmented DAM) · Automatisation des processus IA (embedding, clustering) o Transformer la donnée brute du Datalake en tables optimisées pour l'application One Creative (fusion KPIs de performance, métadonnées, données créatives...) o Optimiser le déploiement du backend sur GCP o Améliorer la code base en ajoutant des tests unitaires et d'intégration sur le code Python o Développer une première brique de monitoring des données récupérées (assets, KPIs) o Moderniser les briques techniques (thumbnail, product-detection, encoder) avec des approches plus modernes et optimisées o Optimiser la chaîne CI/CD o Travailler sur la migration du backend Augmented DAM (autre application interne utilisée en tant que service de One Creative) o Développer les requêtes SQL pour sourcer les données dans les tables du Datalake, sur la base des inputs du Data Business Owner o Documenter les données récupérées depuis le Datalake avec des documents et des schémas des données o S'assurer de la qualité des données consolidées dans l'application par rapport aux données sources o Aider sur le développement des métriques de monitoring des KPIs de l'application o Analyser et croiser les données pour générer de nouveaux insights (creative data qui génèrent le plus de performance...) et benchmarks
Mission freelance
Ingénieur IA – Google Cloud (GenAI / LLM)
COEXYA
Publiée le
Agent IA
Google Cloud Platform (GCP)
Large Language Model (LLM)
6 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Agent Engineer spécialisé sur l’écosystème Google Cloud afin de contribuer au développement d’agents conversationnels basés sur l’intelligence artificielle générative. La mission s’inscrit dans un programme stratégique visant à enrichir l’expérience client grâce aux LLM et à automatiser certaines interactions du centre de relation client. Le consultant interviendra sur des cas d’usage concrets mêlant voicebot intelligent et agents conversationnels d’auto-diagnostic , avec un objectif clair : améliorer la compréhension des demandes clients et augmenter le taux de résolution au premier contact. Le rôle implique à la fois des compétences d’ingénierie IA, d’architecture technique et d’industrialisation des modèles . Rôle attendu Concevoir et développer des agents conversationnels basés sur des LLM au sein de l’écosystème Google Cloud Participer à l’évolution d’un voicebot existant en intégrant des capacités d’IA générative Concevoir un agent d’auto-diagnostic conversationnel permettant aux utilisateurs de diagnostiquer certaines pannes de manière autonome Mettre en place des architectures RAG (Retrieval-Augmented Generation) afin d’enrichir les réponses des agents Implémenter et optimiser les solutions sur Vertex AI et Dialogflow CX Contribuer à l’industrialisation des modèles : évaluation des LLM, tests de robustesse, métriques de performance et bonnes pratiques AIOps
Mission freelance
DATA SCIENTIST
Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Mission freelance
Consultant(e) / Ingénieur(e) Plateforme IA Agentique (GenAI)
Montreal Associates
Publiée le
Agent IA
GenAI
Google Cloud Platform (GCP)
1 an
75018, Paris, Île-de-France
Au sein de la direction Data & IA d’un grand groupe international, vous interviendrez sur la conception, le déploiement et l’adoption d’une plateforme d’IA agentique basée sur les technologies de GenAI . L’organisation a déjà industrialisé plusieurs solutions GenAI largement utilisées en interne et entre dans une nouvelle phase stratégique visant à généraliser des agents IA à l’échelle du groupe. Vous jouerez un rôle central entre les équipes métiers, IT et Data & IA afin d’accélérer l’industrialisation des cas d’usage GenAI et la montée en maturité de la plateforme. Vos responsabilités incluent notamment : Accompagnement des équipes projets sur l’ensemble du cycle de vie des cas d’usage GenAI (idéation, cadrage, conception, mise en production, support). Contribution à la définition de l’architecture cible de la plateforme IA agentique. Participation à la mise en place des bonnes pratiques de sécurité, de conformité et de gouvernance autour de la GenAI. Contribution à la diffusion de la culture IA au sein de l’organisation.
Mission freelance
Ingénieur·e Backend GenAI / IA Générative
Montreal Associates
Publiée le
API REST
CI/CD
Docker
1 an
75000, Paris, Île-de-France
Pour le compte d’un grand groupe international (client masqué) , nous recherchons un·e Ingénieur·e Backend pour intervenir sur une plateforme d’ IA générative déployée à grande échelle en interne. Tu rejoindras une équipe technique travaillant sur une solution stratégique qui vise à améliorer la productivité des collaborateurs grâce à l’intégration de modèles de langage (LLM). Ton rôle consistera à concevoir, développer et maintenir des services backend performants, robustes et scalables , capables de gérer un volume élevé d’interactions IA, d’orchestrer différents fournisseurs de LLM et d’assurer l’intégration fluide avec le SI existant. Missions principales : Conception et développement de microservices backend Développement et optimisation d’ API REST à forte volumétrie Orchestration et intégration de LLM (plusieurs providers) Contribution à la scalabilité, performance et fiabilité de la plateforme Participation à l’architecture backend et aux choix techniques Collaboration en environnement Agile avec équipes produit, IA et DevOps
Offre d'emploi
Ingénieur IA Générative H/F
OBJECTWARE
Publiée le
CI/CD
Cloud
Google Cloud Platform (GCP)
40k-65k €
Bordeaux, Nouvelle-Aquitaine
Objectifs de la mission Concevoir, développer et industrialiser des cas d’usage d’IA générative dans un environnement cloud computing Mettre en place et maintenir des pipelines CI/CD pour le déploiement des modèles IA Participer à la structuration de la chaîne MLOps (du POC à la mise en production) Travailler sur l’outillage IA autour de Vertex AI Responsabilités principales Développement et intégration de solutions d’ IA générative (LLM, agents, workflows) Utilisation et orchestration de Vertex AI (training, déploiement, endpoints) Conception et amélioration de pipelines CI/CD pour projets IA Déploiement et exploitation de solutions IA dans des environnements cloud Collaboration avec les équipes Cloud, Data et DevOps Contribution aux bonnes pratiques de sécurité, performance et scalabilité nvironnements Cloud & IA : Google Cloud Platform (GCP) Vertex AI IA générative / LLM CI/CD & DevOps : Pipelines CI/CD Infrastructure cloud Automatisation des déploiements Développement : Python (prioritaire IA) APIs / services cloud
Mission freelance
INGENIEUR MLOps
HAYS France
Publiée le
Ansible
Apache Airflow
Cloud
3 ans
Lille, Hauts-de-France
Objectif de la mission Mettre en place et maintenir une chaîne d’intégration et de déploiement des modèles de Machine Learning en production, garantissant robustesse, scalabilité et monitoring. Contexte Vous interviendrez au sein d’une équipe Data & IA pour industrialiser des modèles ML liés à la qualité, la classification et l’enrichissement des données produits. Collaboration étroite avec Data Scientists et Data Engineers pour transformer des prototypes en solutions fiables. Responsabilités Conception & Déploiement Développer et maintenir des pipelines MLOps automatisés (CI/CD). Mettre en place l’infrastructure cloud via IaC. Assurer le versioning des modèles, données et pipelines (ZenML, MLflow). Monitoring & Maintenance Implémenter l’observabilité (drift, latence, qualité prédictions). Configurer alertes pour anomalies et dégradations. Optimiser les ressources de calcul. Collaboration & Qualité Accompagner les Data Scientists sur les bonnes pratiques MLOps. Intégrer des Data Quality Gates dans les pipelines. Contribuer à l’architecture Data Mesh (modèles = Data Products).
Offre d'emploi
Data Scientist Computer Vision
Craftman data
Publiée le
Data science
Deep Learning
Google Cloud Platform (GCP)
3 mois
Grand Est, France
Dans le cadre de notre croissance, nous renforçons notre équipe data et recherchons un(e) Data Scientist spécialisé(e) en Computer Vision pour concevoir des solutions IA à fort impact business dans l’univers de l’ aménagement intérieur . Notre ambition : exploiter la donnée et l’IA pour aider les équipes commerciales à identifier les besoins clients et à configurer des scènes d’ameublement en temps réel , directement à partir d’images. 🎯 Vos missions Développer des modèles de Computer Vision (détection, segmentation, classification d’images) Transformer des images en insights actionnables pour les équipes commerciales Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes de visualisation temps réel de scènes d’ameublement Collaborer étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques Participer au déploiement en production et aux bonnes pratiques MLOps Assurer une veille technologique continue en vision par ordinateur 🧠 Profil recherché Bac+5 en Data Science, IA, Informatique ou équivalent Minimum 2 ans d’expérience en Computer Vision dans des contextes similaires Solide maîtrise du Machine Learning / Deep Learning Très bonne maîtrise de Python et des frameworks TensorFlow / PyTorch Expérience du déploiement de modèles sur GCP / Vertex AI Connaissance des pipelines de production et des pratiques MLOps Capacité à comprendre les enjeux business et à travailler avec des équipes commerciales Autonomie, rigueur et curiosité technologique ✨ Pourquoi nous rejoindre ? Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et stimulant Télétravail flexible et équipe collaborative
Offre d'emploi
Data Engineer GCP (H/F)
CELAD
Publiée le
42k-48k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Mission freelance
Data Engineer GCP (H/F)
CELAD
Publiée le
1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Offre d'emploi
AMOA - Offre produit DSI épargne H/F
VIVERIS
Publiée le
40k-50k €
France
Contexte de la mission : Viveris vous propose un poste d'Assistant à Maitrise d'ouvrage (AMOA) au sein de la DSI Épargne de notre client. La valeur ajoutée recherchée pour ce poste repose sur une solide expertise métier en matière d'offre produit et de réglementation épargne (par exemple : loi de finances, DDA, loi Industrie Verte). Vous aurez ainsi la responsabilité d'apporter un accompagnement fort et structurant côté métier. Vous interviendrez sur un centre d'expertise dont la mission est l'animation et la gestion des backlogs. À ce titre, vous devrez notamment veiller à la cohérence et à la pertinence des engagements pris dans le cadre des différents chantiers. Vous intégrerez la ligne « Offre DSI », composée d'experts métiers (AMOA), et serez rattaché à un Product Manager (PM), en charge de la répartition des sujets et des priorités au sein de l'équipe. Responsabilités : - Animer des ateliers avec les équipes métier ; - Recueillir, analyser et formaliser les besoins tout en apportant un accompagnement structurant aux équipes métier ; - Rédiger les expressions de besoins / cahiers des charges ; - Challenger et prioriser les demandes et les tickets ; - Traduire le besoin métier en exigences fonctionnelles compréhensibles par l'IT.
Mission freelance
POT8952 - Un Data Scientist Sénior sur Massy
Almatek
Publiée le
SQL
6 mois
100-390 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients,Un Data Scientist Sénior sur Massy. DESCRIPTION DE LA MISSION. Au sein du pôle Data Science Customer, vous rejoignez une feature team dédiée à l'un des piliers stratégiques de l’entreprise :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de millions de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. - En intervenant à toutes les étapes des projets, vous pourrez : - Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). - Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. - Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. -Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). -Expertise Elasticsearch : Optimiser les configurations, les analyseurs et les requêtes complexes pour garantir des performances temps réel à grande échelle. -Mentorat : Guider et élever le niveau technique des data scientists juniors sur les thématiques de NLP et de Search.? Compétences techniques clés : - Moteurs de recherche : Maîtrise avancée d'Elasticsearch, incluant le tuning de pertinence et la gestion des index. - Recherche Vectorielle : Expérience concrète dans l'utilisation de bases de données vectorielles et de modèles d'embedding. - Reranking : Solide expérience dans la conception de modèles de reranking (XGBoost/LightGBM pour le LTR, ou approches Deep Learning). - Stack Data : Maîtrise de Python, SQL et de l'écosystème GCP (BigQuery, Vertex AI). - Les petits plus - Expérience sur des problématiques de Personalized Search (intégration des signaux utilisateurs temps réel). - Contributions à des projets Open Source dans le domaine du Search ou du NLP. - Connaissance des problématiques de recherche multilingue ou de traitement des synonymes par IA. - Notre environnement technique - Python, SQL, Terraform, Docker, Gitlab, Jenkins, GCP (Cloud Composer / Airflow, Cloudrun, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage) Votre séniorité vous permet de naviguer entre la rigueur scientifique et les impératifs business du e-commerce. Vous savez vulgariser des concepts de "Neural Search" auprès d'interlocuteurs non-techniques tout en garantissant une qualité de code (Clean Code, CI/CD) irréprochable.
Offre d'emploi
Data Scientist Computer Vision
Codezys
Publiée le
Computer vision
Deep Learning
Machine Learning
12 mois
Grand Est, France
Objet : Appel d'offres pour un(e) Data Scientist spécialisé(e) en Computer Vision - Alsace Notre entreprise, leader dans l'accompagnement à l'aménagement intérieur, souhaite renforcer ses capacités en intégrant des solutions basées sur l'intelligence artificielle et la vision par ordinateur. Afin de soutenir notre croissance, nous lançons un appel d'offres pour le recrutement d’un(e) Data Scientist spécialisé(e) en Computer Vision, ayant une expérience minimale de 2 ans. Contexte de la mission : Nous exploitons la donnée et les technologies d’intelligence artificielle pour révolutionner la manière dont nos équipes commerciales identifient les besoins clients, ainsi que la représentation et la configuration en temps réel de scènes d’ameublement. La personne recrutée jouera un rôle clé dans le développement et la déploiement de modèles de vision par ordinateur destinés à analyser des images et en extraire des insights opérationnels pertinents. Localisation : Alsace Vos missions principales : Développement de modèles de Computer Vision : Concevoir et entraîner des modèles capables d’identifier les objets, leurs fonctions et contenus à partir d’images. Support aux équipes commerciales : Accompagner les équipes dans l’exploitation des outils d’analyse visuelle, y compris la classification et l’interprétation des images. Déploiement et maintenance : Implémenter et assurer la maintenance des solutions de traitement d’images en production, en utilisant notamment Google Cloud Platform (GCP) et Vertex AI. Conception de pipelines : Développer des pipelines et des algorithmes permettant la visualisation en temps réel des scènes d’ameublement, facilitant ainsi la prise de décisions commerciales. Collaboration métier : Travailler étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques concrètes, assurer leur déploiement efficace et leur adoption opérationnelle. Veille technologique : Maintenir une expertise à jour en matière de vision par ordinateur afin d’intégrer les dernières innovations dans nos solutions.
Offre d'emploi
Machine Learning Engineer - MLOps
Okara
Publiée le
Docker
MLOps
6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
17 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois