L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 26 résultats.
Offre premium
Offre d'emploi
PO DATA (FH)
ASTRELYA
Publiée le
Data governance
3 ans
55k-70k €
400-550 €
Paris, France
Votre Mission : En tant que PO Data, vous piloterez des projets de transformation sur des produits Data et IA dans des contextes Marketing, CRM, KYC. Vous jouerez un rôle clé dans le cadrage, la structuration et le pilotage de travaux stratégiques, en coordination avec de multiples acteurs internes et externes. Concrètement vous allez : Intégrer un dispositif existant et piloter les nouveaux projets DATA/IA sur l’ensemble des phases : cadrage, Expression des Objectifs, MVP et démarrage des développements. Recueillir, challenger, analyser et prioriser les besoins data des métiers Concevoir les expressions de besoins afférentes Définir la vision data de son périmètre et en construire la roadmap Prioriser les évolutions data en fonction de la valeur pour les métiers et/ou les clients Collaborer avec l’équipe de PO data de tous les périmètres des paiements pour s’assurer de la cohérence de la démarche mise en place Participer aux rituels agiles Garantir la cohérence des données entre les différents métiers, et plus globalement la qualité et la pertinence des livrables data mis à disposition des métiers et/ou des clients Suivre les indicateurs de performance sur son périmètre et mesurer la valeur des solutions mises à disposition Accompagner les utilisateurs dans l’appropriation et l’utilisation des solutions mises à disposition Accompagner les utilisateurs dans l’interprétation et la valorisation des données mises à disposition Garantir la cohérence des jalons et la tenue des échéances de la feuille de route Data et IA. Assurer un rôle de référent(e) sur les bonnes pratiques Data/IA : modèles IA, entraînement et FinOps. Votre futur environnement technique & fonctionnel : · IA / Data : Data engineering, IA Générative, Machine Learning,
Offre d'emploi
Product Owner Data
SMARTPOINT
Publiée le
Agile Scrum
6 mois
50k-55k €
400-450 €
Île-de-France, France
En tant que Product Owner Data, vous serez responsable de : Recueillir et analyser les besoins métiers en lien avec les équipes métiers et techniques Définir et prioriser le backlog produit en fonction de la valeur business Rédiger les user stories et spécifications fonctionnelles Piloter les développements en collaboration avec les équipes Data (Data Engineers, Data Analysts, Data Scientists) Garantir la qualité des livrables et leur adéquation avec les besoins utilisateurs Suivre les indicateurs de performance et proposer des axes d’amélioration Animer les rituels Agile (daily, sprint planning, review, rétrospective)
Mission freelance
Proxy Product Owner – Data Platform Snowflake - Full remote
Net technologie
Publiée le
Agile Scrum
Data Product Management
Data quality
3 mois
450-500 €
France
Dans le cadre d’un programme data, nous recherchons un(e) Proxy Product Owner pour accompagner la livraison de produits data sur une plateforme Snowflake en contexte Agile. 🎯 Objectif : faire le lien entre les équipes métiers et techniques afin de garantir des solutions data fiables, alignées avec les besoins business. 🚀 Missions Support du Product Owner sur la gestion et priorisation du backlog Traduction des besoins métiers en user stories & critères d’acceptation Coordination avec les équipes Data Engineering & Analytics Suivi des exigences autour des modèles de données, transformations & reporting Participation aux rituels Agile et suivi des sprints Suivi des livraisons et gestion des blocages fonctionnels Point de contact entre les stakeholders et les équipes techniques
Mission freelance
Product Owner Data/BI (Lille)
SQLI
Publiée le
CoreData
6 mois
400-600 €
Lille, Hauts-de-France
Bonjour, Pour le compte de l'un de mes clients Lillois, je suis à la recherche d'un Product Owner Data orienté BI. Mandatory : Une expérience de projets Power BI, afin de piloter la transformation des outils de reporting. Ses responsabilités : • Cadrer et formaliser les besoins métiers, organiser les demandes et la solution BI. • Collaborer avec les sponsors internes de la transformation pour favoriser l’engagement autour du projet. • Animer des ateliers de Product Discovery pour comprendre les usages, les irritants, les objectifs et les indicateurs clés. • Construire et maintenir le backlog BI, prioriser les sujets et arbitrer les évolutions en lien avec les entités métiers. • Collaborer étroitement avec le Tech Lead, les développeurs BI et les équipes Data pour garantir la cohérence et la qualité des livrables. • Valider les maquettes, prototypes (Figma) et rapports développés, en assurant leur pertinence métier, leur lisibilité UX et leur conformité aux standards. • Contribuer à la mise en œuvre d’un Design System dataviz, assurant cohérence et appropriation des tableaux de bord. • Favoriser la montée en compétence des équipes métiers sur la lecture, l’usage et l’évolution des rapports. • Garantir une documentation fonctionnelle claire et à jour pour faciliter la maintenance et la réversibilité. • Suivre les indicateurs de Delivery du projet à présenter lors des instances de pilotage.
Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419
ISUPPLIER
Publiée le
9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
Mission freelance
246239/100961/Product Owner DATA/IA Nantes
WorldWide People
Publiée le
Pilotage
6 mois
350-400 €
Nantes, Pays de la Loire
Product Owner Nous recherchons un profil Product Owner expérimenté. Product Owner en binôme/complémentarité avec un PO déjà en place sur la brique IA Gen (SG1) Activités principales attendues : Onboarding & adoption SG1, suivi satisfaction et améliorations orientées DX Cadrage & priorisation : formalisation des besoins, roadmap, arbitrages Quotas & gouvernance d’usage Déploiement/communication produit : guides, catalogue, notes de version, animation de la communauté Collaboration étroite avec le PO SG1 et les parties prenantes techniques/utilisateurs Objectifs et livrables Objectifs & enjeux de la mission : Product Owner en binôme/complémentarité avec un PO déjà en place sur la brique IA Gen (SG1) afin : Accroître la capacité de pilotage produit et accélérer l’adoption des services IA partagés au sein de la Plateforme DATA/IA Accompagner les équipes utilisatrices (prise en main, clarification des parcours d’usage, bonnes pratiques, support API) Définir/ajuster une gouvernance d’usage pragmatique, notamment les quotas par cas d’usage (volumétrie, criticité, performance) pour sécuriser la QoS et optimiser la consommation Préparer l’extension progressive de l’offre avec l’arrivée de nouveaux services partagés (OCR, Embedder, Speech2Text) : parcours, documentation, conditions d’accès, support, KPIs d’adoption. Compétences demandéesCompétences Niveau de compétence Pilotage Confirmé
Mission freelance
249593/Product Owner DATA SUR DES DONNEES RH - Expertise dans la création de Datalake RH
WorldWide People
Publiée le
Data Lake
9 mois
Saint-Denis, Île-de-France
PO DATA SUR DES DONNEES RH - Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Sénior PRO_OWN-3 Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Compétences demandées Compétences Niveau de compétence donnée rh : GA / PAIE / GT / FORMATION Confirmé standard adp Confirmé Power BI Confirmé datalake rh Confirmé
Offre d'emploi
Chef de Programme Data & IA – Product Owner Socle Data & IA
VISIAN
Publiée le
Azure
Azure Data Factory
Data quality
1 an
40k-45k €
400-610 €
Île-de-France, France
Contexte de la mission Dans le cadre de la modernisation d’un socle Data & IA et de la mise en place d’un modèle de décentralisation gouvernée, le Chef de Programme Data & IA intervient en tant que référent transverse sur la plateforme Data & IA. Il est garant de la cohérence entre les enjeux de modernisation technique, d’adoption métier et de gouvernance de la donnée, dans un environnement Data Platform à forte ambition IA. Missions principales 1. Pilotage du programme Data & IA Définir et piloter la roadmap du socle Data & IA Prioriser les initiatives métiers et techniques Participer aux arbitrages d’investissements et au séquencement des chantiers Assurer la cohérence avec le modèle de décentralisation et la stratégie IA 2. Rôle de Product Owner plateforme Recueillir et prioriser les besoins des utilisateurs (métiers, équipes Data & IA, etc.) Piloter le backlog de la plateforme Structurer les releases et le capacity planning Suivre les KPIs de performance (qualité, adoption, stabilité, time-to-market) 3. Chantiers structurants Migration vers une architecture Data Lakehouse (type Databricks / Unity Catalog) Mise en place de la Data Quality industrialisée Déploiement de la Data Observability end-to-end Modernisation de l’offre de service de la plateforme Data 4. Coordination Data & IA Assurer l’interopérabilité entre Data, ML et IA générative Structurer la collaboration entre équipes DataOps et MLOps Préparer la plateforme aux usages IA avancés (exposition Data Products, APIs, etc.) 5. Animation et structuration Clarifier les rôles et responsabilités (RACI) Améliorer les pratiques agiles et les rituels de pilotage Accompagner la montée en maturité des équipes
Mission freelance
Mission Finance Reporting Owner / Product Owner / Workday Reporting
KUBE Partners S.L. / Pixie Services
Publiée le
Reporting
Workday
3 ans
France
Contexte de la mission Dans le cadre d’un programme de transformation Finance, plusieurs outils sont remplacés par une solution SaaS unique : Workday. Le projet est déployé dans plus de 60 pays sur 4 ans. Missions Analyser les reportings existants (Qlik / Tableau) Identifier les rapports standards et les besoins spécifiques Participer aux ateliers de design avec les équipes métier et l’intégrateur Tester et valider les reportings Workday Définir la gouvernance et le support du reporting Prioriser les besoins business et utilisateurs Rédiger les user stories et les spécifications fonctionnelles Gérer et prioriser le backlog Construire la roadmap produit reporting Animer la gouvernance reporting Workday Assurer le support, la sécurité et le training Profil recherché Forte expertise Workday Reporting Expérience en gestion de projet Data Bonne maîtrise de la priorisation, backlog et roadmap Anglais confirmé Bonne communication avec les équipes métier et techniques Profil Finance Reporting Owner / Product Owner Data capable de piloter des sujets data finance dans un contexte international Informations complémentaires Mission dans un environnement international Collaboration avec des équipes métier et techniques Contexte Build et Run autour de Workday Reporting
Mission freelance
Data Ingénieur Senior
Hexagone Digitale
Publiée le
Agile Scrum
Apache Airflow
Apache Spark
3 mois
400-600 €
Paris, France
Contexte de la mission La Direction du Numérique dispose d'une Direction Data dont l'objectif est de faire de la donnée un levier de croissance des offres numériques. Ses activités couvrent la maximisation de la collecte de données dans le respect des réglementations en vigueur, le développement de la connaissance et de l'expérience utilisateur, ainsi que la mise à disposition d'outils de pilotage et d'aide à la décision. La prestation s'inscrit au sein de l'équipe Bronze, composée d'un Product Owner, d'un Data Steward et de deux Data Ingénieurs. La stack technique repose sur Python, Spark, SQL, Airflow, Delta Lake, Cloud Storage, et les services GCP (BigQuery, Dataproc, PubSub). L'infrastructure est gérée via Terraform et Terragrunt. Rôle et responsabilités principales Construire et maintenir des pipelines data robustes et scalables Participer aux phases de conception, planification et réalisation des tâches en équipe Organiser et structurer le stockage des données Mettre en place et maintenir les infrastructures scalables adaptées à la croissance des volumes Construire et maintenir les workflows CI/CD (GitLab CI/CD) Assurer la conformité, la sécurité et la stabilité des environnements Partager les bonnes pratiques au sein de l'équipe et participer aux instances des Data Ingénieurs Contribuer à la mise à jour de la documentation et assurer une veille technologique active Livrables attendus Pipelines data opérationnels et maintenus Infrastructure scalable mise en place et documentée Workflows CI/CD fonctionnels Documentation technique à jour Collecte et centralisation des sources de données non homogènes Contribution aux initiatives de gouvernance des données
Mission freelance
Data Analyst – Snowflake / AI - Full remote
Net technologie
Publiée le
Agent IA
Data analysis
Data modelling
6 mois
France
Nous recherchons un Data Analyst pour accompagner un projet stratégique de transformation digitale autour d’une plateforme basée sur un agent IA (LLM). 🎯 Objectif : permettre aux métiers d’interroger les données en langage naturel via des requêtes SQL automatisées. 🚀 Missions Alignement entre besoins métiers & solution data Contribution aux user stories & backlog (Agile) Modélisation et validation des données & couche sémantique Participation aux tests, QA & data quality Coordination avec PO, équipes data et fournisseurs de données
Mission freelance
Expert Collibra technico-fonctionnel
Inventiv IT
Publiée le
Agile Scrum
AWS Cloud
Collibra
5 mois
660-720 €
Paris, France
Nous recherchons un expert Collibra technico-fonctionnel avec plus de 15 ans d'expérience dans le cadre d'une mission au forfait avec engagement de résultat sur une période de 5 mois. Dans un contexte groupe avec un socle Data existant, une dizaine de direction métiers et un outil Collibra mise en place. Certifications requises Certification Collibra Certification Agile / Scrum Certification RGPD / CNIL Profil recherché Expérience (15 ans d'expériences minimum) Minimum 10 ans d’expérience data Minimum 4 ans en Data Governance Expérience significative sur Collibra (implémentation et exploitation) Mise en place de workflows automatisés (au moins 2) Expérience d’intégration avec des SI (connecteurs, APIs…) Compétences techniques Collibra (configuration, workflows, administration) Data Governance & Data Catalog Data Engineering / BI / Data Management Environnements : Databricks, AWS, outils de metadata (Collate…) Méthodologies Agile (Scrum) Certifications requises Certification Collibra Certification Agile / Scrum Certification RGPD / CNIL Soft skills Autonomie et rigueur Capacité d’analyse et de proposition Excellentes compétences en communication Capacité à interagir avec des profils techniques et métiers Organisation & environnement Encadrement : Product Owner Data Catalog Interaction avec équipes Data (DSI, Data Factory) Mode de travail hybride : Non négociable 3 jours/semaine sur site (Paris) 2 jours/semaine en télétravail Entretien technique en présentiel à Paris Modalités Mission au forfait avec engagement de résultat Suivi mensuel via livrables et compte-rendu d’activité Validation régulière en COPIL
Offre d'emploi
Data Engineer GCP Python, Spark, SQL Senior
KEONI CONSULTING
Publiée le
Agile Scrum
Data Engineering
Python
18 mois
20k-40k €
110-550 €
Paris, France
Contexte : La mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Profil & Expertises demandées : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques Niveau d’expertise attendu : Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé dans le type d’expertise demandé
Mission freelance
Business Analyst Data – AI / Snowflake - Full remote
Net technologie
Publiée le
Agent IA
AI
Data modelling
3 mois
400-420 €
France
Dans le cadre d’un projet innovant de transformation data, nous recherchons un(e) Business Analyst pour accompagner le déploiement d’une solution basée sur un agent IA (LLM). 🎯 Objectif : permettre aux utilisateurs d’interroger les données en langage naturel via des requêtes SQL générées automatiquement. 🚀 Missions Alignement entre besoins métiers & data product Gestion des requirements & user stories (Agile Scrum) Contribution au backlog et aux releases Validation des modèles de données & qualité des données Participation aux tests fonctionnels & QA Coordination avec PO, équipes data & métiers 👉 Mission au cœur des enjeux Data & IA Générative appliquée au business .
Offre d'emploi
Data Engineer Databricks
ASTRELYA
Publiée le
Amazon S3
Ansible
Apache Spark
Noisy-le-Grand, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Data Engineer Databricks vous participez à la définition de l’architecture de la data platform et du Datawarehouse/Data Lake. Concevoir et développer des nouvelles fonctionnalités sur des applications hébergées par les plateformes Data. Développer et maintenir des pipelines de données performants (batch & streaming) et participer à toutes les étapes de traitement des données du niveau bronze au niveau gold. Garantir la sécurité, la robustesse et la fiabilité des pipeline de données en veillant aux enjeux de performance, d’accessibilité et d’intégrité des données. Contribuer à l’implémentation d’un Data Lab pour accélérer les usages Data & IA. Mettre en place et industrialiser des chaines CI/CD. Participer aux mises en production et au support en cas d’incident majeur. Travailler aux côtés de Data Product Owner, Data Architect et de BI & Analytics Engineer. Participer aux cérémonies agiles organisées par la squad : daily, sprint planning, sprint review, sprint rétrospective Effectuer une veille technologique continue sur de nouvelles solutions et tendances Data.
Offre d'emploi
ML Ingénieur - Google Cloud
VISIAN
Publiée le
CI/CD
MLOps
Île-de-France, France
Contexte Afin d’améliorer la personnalisation de l’expérience utilisateurs, une équipe dédiée est créée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. La stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capables de répondre aux besoins et au volume de données
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
26 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois