Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Développeur BI Senior (MSBI/GCP)
Contexte: Nous recherchons un Data Analyst / Développeur BI Senior afin de renforcer l’équipe existante. Le profil attendu doit avoir une expertise confirmée dans les environnements GCP et Power BI Online, avec une forte capacité à produire des développements BI robustes, scalables et maintenables. Missions principales: - Réaliser les reportings et tableaux de bord. - Assurer la maîtrise et la modélisation des données. - Concevoir, développer et maintenir des solutions BI performantes, optimisées et réutilisables. - Réaliser des tests fonctionnels et des recettes métiers. - Garantir l’application des bonnes pratiques de développement BI. - Produire la documentation technico-fonctionnelle en fin de sprint. - Conseiller et accompagner les équipes métiers (devoir de conseil). - Collaborer étroitement avec le Product Owner et l’équipe de développement. - Concevoir des maquettes en lien avec le Product Owner. - Participer à l’assistance utilisateurs (formation, transmission de connaissances, support niveau 3). - Débloquer et accompagner les autres développeurs si nécessaire. Environnement technique & compétences attendues Environnement GCP (Google Cloud Platform) : - BigQuery - PySpark - Dataflow - Airflow / DAG - Cloud Storage - Administration de plateforme (IAM, gestion des droits, monitoring, etc.) BI & Data Visualisation : - Power BI Desktop & Online - Modélisation BI - DevOps / CI/CD - Bonnes pratiques BI (scalabilité, performance, maintenabilité). Profil recherché Expérience : minimum 7 ans dans le développement BI et l’exploitation de données. Compétences techniques : maîtrise confirmée de GCP et Power BI Online, avec une bonne pratique des outils de traitement et d’orchestration des données (BigQuery, PySpark, Airflow, Dataflow).

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)
Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.
Mission freelance
Data Engineer senior/ Python/ Talend / Looker/ GCP - Domaine Retail (H/F)
Nous recherchons pour le compte de notre client dans le retail, un data Engineer senior. En tant que Data Engineer, vous aurez la charge de concevoir, développer et d’optimiser des solutions Data adaptées aux besoins de nos différents métiers. Votre expertise avancée sur les différents services GCP, combinée à une solide maîtrise de SQL et python, sera essentielle pour concevoir des solutions performantes et alignées avec les besoins métiers. Vous serez un acteur clé de l'équipe technique de la Data Factory pour garantir la fiabilité et la performance des systèmes de traitement de données. Missions principales : • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe
Offre d'emploi
Data Scientist F/H
Genious Systèmes recherche pour son client un(e) Data Scientist F/H Dans le cadre d’un renfort d’équipe avec des compétences de Data Scientist, il participera aux bons usages techniques et fonctionnels des données au sein d’une direction métier. Accompagner les utilisateurs lors de la mise en place de Data Prep, d’analyse de données, de KPIs, de dashboards... Accompagner techniquement et former d’autres Data Scientists ainsi que des Data Analysts, Valider la mise en place des bonnes pratiques. Assurer le suivi des performances et participera aux phases d’optimisation. Participation à l’homogénéisation et l’industrialisation des phases de Data Prep. Maîtrise Python Spark sur un environnement Cloud ainsi que le dashboarding et la Data Viz (Looker, Kibana, Grafana). L’environnement technique sera principalement constitué de : Databricks Looker Prometheus Tempo Grafana Elastic Kibana
Mission freelance
Business Analyst Data Senior (Asset Management / Cloud Azure)
Vous rejoignez une équipe de 10 personnes pour accompagner la transformation Data de l'entreprise. Votre rôle : Définir le modèle cible de données , conciliant les besoins métiers et les standards de la nouvelle plateforme. Préserver la cohérence avec le modèle historique tout en intégrant les apports du modèle de l'éditeur. Proposer des solutions équilibrées entre contraintes court terme (intégration, délais, coûts) et enjeux long terme (évolutivité, maintenance, cohérence). Travailler en méthodologie Agile , en lien étroit avec les développeurs, analystes et autres équipes projet.

Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Offre d'emploi
Testeur Data confirmé
Bonjour, Nous recherchons pour notre client basé en région parisienne un Testeur Data confirmé (4 à 10 ans d’expérience). Objectif global Testeur confirmé avec compétences Data Analyste Les livrables sont Construction du référentiel de tests Détection et remontées des défauts Élaboration PV de recette Compétences techniques SQL - Confirmé - Impératif Azure event hub - Confirmé - Important Postman - Confirmé – Important Description détaillée Au sein de la Direction Digital et Data, vous intégrerez le département Data Lab en charge des projets BI et Data pour notre client. En tant que QA Data, vous ferez partie du pôle Qualité Data sera d'assurer la préparation, l'exécution et le suivi de la recette technico fonctionnelle tout en contribuant à l'amélioration de la qualité de données. Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les anomalies avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Une expérience/compétence dans le retail et dans le domaine de la Data serait un plus. Vous serez amené à tester : - collecte et ingestion des données - vérifications de la conformité et cohérence des données dans les différentes zones (brute/raffinée/capitalisation/Factorisation) - vérifications des règles de gestion des zones capitalisation et factorisation - Vérification de la restitution des données dans les reportings De formation supérieure en informatique, vous avez une expérience minimum de 3/4 ans sur un rôle de QA orienté Data ou BI. Un profil technico fonctionnel est demandé pour traiter les sujets d'ingestion des données, les tests d'API via Postman, les tests d'intégration 2 à 2 et les tests de bout en bout. Nous cherchons des personnes autonomes, rigoureuses, force de proposition et reconnues pour leurs qualités organisationnelles. Une bonne communication, un sens du contact et coopération en équipe est indispensable SYNTHESE DES TESTS Réalise un bilan des tests effectués Données complémentaires Date de démarrage 01/10/2025 Lieu de réalisation Châtillon Déplacement à prévoir non Le projet nécessite des astreintes non Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?

Offre d'emploi
Data Engineer GCP & Talend
Au sein de la Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour nos équipes. Description Missions principales • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe Livrables Développements Cahiers de test/recette Dossier de recette / Mise en production Spécifications Document d'exploitation Fiche consigne Compétences Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • Talend : Solides compétences dans la conception et la gestion des workflows • GCP : Expérience sur les outils BigQuery, Dataflow, DataForm, Pub/Sub, CoudComposer et d’autres services GCP liés aux données. • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins, ou Terraform (serait un plus).

Offre d'emploi
PO DATA
📝 VOS MISSIONS PRINCIPALES Au sein d’une Direction E-commerce d’un grand compte Retail B2C , en tant que Product Owner / Lead Data , vous êtes l’interlocuteur privilégié des équipes métiers Digital pour co-construire et mettre en œuvre la roadmap Data sur le E-commerce . Vos activités principales : Co-construire avec les équipes métiers la roadmap data inhérente à la roadmap business en priorisant les demandes selon la valeur métier et l’expérience utilisateur Animer des points de priorisation et de synchronisation avec ces métiers Coordonner les actions avec 2 autres Product Owner Data Participer au cadrage des projets majeurs Recueillir les besoins Créer, alimenter et suivre le backlog produit Animer des sessions de validation avec les parties prenantes Etre un « Business Partner » pour les personnes au niveau Groupe Coordonner les équipes data (ingénieurs, analystes, scientists, tracking) afin de mettre sous contrôle la mise en œuvre Suivre et coordonner plusieurs projets en parallèle Contribuer aux phases de recette fonctionnelle Valider la conformité des livrables

Offre d'emploi
Tech Lead Data Analytics - Paris
Tu corresponds au/à la Tech Lead Data Analytics que nous recherchons si : - Tu as une expérience significative de 5 minimum ans ou plus de projets Data : modélisation, analyse de données et réalisation de tableaux de bord. - Tu as une expérience sur Power BI (+ de 5 ans) aussi bien sur le Desktop que sur les services associés (Dataset, organisation des workspaces, vision des modalités de licencing, etc.) - Tu possèdes de solides compétences en SQL - Tu as une expérience significative d'encadrement opérationnel d'équipe (Data Eng et Data Analyst) - Tu as de bonnes compétences dans l’architecture des systèmes, bases de données, méthodologies d’analyse. Tu sais ainsi préconiser les bons outils/technologies selon les contextes de tes clients. - Tu es sensible à la Business Intelligence , au Big Data et au Machine Learning - Tu es autonome et sais travailler en équipe notamment dans des contextes Scrum /Kanban - Une expérience sur Databricks est un plus - Enfin, tu sais être force de proposition et as un esprit de synthèse.

Mission freelance
Recherche Consultant(e) Snowflake
Dans le cadre de la transformation Data de notre client / entreprise, nous recherchons un Développeur Snowflake afin de participer à la mise en place, l’optimisation et la maintenance de notre plateforme cloud dédiée à la gestion et à l’exploitation des données. Vous interviendrez dans une équipe Data pluridisciplinaire (Data Engineers, Data Analysts, Architectes) sur des projets stratégiques : migration de bases de données, modélisation de données, industrialisation des flux, création de pipelines et dashboards.

Mission freelance
Chef de projets DATA : analyse opérationnelle et gouvernance - MDM
Le SI de cette entreprise est toujours en cours de structuration pour accompagner la croissance de l’activité. Il est caractérisé par une certaine hétérogénéité des applications (nombreux progiciels fournis par divers éditeurs-intégrateurs) et par la gestion de flux de données entrants de volume assez important (1 à 2 millions de lignes de données reçues chaque mois d’un organisme extérieur). Un des progiciels clés vers lequel convergent de nombreuses données est un CRM (qui gère les données des salariés affiliés). Dans ce contexte, nous recherchons un/une « Chef de projet DATA Analyst, Gouvernance et MDM » qui interviendra sur des aspects opérationnels et stratégiques, sur les 3 axes complémentaires : Axe 1 : DATA Analyse opérationnelle et AMOA : Contribuer à fiabiliser les flux de données entrants : Proposer des méthodes et algorithmes pour contribuer à la fiabilisation des données qui sont reçues chaque mois (data quality, lineage, …) Pour cette mission, être capable de faire des recherches dans les données avec outils à définir (Excel, voire Python, SQL,…) pour comprendre et détecter les anomalies Pouvoir échanger utilement avec les développeurs (MOE) qui sont chargés de récupérer ces flux de données et de les dispatcher dans la base de données. Etre également capable de rédiger des spécifications fonctionnelles pour que ces développeurs améliorent les scripts de mise en qualité des données et de tester leurs réalisations (approche AMOA) Axe 2 : Organisation du Data Management dans l’ensemble du SI : Développer une réflexion structurée sur l’impact et le suivi des données reçues par les flux externes ou autres canaux (saisies, etc.) dans la suite des processus de travail impactant les domaines métiers et applications du SI (CRM, éditique, comptes extranet, qualification des salariés, etc.) Mettre en place en place une organisation pour la gouvernance-management des données pouvant aller éventuellement jusqu’à la l’étude et la proposition d’outils MDM du marché Axe 3 : Pilotage de projet et coordination transverse : Organiser, planifier, reporter et suivre l’ensemble des actions relatives aux axes 1 et 2 Transfert de compétences et conseil auprès d’autres chefs de projets internes pour les sensibiliser à l’approche « data » et faire en sorte d’installer des bonnes pratiques pérennes dans la gestion des données Autres points : Lieu mission : Paris 15ème (Métro Pasteur) Date démarrage : ASAP Durée : 6 mois renouvelable Modalité : Temps plein, avec peu de télétravail (1 jour par semaine idéalement)

Offre d'emploi
Product Owner BI
La mission s’articulera autour de : Pilotage produit des besoins BI (backlog, cas d’usage, priorisation, validation produit) Vision stratégique BI (choix d’outils, plan de transformation, montée en compétences) Périmètre de la mission Pilotage produit & backlog BI Recueillir, analyser et formaliser les besoins métier en collaboration avec les directions utilisatrices Prioriser les cas d’usage BI selon leur valeur, urgence et faisabilité Rédiger et maintenir un backlog BI clair et structuré (user stories, critères d’acceptation, jeux de test) Suivre l’avancement des développements et valider les livrables avec les utilisateurs et les Business Lines Animation agile & coordination fonctionnelle Préparer et co-animer les rituels agiles avec le Scrum Master (affinements, plannings, revues) Collaborer quotidiennement avec les développeurs, Tech Leads et Data Analysts Représenter la voix du métier et des Business Lines au sein de l’équipe Qualité fonctionnelle & validation métier Garantir la cohérence et la qualité des tableaux de bord, rapports et datamarts livrés Valider les livrables BI avec les utilisateurs finaux Documenter les solutions de manière claire et accessible Vision stratégique & transformation BI Apporter son expertise aux équipes data et à la hiérarchie sur la vision stratégique et la transformation BI Identifier les cas d’usage pertinents pour tester de nouveaux outils BI, en coordination avec les métiers et Business Lines Piloter les POCs : cadrage, expérimentation et retour d’expérience Élaborer un plan de montée en compétences pour l’équipe (formations, coaching, accompagnement) Contribuer à la stratégie de gouvernance et au développement du self-service BI Interface métier & conduite du changement Animer les ateliers de cadrage fonctionnel avec les métiers Présenter les livrables de manière claire et orientée valeur Être ambassadeur de la transformation BI auprès des directions utilisatrices Suivre les retours utilisateurs et les indicateurs d’adoption
Mission freelance
CP/BA DATA-BI
Bonjour, Pour le compte de l'un de mes clients situé sur Paris, je suis à la recherche d'un chef de Projet / Business Analyst Data BI. Contexte du poste : Dans le cadre du renforcement du dispositif projet Dataplatform, nous recherchons un(e) Chef de Projet / Business Analyst Data pour piloter les activités de delivery, structurer les besoins métiers et accompagner les équipes techniques dans la mise en œuvre de la plateforme data. Vos missions : Pilotage projet : Suivi du planning, des charges, des livrables et des risques Animation des comités projet et reporting auprès du management Coordination des équipes internes et partenaires Business Analysis : Recueil et formalisation des besoins métiers (ateliers, interviews) Rédaction des spécifications fonctionnelles et des cas d’usage Élaboration du dictionnaire de données et des modèles conceptuels Delivery & Qualité : Suivi des développements et des tests Définition de la stratégie de recette et accompagnement des utilisateurs Garantie de la qualité des livrables et de la satisfaction client

Mission freelance
Product Owner IA
Contexte : Le Product Owner sera responsable de la définition, la priorisation et la livraison des fonctionnalités d’une plateforme supportant : Les workflows de machine learning classique. Les outils low-code/no-code destinés aux citizen developers et utilisateurs métiers. Il travaillera en étroite collaboration avec les équipes d’ingénierie, MLOps, gouvernance des données et conformité afin d’assurer des solutions robustes, scalables et orientées utilisateurs. Missions principales : Backlog Definition & Prioritization Définir et maintenir un backlog clair et actionnable aligné avec les besoins utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités concrètes. Contribuer à la planification PI et aux activités de refinement selon les pratiques Agile SAFe. Product Discovery & Validation Mener des activités de découverte pour valider les besoins utilisateurs et tester les idées de solution. Garantir que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transversale Coordonner avec les parties prenantes internes (engineering, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption & Enablement Accompagner l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’usage et collecter les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et autonomiser les citizen developers grâce à des outils intuitifs et une documentation adaptée. Contribution stratégique Définir et communiquer la vision sur le ML classique et le low-code/no-code. Identifier des opportunités d’innovation et d’efficacité. Suivre les tendances marché et les technologies émergentes. Compétences requises : Expérience confirmée en Product Ownership ou Product Management, idéalement sur des plateformes IA/Data. Bonne compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience en environnements cloud (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion de parties prenantes. Langues : Anglais courant (impératif). Français : un plus.

Mission freelance
POT8608-Un Product Owner IA sur Grenoble
Almatek recherche pour l'un de ses clients, un PO IA sur Grenoble. Context : Le prestataire sera responsable de la définition, de la priorisation et de la mise en œuvre des fonctionnalités de la plateforme, afin de soutenir : Les workflows classiques de machine learning, Les outils low-code/no-code destinés aux « citizen developers » et aux utilisateurs métiers. Cela implique une collaboration étroite avec les équipes d’ingénierie, de MLOps, de gouvernance des données et de conformité, afin de garantir des solutions robustes, évolutives et centrées sur l’utilisateur. Livrables attendus: Définition et priorisation du backlog: Établir et maintenir un backlog clair, exploitable et aligné sur les besoins des utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités de plateforme. Contribuer à la planification des Program Increments (PI) et à l’affinage du backlog conformément aux pratiques Agile SAFe. Découverte produit et validation: Mener des activités de discovery afin de valider les problématiques utilisateurs et tester les idées de solutions. Veiller à ce que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transverse: Coordonner avec les parties prenantes internes (ingénierie, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption et accompagnement de la plateforme: Soutenir l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’utilisation et recueillir les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et accompagner les citizen developers grâce à des outils intuitifs et une documentation claire. Contribution stratégique: Définir et communiquer la vision autour du machine learning classique et de l’approche low-code/no-code. Identifier des opportunités d’innovation et d’amélioration de l’efficacité. Se tenir informé des tendances du marché et des technologies émergentes. Compétences requises: Expérience avérée en tant que Product Owner ou Product Manager, idéalement dans le domaine des plateformes data/IA. Solide compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience dans des environnements cloud natifs (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion des parties prenantes. Compétence linguistique: anglais courant.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.