L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 347 résultats.
Mission freelance
Senior Data Scientist
Publiée le
ADFS
Analyse financière
Azure
6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
Publiée le
Azure
BI
DevOps
24 mois
325-650 €
La Défense, Île-de-France
Télétravail partiel
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Mission freelance
POT8785 - Un Product Owner Data Sénior sur Paris.
Publiée le
Méthode Agile
6 mois
400-460 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Product Owner Data Sénior sur Paris. Objectif de la mission Assurer le Product Ownership des socles Data pour le programme Data Performance, afin de : maximiser la valeur business, garantir l’adoption des produits par les métiers, sécuriser la performance des traitements et le passage en RUN. Le consultant sera également amené à collaborer avec le Product Manager transverse et à accompagner la transformation Data dans l’organisation. Missions principales 1. Product Ownership des socles Piloter le backlog des socles et prioriser les évolutions en fonction des besoins métiers. Rédiger user stories et spécifications fonctionnelles pour les fonctionnalités critiques. Assurer la cohérence fonctionnelle avec les objectifs métiers : CA, performance commerciale, nouveaux services marketing. Préparer le passage en RUN et accompagner l’adoption des produits par les métiers. Suivre les traitements existants, le legacy, les référentiels et les adhérences. 2. Collaboration avec le Product Manager transverse Participer à la structuration et pilotage industriel des socles Data. Contribuer à la roadmap Data à 3 ans, et à la mise en place du PI Planning. Déployer des KPIs orientés valeur business pour mesurer l’impact des socles et des cas d’usage. Préparer les supports de COPIL / CEB / COPROJ, incluant avancement, risques et indicateurs de valeur. 3. Accompagnement de la transformation Data Décliner les orientations de la transformation (audit plateforme Data) dans les pratiques des socles et zones business. Suivre les pilotes New SAPO et Distribution, sécuriser leur mise en œuvre et généraliser les bonnes pratiques. Contribuer à la conduite du changement : acculturation, formation, communication et montée en maturité des équipes métiers et SI. Livrables clés: Backlog et priorisation des évolutions des socles User stories / spécifications fonctionnelles Roadmap Data à 3 ans KPI de valeur business et supports de pilotage pour COPIL / CEB Documentation sur la transformation Data et accompagnement au changement Profil recherché: Expérience Product Owner Data dans des grands groupes ou environnements complexes Connaissance en transformation Data et Data Office Capacité à travailler avec les métiers et la DSI pour traduire les besoins en solutions Data opérationnelles Maîtrise des concepts modernes de data architecture, notamment Data Mesh et gestion de référentiels Expérience Agile / PI Planning / gestion de roadmap Data Orientation forte valeur business, capacité à mesurer et suivre l’impact des socles et produits Data Idéalement : connaissance environnement transport (données clients, données commerciales / financières)
Offre d'emploi
Data Ops
Publiée le
Apache Spark
1 an
40k-45k €
400-550 €
Quartier du Montparnasse, France
Télétravail partiel
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Mission freelance
Chef de Projet Data Client Technico-fonctionnel
Publiée le
Data quality
Modèle Conceptuel des Données (MCD)
Transformation digitale
3 mois
550-600 €
Guyancourt, Île-de-France
Télétravail partiel
🔍 Nous recherchons Chef de projet Data / PO Data Client capable de piloter des projets Data transverses dans un environnement digital exigeant et multi-métiers. Un vrai CP/PO Data techno-fonctionnel , à l’aise autant sur la compréhension métier que sur les sujets techniques Data : ✅ Piloter des projets Data transverses (Digital / CRM / Customer Data) ✅ Assurer le mapping de données , la qualité , la modélisation et la cohérence globale ✅ Échanger avec toutes les équipes : Produits, Digital, Data, CRM, Web ✅ S’imposer comme référent Data dans les échanges — leadership indispensable ✅ Produire ou challenger du reporting , des KPIs, des modèles de données ✅ Cadrer les besoins, structurer les cas d’usage et garantir l’alignement métier ✅ Contribuer à la transformation Data/Digital (agile + V, contexte hybride, parfois “pompiers”)
Offre d'emploi
Data Scientist
Publiée le
Azure
Data science
Paris, France
Télétravail partiel
Vous êtes passionné·e par la donnée, l’intelligence artificielle et l’impact business ? Rejoignez une équipe innovante qui met la data au cœur des décisions stratégiques et participez à la conception de modèles prédictifs et de solutions à fort impact pour des projets internationaux. 🚀 Vos missions En tant que Data Scientist , vous serez au cœur de la transformation data. Vos principales responsabilités : Concevoir, développer et industrialiser des modèles de machine learning et d’ IA répondant à des problématiques concrètes (prévision de la demande, optimisation marketing, performance industrielle, etc.) Collaborer avec les équipes Data Engineering et les métiers pour traduire les besoins business en solutions data performantes Analyser, structurer et valoriser de grands volumes de données issues de sources multiples Garantir la qualité, la robustesse et l’interprétabilité des modèles déployés Participer activement à la diffusion d’une culture data-driven au sein de l’entreprise
Mission freelance
Ingénieur DataOps / SRE Data
Publiée le
5 mois
500 €
France
Objet de la prestation Le consultant interviendra pour assurer le support opérationnel et contribuer à la fiabilité, la performance et la bonne utilisation des plateformes Big Data. Missions principales Assurer le support de niveau 2 en production (PROD) sur les plateformes Spark, Airflow et Starburst. Prendre en charge la gestion des incidents , l'analyse des causes racines ( RCA ) et la résolution. Contribuer à l' optimisation des traitements Spark sur Kubernetes : tuning, configuration, dimensionnement, gestion des ressources. Optimiser et fiabiliser l' orchestration Airflow/Astronomer . Participer à la gestion des catalogues Starburst (Trino) et au suivi des performances des requêtes distribuées. Accompagner les équipes métiers pour un usage efficace, sécurisé et performant des plateformes. Maintenir et enrichir la documentation d'exploitation , procédures et guides utilisateurs. Participer à l' amélioration continue de l'écosystème : automatisation, standardisation, observabilité, fiabilité. Compétences techniques attendues Expertise en environnement Data / Production Expérience confirmée en exploitation Big Data en production . Technologies (au moins 2 maîtrisées) Kubernetes / IKS / OpenShift Apache Spark Apache Airflow / Astronomer Starburst (Trino) Compétences associées Maîtrise du support et du troubleshooting sur des services déployés sur Kubernetes (Helm charts, opérateurs…). Solide expertise en monitoring / observabilité : logs, métriques, dashboards. (Dynatrace, Kibana, Grafana…) Bonnes pratiques d'exploitation de traitements distribués. Connaissances approfondies en : Tuning Spark Profiling applicatif Gestion fine des ressources (executor, driver, mémoire, shuffle…) Compétences en scripting : Bash, Python, Ansible (appréciées). Maitrise des chaînes CI/CD : Git, Jenkins, GitLab CI… Compétences en sécurité : Hashicorp Vault Secrets , PKI, gestion des certificats. Compétences transverses Excellente capacité d'analyse et de diagnostic d'incidents complexes. Rigueur et fiabilité en environnement de production critique. Capacités rédactionnelles pour formaliser procédures, guides et rapports. Bon relationnel et capacité à accompagner les équipes métiers. Français et anglais opérationnel. Montreal Associates is acting as an Employment Business in relation to this vacancy.
Mission freelance
Data Engineer (F/H) - 56
Publiée le
Apache Kafka
Java
Shell
1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
Offre d'emploi
Data Scientist
Publiée le
Google Cloud Platform (GCP)
Machine Learning
1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Offre d'emploi
Responsable de Domaine Data/BI
Publiée le
Data Warehouse
ETL (Extract-transform-load)
PowerBI
90k-100k €
Antony, Île-de-France
Télétravail partiel
📌 Responsable de Domaine Data / BI (H/F) 🎯 Contexte & Enjeux du Poste Dans le cadre d’une évolution organisationnelle et du redimensionnement d’un poste stratégique, notre groupe renforce son Département Études et recrute son Responsable de Domaine Data / BI. Ce rôle clé intervient au moment où l’entreprise engage une refonte complète du SI décisionnel, une modernisation de son architecture data, et une professionnalisation de sa gouvernance de la donnée. Le poste combine vision stratégique, pilotage technique, management d’équipe (5 à 10 personnes, internes et prestataires) et accompagnement des métiers. 📝 Missions principales 1. Définition & Pilotage de la Stratégie Data Construire et suivre la feuille de route Data/BI du groupe (stratégie, priorités, trajectoires, budgets). Contribuer au ciblage de l’architecture Data et aux choix technologiques clés. Conduire la refonte du SI décisionnel et la modernisation des outils associés. 2. Gouvernance & Qualité de la Donnée Définir et appliquer les standards de qualité, sécurité, conformité et intégrité de la donnée. Superviser l’ensemble des flux, entrepôts, modèles et indicateurs clés. Garantir la fiabilité, performance et disponibilité des plateformes data. 3. Management & Structuration de l’Équipe Encadrer une équipe de 5 à 10 collaborateurs (internes + prestataires). Définir l’organisation, les responsabilités, les objectifs et les rituels d’équipe. Monter en compétence les équipes : méthodologie, bonnes pratiques, culture data. 4. Supervision Technique & Opérationnelle Piloter l’ensemble du périmètre technique BI & Data : Systèmes : SAP BW, SAP BO, Power BI, Snowflake Outils & technologies : ETL / Talend, SQL, modèles de données Garantir la maintenance, les évolutions, les déploiements et le bon fonctionnement des plateformes. Valider les solutions : ETL, dashboards, reporting, modèles de données, intégration, architecture. 5. Relation Métiers & Accompagnement Être l’interlocuteur privilégié des métiers (commerce, logistique, finance, opérations…). Recueillir, challenger et prioriser les besoins en intelligence décisionnelle. Accompagner les équipes dans l’usage des outils, la compréhension des indicateurs et la diffusion de la culture data. Collaborer étroitement avec la MOA et les chefs de projet SI
Mission freelance
Ingénieur Big Data / Cloudera – Automatisation & Production (H/F)
Publiée le
Apache Kafka
3 ans
Île-de-France, France
Le service réalise le développement de l'ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Environnement technique : Ansible Apache NiFi Hadoop (Big Data) Kafka Scripting (GuitHub, Ansible, AWX, shell, vba)
Mission freelance
POT8811 - Un Lead Data Migration SAP (Qualité, MDG, Gouvernance) sur Paris
Publiée le
ERP
6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un Lead Data Migration SAP (Qualité, MDG, Gouvernance) sur Paris Objectif du poste Sécuriser la migration des données et la gouvernance, pour éviter les risques data silencieux qui déstabilisent l’activité après go live. Missions principales • Définir la stratégie de migration (objets, règles, séquences, contrôles). • Piloter nettoyage, dédoublonnage, data quality et réconciliation. • Orchestrer extraction, transformation, chargement et validations. • Mettre en place une gouvernance data avec rôles et responsabilités clairs. Compétences et outils Compétences et outils • Data migration ERP, réconciliation, contrôles et gestion de la pression fin de projet. • Connaissance SAP MDG appréciée. • Approche pragmatique orientée qualité et continuité opérationnelle. Profil recherché • 6 ans et plus sur data migration ERP, idéalement S/4HANA. • Excellente rigueur, leadership transversal.
Mission freelance
POT8784 - Un Data Analyste énergie Sur Saint Denis
Publiée le
SQL
6 mois
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Data Analyste énergie Sur Saint Denis. Objectif de la mission: Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : ? sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky et Gaspar ? fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté, idéalement avec expérience dans : la qualité et fiabilisation des données, les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (,compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
Offre d'emploi
Data Stewart
Publiée le
Big Data
BigQuery
Cloud
12 mois
40k-48k €
400-500 €
Paris, France
Télétravail partiel
Définition du besoin : Accélération de la transformation digitale avec pour mission de devenir le média numérique de référence pour tous, gratuit, utile et adapté à chacun pour s’informer, se cultiver et se divertir ! La Direction Data est rattachée à la direction du Numérique et met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données afin d’en accélérer son usage. Contribuer à la croissance des offres numériques du groupe via plusieurs plateformes en accompagnant les équipes éditoriales, produit, design et marketing (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension et la prévision des usages ainsi que l’amélioration de l’expérience utilisateurs. Au sein du pôle Data Gouvernance, rattachée au responsable du pôle, la prestation sera affectée au data domaine utilisateurs (caractéristiques socio-démographiques, consentements, abonnements…) et permettra d’être le catalyseur et le facilitateur pour améliorer l’efficience de la mise à disposition de la donnée aux utilisateurs métier. Prestations attendues : Comprendre et mettre en œuvre la stratégie data gouvernance : Gestion de la qualité des données : Recueillir les data quality rules et coordonner leur mise en œuvre Assurer une vision complète des étapes de transformation de la donnée Gérer la mise en œuvre des contrôles qualité Effectuer la mesure des écarts de qualité par rapport aux objectifs fixés Coordonner la remédiation à la qualité des données avec les différents acteurs Participer à la gestion des métadonnées : Animer le remplissage du glossaire métier en collaboration avec les data owners Veiller au respect des règles et politiques établies par les équipes data gouvernance Coordonner la mise en synergie entre dictionnaire de données et glossaire métier Participer à la politique des accès : Contribuer à garantir la sécurité des données en mettant en application la politique des accès aux données Participer à l’application des normes RGPD et jouer le rôle de facilitateur entre les différents interlocuteurs Animer et jouer un rôle moteur dans la mise en œuvre de la stratégie data gouvernance : Communiquer et accompagner : Expliquer et faciliter la compréhension de la politique de gouvernance data en place Créer une synergie collaborative entre les équipes data et les équipes métier Être en support des Data Owners Animer le Data domaine : Lister les données sensibles à mettre sous contrôle S’assurer de la mise aux normes des Data Sets du domaine
Offre d'emploi
DATA ENGINEER MICROSFT BI / POWER BI
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SSIS
3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client, nous recherchons un Data engineer Microsoft BI / Power BI. Contexte : La poursuite de la mise en place de la plateforme décisionnelle au sein du SI de Covéa Finance, nous recherchons un développeur MS BI confirmé . Le consultant interviendra sur le développement, la maintenance évolutive et corrective du système décisionnel. Il sera rattaché hiérarchiquement au Responsable MOE E&D et intégré à l’équipe DWH pour répondre aux demandes tactiques de la plateforme décisionnelle du directeur de projet. Missions principales : Formaliser les spécifications fonctionnelles et analyser les besoins. Identifier les impacts sur l’existant et proposer des solutions techniques. Participer à la modélisation des données et aux choix d’architecture technique. Contribuer au plan de charge et à la définition du planning. Rédiger les spécifications techniques et documents d’exploitation. Développer les nouvelles demandes : intégration de données, création de cubes tabulaires , rapports et dashboards. Assurer le déploiement en homologation et production. Accompagner la MOA et les métiers lors des phases de recette. Support et maintenance corrective (niveau 3). Remonter les informations et indicateurs à son responsable hiérarchique. Compétences techniques indispensables : Expertise sur Microsoft Fabric / MS BI . Maîtrise SQL et T-SQL . Développement et maintenance de SSRS et cubes tabulaires . Expérience en Power BI : dashboards, modélisation, DAX. Bonne compréhension des processus décisionnels et reporting métier . Compétences transverses : Esprit d’analyse et rigueur. Capacité à travailler en équipe et à collaborer avec les équipes métier et infrastructure. Autonomie et force de proposition. Bon relationnel et sens du service client interne. Localisation :
Mission freelance
H/F - Product Owner CRM & Data Client
Publiée le
Backlog management
Rédaction des spécifications fonctionnelles
Salesforce Sales Cloud
3 mois
Paris, France
Télétravail partiel
Niveau : Confirmé (+8 ans d’expérience) Au sein de la DSI, vous rejoignez l’équipe produit responsable du référentiel client et des processus de prospection associés. Votre mission consiste à définir la vision produit, piloter les évolutions fonctionnelles et assurer la cohérence globale de la solution CRM orientée Data. Acteur central de l’organisation agile, vous êtes garant de la valeur métier, de la priorisation du backlog et de la qualité des livrables. Vous travaillez en coordination avec les équipes techniques, data et commerciales afin d’assurer un delivery performant et une adoption optimale des fonctionnalités. Missions principales • Définir et piloter la vision produit et la roadmap. • Recueillir, analyser et formaliser les besoins métiers. • Rédiger les spécifications fonctionnelles et critères d'acceptation. • Prioriser et maintenir le backlog produit. • Coordonner les équipes techniques et assurer la qualité du delivery. • Garantir la cohérence du SI avec les autres produits et services. • Accompagner le déploiement, la conduite du changement et l’adoption des nouvelles fonctionnalités. • Assurer la valeur délivrée à chaque itération.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
1347 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois