Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 824 résultats.
Freelance

Mission freelance
Data Owner Merchandising

Zenith Rh
Publiée le

12 mois
Nord, France
Nous recherchons pour notre client, un(e) Data Owner Merchandising, pour une mission en freelance au sein d’un grand groupe leader dans son domaine. Dans le cadre d'une transformation, vous interviendrez pour structurer et garantir l'intégrité du patrimoine de données. Votre rôle est central : vous êtes le garant de la définition, de la gouvernance et de la qualité des données liées aux services merchandising. En véritable chef d'orchestre, vous définissez les règles, les standards et les processus tout en identifiant les responsabilités de chaque acteur. Vous jouez un rôle d'arbitre pour les décisions business et priorisez les chantiers d'amélioration en veillant à ce que les équipes métiers assurent les corrections nécessaires. Votre mission est d'assurer un alignement parfait entre les besoins opérationnels de terrain et les exigences des domaines consommateurs de données.
Freelance

Mission freelance
Senior Architecte Réseau & Sécurité – On-Premises et Cloud AWS

ARTESIA IT
Publiée le
Architecture
AWS Cloud
Cisco

2 ans
700-800 €
Liège, Belgique
Mission Le Senior Architecte Réseau est responsable de la conception, de l’évolution et de la cohérence des architectures réseau de l’entreprise, qu’elles soient on-premises ou dans le cloud AWS , en garantissant performance, sécurité, résilience et alignement avec les besoins métiers. Il intervient comme référent technique et partenaire des équipes IT, en définissant les standards, en accompagnant les projets structurants et en anticipant les évolutions technologiques, y compris celles liées aux environnements cloud. Responsabilités principales Les missions couvrent les réseaux bureautiques, industriels et cloud, et comprennent notamment : Activités de projet Cadrage et conception Conduit les études de définition des besoins réseau avec les équipes IT et les métiers. Définit l’architecture technique sur les périmètres réseau et cloud AWS. Assure le respect des standards internes durant la conception et la réalisation des projets, qu’ils soient on-premises ou cloud. Définit l’assemblage de technologies standard pour répondre aux besoins, y compris les services cloud AWS (VPC, Transit Gateway, Direct Connect, Security Groups…). Rédige les documents d’architecture générale intégrant les environnements hybrides (on-premises + cloud). Participation et coordination Participe activement aux groupes de travail des projets confiés. Accompagne la réalisation des projets et assure ponctuellement la coordination technique sur certains périmètres, incluant la migration et l’intégration dans AWS. Activités de RUN et Support Conseil et support IT Apporte son expertise aux différentes entités IT pour les environnements réseau et cloud. Vérifie la bonne mise en œuvre des normes et standards internes. Accompagne les plans d’actions visant la conformité aux standards. Apporte son support et son expertise aux fonctions liées à la sécurité, y compris dans les architectures cloud AWS. Amélioration continue et nouveaux services Participe à l’élaboration de nouveaux services réseau et cloud. Intervient en support sur incidents ou analyses post-mortem pour maîtriser les besoins Build/Run/Design. Aspects stratégiques / Schéma directeur Prospective et roadmap Définit la roadmap d’évolution des composants et services réseau, incluant le cloud AWS. Suit l’offre du marché en nouvelles technologies et évalue leur pertinence pour les environnements hybrides. Analyse l’impact des nouvelles technologies et propose des choix cohérents avec les exigences de sécurité et de performance. Propose des scénarios d’optimisation d’architecture (coûts, expérience utilisateur, efficacité, redondance) intégrant cloud et on-premises.
Freelance

Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy

Almatek
Publiée le
SQL

6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Freelance

Mission freelance
Ingénieur réseau

Signe +
Publiée le
AWS Cloud
Réseaux
VPN

6 mois
400-500 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients un ingénieur réseaux. Missions En tant qu’Ingénieur Réseau, vous serez en charge de : Concevoir, déployer et maintenir des architectures réseau fiables et sécurisées Administrer et optimiser les protocoles réseau (TCP/IP, BGP, OSPF, DNS, etc.) Mettre en place et maintenir des solutions VPN (site-to-site, client-to-site) Garantir la sécurité réseau (segmentation, filtrage, bonnes pratiques, conformité) Concevoir et exploiter des architectures AWS (VPC, peering, Direct Connect ) Intervenir sur des environnements multi-cloud (AWS, Azure, GCP) Analyser et diagnostiquer les incidents réseau à l’aide d’outils comme Wireshark et tcpdump Réaliser des tests de performance et de charge pour valider la robustesse des infrastructures Documenter les architectures et procédures Collaborer étroitement avec les équipes Cloud, Sécurité et DevOps
CDI

Offre d'emploi
Data scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
Deep Learning
Ocaml

41k-47k €
Roubaix, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Développeur EBX Senior

EMGS GROUP
Publiée le
Apache Kafka
API REST
AWS Cloud

3 mois
450-550 €
Paris, France
Dans le cadre d’un programme de transformation digitale, nous recherchons un Développeur EBX senior pour contribuer à la construction et à l’évolution d’un référentiel de données d’entreprise (MDM). Objectifs et responsabilités Paramétrer et développer la solution EBX pour la gestion des données référentielles Concevoir et développer des interfaces d’exposition des données (API REST, topics Kafka) Participer à la définition de l’architecture applicative en collaboration avec les équipes métiers, techniques, sécurité et infrastructure Contribuer à la conception technique des projets : analyse des besoins, rédaction des exigences techniques Assurer la documentation technique et le suivi des phases de tests et de mise en production
Freelance
CDI

Offre d'emploi
Développeur Backend - Kotlin

VISIAN
Publiée le
AWS Cloud
Java
Kotlin

1 an
Paris, France
Contexte Les plateformes de référence pour la centralisation, la distribution et l'exposition via API de l'ensemble des offres fournissent aux applications clientes un accès unifié à un catalogue multifournisseurs, un moteur de recherche d'itinéraires multimodal, la distribution des offres. Ces plateformes reposent sur un ensemble d'APIs simples à intégrer, permettant la construction d'interfaces de mobilité en marque blanche couvrant l'ensemble du parcours utilisateur. Le domaine Moteur Distribution s'organise en 4 équipes de delivery travaillant sur la refonte du moteur d'offres et du moteur de booking. Besoin – Mission Nous recherchons un·e développeur·euse backend confirmé·e ou senior pour renforcer une équipe mixte, afin de travailler sur les problématiques dans le cadre de la refonte du moteur booking. Le prestataire intégrera un chantier déjà en cours, avec des deadlines critiques en Q1 2027. Les objectifs clés de la refonte : Modélisation des API et du modèle de données selon la norme européenne OSDM. Construction d'un moteur d'orchestration agnostique des spécificités fournisseurs, avec déport de la logique complexe vers les équipes en charge des connecteurs fournisseurs. Sortie du monorepo historique et mise en place d'une nouvelle chaîne de delivery (GitLab repos, CI/CD GitLabCI, Helm, ArgoCD — modèle GitOps). La mission se concentre sur le stream Paiement du moteur booking et inclut notamment : La réalisation d'études et cadrages technico-fonctionnels (initiation, exécution, post‑paiement, réconciliation, refunds, gestion des échecs, interactions PSP, etc.). Le développement backend en Kotlin. La conception et l'implémentation d'API REST basées sur OSDM. La contribution aux choix d'architecture en tant que contributeur. La mise en qualité : tests (unitaires, intégration, performance), revues de code, amélioration CI/CD. Le monitoring et l'optimisation des performances. Les interactions quotidiennes avec les autres profils de l'équipe (PO, SM, Lead Dev, Dev, QA). Les interactions régulières avec les autres équipes du domaine. La définition des contrats d'interface entre moteur et connecteurs fournisseurs. La prise en compte des exigences de sécurité et conformité PCI‑DSS. La participation aux cérémonies agiles.
CDI

Offre d'emploi
BUSINESS ANALYST DATA / EXPERT DATA (H/F)

GROUPE ALLIANCE
Publiée le
Informatica
PL/SQL
SQL

55k-65k €
Paris
ACCROCHE SI TRANSFORMER UN BESOIN MÉTIER EN SPÉCIFICATION CLAIRE EST TON SUPER POUVOIR, TU ES PEUT-ÊTRE CELUI QU’ON ATTENDAIT ... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la compréhension métier et à la traduction fonctionnelle Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur de l'assurance, tu participeras à l'accompagnement des métiers pour la mise en place de nouveaux indicateurs. : Les besoins utilisateurs, tu recueilleras Les processus métiers, tu analyseras Les spécifications fonctionnelles, tu rédigeras Le lien entre les équipes métier et IT, tu assureras La validation des livrables, tu piloteras Les plans de test fonctionnels, tu construiras Ton équipe, tu accompagneras Aux ateliers, comités et instances projet, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 10 ans minimum Expert(e) en analyse fonctionnelle, expression de besoin, modélisation de processus et conduite du changement Habile avec les outils Informatica, Sql, Pl-Sql, Jira AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
CDI
Freelance

Offre d'emploi
Data Engineer Python

Signe +
Publiée le
Python

24 mois
45k-50k €
322-500 €
Lyon, Auvergne-Rhône-Alpes
Missions : Développer et maintenir des produits data avec des contrats clairement définis. Concevoir et maintenir des pipelines de données batch et event‑based. Construire des pipelines Polars hautement performants. Supporter et optimiser des workflows à grande échelle sur Databricks. Mettre en place des processus robustes d'ingestion, de transformation et de validation des données, en visant performance, scalabilité et résilience. Garantir une haute qualité de données grâce à des validations et des tests automatisés. Gérer les composants de stockage et data lake de Azure Cloud conformément aux standards internes. Contribuer à l'automatisation CI/CD GitLab et assurer une haute qualité du code Python produit. Compétences : Forte expertise en Python (clean architecture, performance, tests). Expérience dans la création de data pipelines en Python. Expérience avec des bibliothèques de traitement de données : Polars, Pandas, Databricks, DBT, etc. Maîtrise d'outils d'orchestration de workflows : Prefect, Airflow, Dagster… Solide compréhension du data modeling et du design de schémas. Connaissance des bonnes pratiques d'ingénierie logicielle : CI/CD, code review, tests automatisés… Soft skills : Excellentes compétences en résolution de problèmes, autonomie, envie d'apprendre. Forte attention portée à la qualité et à la fiabilité des données. Aisance dans des environnements d'ingénierie collaboratifs. Capacité à documenter et communiquer clairement des concepts techniques. Les compétences techniques priment sur le nombre d'années d'expérience. 2J TT/semaine Compétences techniques requises : Python Azure Databricks CICD Pandas GitLab
Freelance

Mission freelance
Data engineer (H/F)

Insitoo Freelances
Publiée le
Microsoft Power BI
SQL

2 ans
400-430 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer (H/F) à Hauts-de-France, France. Les missions attendues par le Data engineer (H/F) : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Compétences : Expertise SQL, ETL CI/CD, github, Terraform, Kafka Power BI, Looker Google Cloud Platform (GCS, BigQuery)
CDI
Freelance

Offre d'emploi
Consultant(e) Data – Expertise Dataiku (F/H)

Argain Consulting Innovation
Publiée le
Dataiku

120 jours
38k-48k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Data – Expertise Dataiku (F/H) Vous interviendrez : Chez les clients, selon le cadre et les objectifs définis afin de : Travailler à la fois comme Développeur Data, Business Analyst Data , et référent Dataiku, en jonglant efficacement entre plusieurs projets. Synthétiser les échanges (ateliers, COPRO) afin de partager les sujets clés, proposer des solutions adaptées, chiffrer les besoins et planifier les actions. Assurer le suivi des tâches, sprints et collaborations via JIRA. Concevoir, développer et maintenir des pipelines data end‑to‑end dans Dataiku , notamment avec des traitements en SQL et la connaissance de GCP Contribuer à l’amélioration continue des modèles de traitement, de la qualité des données et des processus métiers. Analyser les besoins des équipes métier, challenger les hypothèses et traduire les cas d’usage en solutions data robustes. Participer à l’animation des ateliers, COPIL/COPRO, et accompagner les équipes dans la bonne exploitation des outils data. Collaborer avec les équipes Data, IT, métiers et prestataires externes pour garantir l’avancement des projets. Assurer une documentation claire et la traçabilité des traitements Data. Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE, Mener et réaliser des projets associatifs (mécénat auprès de nos associations partenaires)
Freelance

Mission freelance
Data Analyst expert Dataiku

Nicholson SAS
Publiée le
Dataiku
MySQL
Salesforce

6 mois
600 €
Paris, France
Entité : Banque Site : Paris ; 50% TT Prix d’achat max : 600 euros Date de démarrage : ASAP Date de fin : 31/12/2026 Mission : Au sein de la direction Data Office & RPA / Reporting&Analytics nouvellement créée chez mon client, nous recrutons pour un poste d’analyste Data et Reporting dédié à la direction marketing. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein de la banque. Vos activités principales consisteront à accompagner les métiers marketing - dans 30 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité du groupe (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU.
Freelance

Mission freelance
Architecte Data Fonctionnel – Spécialiste Data Product

Ipanema Technology
Publiée le
Azure Data Factory

1 an
600-700 €
Île-de-France, France
Au sein d’une direction data en pleine transformation pour un acteur majeur du conseil et de l’audit, vous rejoignez une équipe stratégique dont l'objectif est de passer d'une gestion de la donnée "support" à une vision "Data as a Product" . En tant qu' Architecte Data Fonctionnel , vous êtes le chef d'orchestre de la valeur. Votre mission consiste à concevoir les fondations des premiers produits data de l'organisation. Vous ne vous contentez pas de dessiner des flux ; vous concevez des actifs de données réutilisables, fiables et à forte valeur ajoutée pour les métiers. Vos principales missions : Conception & Stratégie : Définir l'architecture fonctionnelle des Data Products (modélisation, lignage, interopérabilité) en cohérence avec la stratégie globale. Binôme Product : Travailler main dans la main avec les Product Owners (PO) et Product Managers (PM) pour traduire les besoins business en spécifications techniques actionnables. Gouvernance & Qualité : Garantir que chaque produit respecte les standards de qualité, de sécurité et de conformité, tout en facilitant son adoption par les utilisateurs finaux. Acculturation : Porter la vision "Data Product" auprès des équipes techniques et métiers pour favoriser une culture orientée résultat et efficacité.
Freelance

Mission freelance
Lead / Manager Squad Data & Finance

TEOLIA CONSULTING
Publiée le
Comptabilité
Pilotage
SQL

12 mois
Val-de-Marne, France
Nous recherchons un manager opérationnel pour piloter une squad IT dédiée aux domaines finance, comptabilité et risques , au sein d’un environnement Data en forte transformation. Contexte de la mission Vous intervenez sur un écosystème IT stratégique couvrant : Comptabilité & reporting réglementaire Finance & risques Data (entrepôt de données, datamarts, dataviz) Dans un contexte de modernisation du SI et de renforcement des exigences réglementaires, l’organisation est orientée Data-centric avec une forte convergence entre les domaines Finance et Risques. La squad est en charge de : La collecte des données comptables mensuelles (process critique) La production d’indicateurs finance / risques Les pistes d’audit Les reportings et flux réglementaires Vos missions En environnement Agile, vous serez responsable de : L’animation des rituels Agile et la diffusion des bonnes pratiques Le pilotage de la performance de la squad (KPI, amélioration continue) La coordination des équipes (IT, métiers, partenaires) La priorisation et structuration des activités avec les métiers Le bon fonctionnement du SI (run & build) La définition des trajectoires IT en lien avec l’architecture Le pilotage du staffing avec les responsables IT La communication sur les enjeux, résultats et stratégie
Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Freelance

Mission freelance
Data Configurateur

Codezys
Publiée le

12 mois
320-350 €
Lille, Hauts-de-France
Objectif principal : Garantir la structuration, la fiabilité et la performance des données produits dans le configurateur afin d’offrir une expérience digitale cohérente, performante et adaptée aux marchés, clients et collaborateurs en magasins. 1. Structuration et gouvernance des données produits Collecter, analyser, structurer et actualiser les données en lien avec fournisseurs et marchés. Assurer la fiabilité, cohérence et conformité des données produits et tarifaires (prix, options, évolutions). Maintenir la qualité et la pérennité des référentiels data. Définir les règles de compatibilité entre produits. Modéliser et unifier les données multi-fournisseurs pour leur intégration. Identifier les attributs produits pour l’animation des parcours digitaux et assurer leur complétude. Documenter les règles métier et référentiels pour une bonne transmission. 2. Pilotage du peuplement et performance produit Assurer le peuplement des produits dans le configurateur. Suivre et analyser les KPI liés aux produits et parcours. Identifier des axes d’optimisation par des analyses de performance. Proposer des plans d’action en lien avec les marchés. Contribuer à l’amélioration continue de l’offre et de l’expérience utilisateur. 3. Référent fonctionnel et animation de l'écosystème Être le référent fonctionnel de la data des configurateurs. Accompagner et sensibiliser le réseau aux évolutions. Communiquer sur les mises à jour, nouvelles fonctionnalités et impacts opérationnels. Structurer et animer les canaux d’échange pour remonter les retours terrain. Qualifier, prioriser et intervenir sur les anomalies. Intégrer les retours pour améliorer parcours et règles métier. Gérer les interdépendances avec marchés, fournisseurs, développeurs. Fournir une expertise stratégique sur les sujets transverses. 4. Contribution à l’organisation produit Participer au fonctionnement en mode produit. Contribuer aux phases de recette et validation des évolutions. Assurer le pilotage en l’absence du Product Owner. Suggérer des évolutions fonctionnelles et des optimisations. 5. Cadrage et activation de parcours digitaux Participer à la conception et au cadrage des parcours digitaux. Accompagner la digitalisation des parcours pour les marchés. Challenger les prérequis fonctionnels et data nécessaires. Paramétrer les outils de configuration des parcours clients et collaborateurs. Suivre la performance des parcours et proposer des ajustements.
2824 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous