L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 594 résultats.
Mission freelance
Ingénieur Middleware / Intégration – APIs & RabbitMQ
Publiée le
API
API REST
Monitoring
2 ans
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un programme CRM de grande envergure , nous renforçons une équipe Middle Office en charge des flux applicatifs, APIs et messaging . La mission s’inscrit dans un écosystème complexe , fortement industrialisé, avec des enjeux de RUN, support et automatisation . Missions principales Développement et maintien d’ APIs REST backend Déclaration, configuration et exploitation d’APIs sur une plateforme d’API Management (APIM) Prise en charge opérationnelle du middleware de messagerie (RabbitMQ) : création et configuration de queues, exchanges, routing keys gestion des erreurs, reprises, monitoring Intervention en support N2 / N3 sur les flux, APIs et composants middleware Analyse des incidents techniques et coordination avec les équipes de développement et de production Contribution à l’ automatisation des tâches techniques liées aux flux, déclarations APIM et MOM Documentation technique et accompagnement des équipes utilisatrices
Offre d'emploi
Développeur Fullstack
Publiée le
API REST
React
3 ans
40k-45k €
300-500 €
Paris, France
Télétravail partiel
Compétences techniques JavaScript & TypeScript : maîtrise des concepts modernes (async/await, modules, types, generics) > Niveau 1 junior Frameworks : Angular ou React en production ; NestJS pour la couche API > Niveau 1 junior Bases de données : • MongoDB : schémas, indexation, agrégations, performance > Niveau 1 junior • SQL : modélisation relationnelle, requêtes optimisées, transactions > Niveau 1 junior Architecture : REST/GraphQL, MVC/CQRS, injection de dépendances, design patterns. > Niveau 1 junior Tests & qualité : TDD/BDD (souhaité), couverture de code, linting (ESLint/Prettier)> Niveau 1 junior Sécurité : authentification, autorisation, validation, protection contre les attaques courantes (XSS/CSRF/Injection) > Niveau 1 junior Python (complémentaire) : scripts data, API légères (FastAPI/Flask), ETL (Pandas).> Niveau 1 junior Performance : profiling, optimisation front/back, mise en cache (Redis). > Niveau 1 junior CI/CD : pipelines, déploiements, gestion des environnements. > Niveau 1 junior
Mission freelance
Expert Technique Cash Management (H/F)
Publiée le
Apache Kafka
Apache Spark
API REST
60 jours
650-750 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un projet existant , vous rejoignez une équipe agile Cash Management , au sein du socle Trésorerie & Paiements d’un grand acteur institutionnel du secteur financier. Vous intervenez en tant qu’ expert technique , avec un fort niveau d’autonomie et un rôle clé dans les décisions techniques. 🛠️ Missions principales : Développement et maintenance d’applications backend à forte criticité Traitement de flux de données (événementiels et fichiers) à grande volumétrie Participation aux choix d’architecture et aux bonnes pratiques techniques Garantie de la qualité, de la performance et de la résilience des applications Supervision et suivi en production 💻 Environnement technique Back-end & Data Apache Spark Scala, Java, Python Akka / Kafka API REST (TYK) SQL DevOps & Qualité Jenkins Kubernetes Docker Sonar Datadog Hadoop
Offre d'emploi
Développeur Api Management
Publiée le
Apigee
Java
1 an
40k-45k €
400-570 €
Paris, France
Télétravail partiel
Descriptif du poste Le bénéficiaire souhaite une prestation de développeur expérimenté Api Management. Les missions sont : Sécurisation d'APIs REST avec la gateway Apigee Développement et support au développement d'APIs REST en Java avec Spring Boot Participation aux rituels Agiles Gestion des déploiements des APIs sur Apigee Maintien et développement des scripts Apigee et des applications Java utilisées par Apigee ou des briques de sécurités Suivi de l'équipe sur ses tâches techniques et montée en compétence des juniors
Offre d'emploi
EXPERT IAM KEYCLOAK / MULESOFT ET API
Publiée le
API REST
IAM
Keycloak
12 mois
50k-70k €
400-590 €
Île-de-France, France
Contexte Dans le cadre de la mise en œuvre d’API d’authentification forte conformes à la DSP2, le Groupe renforce son dispositif IAM. La mission s’inscrit dans un environnement à forts enjeux de sécurité. Descriptif de la mission Conception et développement des API d’authentification forte DSP2 Implémentation et configuration de Keycloak (OIDC, OAuth2, SSO, fédération) Intégration avec MuleSoft pour l’orchestration des flux API Sécurisation des échanges (tokens, scopes, gestion des accès) Tests, documentation et support technique Profil recherché Expertise IAM Keycloak (authentification, fédération, OAuth2/OIDC) Bonne maîtrise de MuleSoft et des API REST Expérience sur des sujets DSP2 / SCA ou environnements bancaires Profil autonome, orienté delivery et sécurité
Offre d'emploi
Profil Développeur / API Platform
Publiée le
Apigee
Node.js
OpenAPI
24 mois
Paris, France
Contraintes fortes du projet Le livrable est défini dans le cadre du projet Compétences techniques requises Python – Confirmé – Impératif GitLab CI/CD – Confirmé – Impératif Apigee (ou équivalent API Management) – Confirmé – Important OpenAPI / Swagger – Expert – Important Connaissances linguistiques Français : Courant – Impératif Anglais : Professionnel – Impératif Description détaillée – Définition du profil Au sein de l’équipe API Platform , la mission consiste à contribuer activement à l’amélioration de la plateforme API afin de faciliter et standardiser la production et la consommation d’API au sein du groupe. Missions Diriger la conception, le développement et la mise en œuvre de la gouvernance API et des solutions associées. Collaborer avec des équipes pluridisciplinaires pour définir les exigences et spécifications des API. Garantir que les API sont sécurisées, évolutives et conformes aux meilleures pratiques du marché. Encadrer et accompagner les développeurs en apportant leadership et support technique. Superviser les processus de tests, de déploiement et de maintenance des API. Évaluer et améliorer en continu la performance et la fiabilité de la plateforme API. Porter et faire respecter les décisions techniques au profit de la communauté. Assurer une veille technologique sur les tendances et innovations liées aux API. Challenges Automatisation des processus de publication et de documentation des API (IA générative, pipelines CI/CD, etc.). Compétences et skills attendus Techniques & Architecture Expérience en API Management (Apigee ou solution équivalente). Excellente compréhension des API REST / OpenAPI . Connaissance de l’ Infrastructure as Code (Terraform). Expérience en architecture serverless AWS (Lambda, API Gateway, DynamoDB). Mindset DevOps / SRE (automatisation, observabilité). Conception et développement de pipelines CI/CD . Capacité à travailler en autonomie.
Mission freelance
Lead Tech – Expert SharePoint SE & Architectures Modernes
Publiée le
API
SharePoint
3 ans
Lyon, États-Unis d'Amérique
« Gestion et Partage de l’Information » (GPI), responsable des espaces documentaires et des solutions collaboratives : Intranet, Extranet, Annuaire et espaces de travail des collaborateurs, reposant sur le socle applicatif SharePoint. Ce projet stratégique vise à moderniser la gestion des connaissances en s’appuyant sur SharePoint SE, tout en développant une interface front-end indépendante et des services API pour garantir une interopérabilité optimale et une forte évolutivité. Concevoir une interface front-end découplée connectée à SharePoint SE via API EasyService. Superviser l’intégration des API et la communication entre front et SharePoint SE. Mettre en place les mécanismes pour la consommation des assurer la qualité des livrables. > Architecture validée et documentée. > Front-end opérationnel connecté à SharePoint SE via API. > Plan d’intégration IA pour la consommation documentaire. > Documentation technique
Offre d'emploi
Client Master Data Lead
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
Dans le cadre d'un projet de transformation des données piloté par un Data Office central, nous avons développé un Référentiel Client partagé pour garantir la cohérence, l'interopérabilité et la fiabilité des informations clients à travers toutes les entités. Dans un contexte de forte croissance par fusions-acquisitions, chaque ligne métier exploite actuellement ses propres systèmes d'information et bases de données clients. L'étape stratégique suivante consiste à déployer et intégrer ce Référentiel Client à l'échelle de l'organisation, permettant une gestion unifiée des données clients et soutenant les processus et analyses transversaux. Pour y parvenir, nous recherchons un professionnel en Master Data Management qui pilotera la stratégie de déploiement, la coordination et l'intégration du Référentiel Client avec l'ensemble des lignes métiers. Objectifs et livrables Le Client Master Data Lead sera responsable de : Définir et exécuter la stratégie de déploiement du Référentiel Client à travers toutes les entités. Agir en tant que coordinateur central entre l'équipe Data Office, l'IT et les lignes métiers pour assurer une intégration et une adoption réussies. Impulser l'alignement sur les modèles de données clients, les règles de gouvernance des données et les interfaces techniques. Gérer le planning du programme, les priorités et la communication avec les parties prenantes. Mettre en place et maintenir un reporting structuré pour suivre les avancées, identifier les risques et fournir une visibilité claire à la direction Data Office et au Comité Exécutif sur l'évolution de l'initiative. Responsabilités principales # Stratégie et Gouvernance : - Définir la feuille de route de déploiement et l'approche (par phases, incrémentale, par entité ou par domaine métier). - Accompagner la définition du modèle opérationnel cible pour la gestion des données clients (rôles, responsabilités, processus). - Identifier et gérer les risques, dépendances et besoins en gestion du changement. - Concevoir et maintenir un cadre de reporting au niveau programme, incluant KPIs, tableaux de bord et indicateurs d'avancement alignés sur les priorités du Data Office. #Coordination et Gestion de Projet : - Servir de point de contact unique entre l'équipe centrale du référentiel et les équipes IS/métiers locales. - Coordonner les projets d'intégration avec chaque entité : onboarding technique, mapping, migration et synchronisation des données clients. - Suivre les avancées, produire des rapports réguliers et des synthèses exécutives, et assurer la qualité de livraison et le respect des délais. - Animer les comités de pilotage et groupes de travail, en consolidant les mises à jour d'avancement et les prochaines étapes. - Garantir la traçabilité des décisions, actions et avancées à travers l'ensemble des flux de projet. # Expertise Technique et Fonctionnelle : - Contribuer à la définition des modèles de données, règles de matching & déduplication, et mécanismes d'intégration (APIs, ETL, etc.). - Accompagner les équipes techniques dans la mise en œuvre des interfaces et flux de données entre les systèmes locaux et le Référentiel Client. - Contribuer à la définition et au suivi des règles de mapping des données, Nettoyage des Données et Migration. # Gestion du Changement et Adoption : - Promouvoir la valeur et les bénéfices du Référentiel Client au sein de l'organisation. - Accompagner les équipes métiers dans l'adaptation de leurs processus et outils pour consommer et maintenir les données maîtres clients. - Contribuer à la conception de supports de formation, communication et reporting adaptés aux différents publics (exécutif, métiers, technique).
Mission freelance
Référent Technique – Dataiku & Braincube
Publiée le
AI
API
AWS Cloud
6 mois
400-600 €
Malakoff, Île-de-France
Télétravail partiel
Langues : Français, Anglais (obligatoire – échanges avec l’Inde) Séniorité : Senior (environnements data/ML/Cloud) Plateforme Dataiku en environnement hybride : Cloud AWS + On Premise pour données C3 Services : Design Node, Automation Node, API Node, Deployer Node Intégration écosystème Data, stockage pérenne, déport compute EKS / Snowflake Plateforme Braincube : Déploiement Cloud AWS sur EKS Architecture assurée par l’éditeur Braincube Le client responsable du service, de la sécurité et du pilotage Sécurité & Gouvernance : RBAC, SSO/IAM, journalisation, conformité RGPD Standards cybersécurité de client Documentation & Outils : VS Code, Git, frameworks internes Confluence/SharePoint Data Factory Gestion agile via Teams & backlog Environnements : Dev / Pré-production / Production Processus d’industrialisation et de validation définis Prestation Attendue : Pilotage & gestion du service Maintien des standards, gestion des licences, suivi des usages via KPIs Gestion incidents, demandes, changements ; communication interne & client Définition et suivi des SLAs Optimisation de la performance opérationnelle Architecture & Expertise technique Rôle de référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) Garantie de la résilience du service, gestion des obsolescences Contrôle du niveau de sécurité Roadmap & gouvernance Construction de la roadmap d’évolution Pilotage du plan de charge Coordination France/Inde (prestataires, éditeur, interne) Communication & coordination Communication en cas d’incident, évolution ou maintenance Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) Support & accompagnement Accompagnement des équipes dans l’exploitation Dataiku/Braincube Contribution à la montée en compétence des équipes
Mission freelance
Développeur Java Angular IA
Publiée le
Angular
API REST
Java
12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Développeur Java Angular" pour un client dans le secteur bancaire Description 🤖 Le Contexte : L’Industrialisation de l’IA Générative Au sein de la IA Gen Factory , nous passons du stade de l'expérimentation à celui de l'industrialisation. Notre mission est de transformer les processus métiers du Groupe en intégrant l’IA générative au cœur de nos applications. Nous recherchons un Développeur Fullstack confirmé , capable non seulement de coder, mais aussi d'agir en véritable partenaire des métiers. Vous devrez investiguer leurs besoins, identifier les opportunités d'accélération opérationnelle et proposer des solutions innovantes basées sur les Large Language Models (LLM) en toute autonomie. 🎯 Vos Missions : Concevoir, Livrer et Optimiser Votre rôle couvre l'ensemble du cycle de vie des produits IA, de l'idéation à la mise en production. 1. Conception & Architecture : Définir l’architecture logicielle (Front Angular, Back Java/Spring Boot, services LLM). Rédiger les spécifications fonctionnelles et techniques. Estimer les charges et organiser votre backlog en autonomie. 2. Implémentation & Ingénierie IA : Développer les composants applicatifs et orchestrer les appels API LLM. Mettre en place des architectures RAG (Retrieval-Augmented Generation) . Gérer les embeddings, les bases de données vectorielles (Vector Stores) et la recherche sémantique. Maîtriser le Prompt Engineering , les Guardrails et les systèmes d'évaluations automatiques de prompts. 3. DevOps & Performance : Automatiser la CI/CD (GitLab, Jenkins, OpenShift). Superviser la performance des modèles en production. Optimisation critique : Maîtriser les coûts et la latence des appels LLM. Assurer la sécurité et la conformité (OAuth2, RGPD, Data Masking).
Mission freelance
Data Engineer | DevOps AWS (H/F)
Publiée le
AWS Cloud
CI/CD
Data analysis
9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Offre d'emploi
Développeur Python FAST API / FLASK
Publiée le
Docker
FastAPI
Flask
3 ans
40k-65k €
100-550 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Fiche de poste – Développeur IA (H/F) Localisation : Issy-les-Moulineaux Secteur : Assurance Type de mission : CDI / Freelance Contexte : Multi-projets – organisation agile et adaptative Contexte de la mission Dans un environnement assurance en forte transformation digitale, le Développeur IA intervient au sein d’équipes pluridisciplinaires sur plusieurs projets à forte valeur ajoutée autour de l’ Intelligence Artificielle et de la data . L’organisation est adaptative et orientée priorités business Le consultant évolue dans un cadre multi-projets , avec une forte interaction entre les équipes IT, Data, Produit et Métiers. Environnement technique / Stack Langage : Python Frameworks API : Flask, FastAPI Traitement asynchrone : Celery Validation & modélisation des données : Pydantic CI/CD : GitLab CI Conteneurisation : Docker Orchestration : Kubernetes Architecture : Micro-services, API REST Méthodologies : Adaptative / Agile / Cycle en V / En fonction des priorités Profil recherché Formation Bac+5 (école d’ingénieur ou université) Expérience confirmée en développement Python Bonne compréhension des enjeux d’industrialisation IA À l’aise dans des environnements multi-projets et évolutifs Sens des priorités et forte capacité d’adaptation Bon relationnel et esprit collaboratif
Mission freelance
Ingénieur Big Data / Cloudera – Automatisation & Production (H/F)
Publiée le
Apache Kafka
3 ans
Île-de-France, France
Le service réalise le développement de l'ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Environnement technique : Ansible Apache NiFi Hadoop (Big Data) Kafka Scripting (GuitHub, Ansible, AWX, shell, vba)
Offre d'emploi
Architecte IAM / IGA – Migration SailPoint vers Microsoft Entra ID Governance (H/F)
Publiée le
API REST
Microsoft Entra ID
Powershell
3 ans
58k-75k €
500-650 €
Île-de-France, France
Télétravail 100%
Contexte & Enjeux Dans le cadre de la transformation de son écosystème IAM Groupe, un grand compte international renforce son équipe Cybersécurité / Identity & Access Management. La mission consiste à piloter l’architecture et la stratégie de migration IGA , avec pour objectif le décommissionnement progressif de SailPoint (IdentityIQ / IdentityNow) au profit des fonctionnalités natives de Microsoft Entra ID Governance , tout en maintenant un haut niveau de sécurité, de conformité et de gouvernance des accès. Vous intervenez en référent technique et architecte solution , avec une forte exposition internationale. 1. La Mission Au sein de l’équipe Cybersécurité / IAM Groupe, vous êtes responsable de : La définition de l’architecture cible IGA dans Microsoft Entra ID La stratégie de migration depuis SailPoint La garantie de conformité, sécurité et robustesse des processus d’identités et d’accès dans le nouvel environnement Microsoft 2. Responsabilités Clés Architecture & Cadrage (Design Authority) Définir l’architecture cible Entra ID (RBAC, ABAC) en remplacement des modèles SailPoint Réaliser la Gap Analysis entre SailPoint (IIQ / IdentityNow) et Entra ID Governance Lifecycle Workflows Entitlement Management Access Reviews Concevoir les stratégies de Role Mining et la refonte du catalogue de services IGA Pilotage de la Migration Orchestrer la migration des processus JML (Joiner / Mover / Leaver) vers les Lifecycle Workflows Entra Migrer les campagnes de recertification et les règles de Séparation des Tâches (SoD) Piloter l’intégration des applications : SaaS Legacy / On-prem (via Entra Private Access ou Application Proxy) Conduite du Changement & International Travailler avec les équipes US, EMEA et APAC pour adapter les workflows aux contraintes locales Interagir avec les parties prenantes : Business Owners, Audit, CISO Animer des ateliers d’architecture en anglais
Mission freelance
Data Scientist Senior
Publiée le
Google Cloud Platform (GCP)
Python
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Mission freelance
Consultant(e) D365 Logistique – Intégration API/EDI (H/F)
Publiée le
Microsoft Dynamics
8 mois
400-550 €
La Défense, Île-de-France
Télétravail partiel
Notre client recherche un consultant spécialisé en Dynamics 365 Finance & Operations (D365 F&O) – Module Logistique, pour développer une intégration API/EDI entre son ERP D365 et le WMS (Warehouse Management System) d’un fournisseur externe. L’objectif est d’automatiser les flux de données (commandes, stocks, traçabilité, sérialisation) entre les deux systèmes, en garantissant la fiabilité et la performance des échanges. Missions Principales Analyse & Conception Comprendre les besoins métiers (logistique, sérialisation, gestion des stocks). Cartographier les flux entre D365 Logistique et le WMS externe. Définir l’architecture technique (API REST/SOAP, EDI, webhooks, etc.). Rédiger les spécifications fonctionnelles et techniques. Développement & Intégration Développer l’API/EDI dans D365 F&O (X++, Power Platform, Azure Logic Apps, Azure Functions). Configurer les connecteurs (Azure Service Bus, Data Lake, etc.) si nécessaire. Tester les échanges (unitaires, intégration, performance). Documenter les développements et les procédures. Pilotage & Collaboration Travailler en étroite collaboration avec les équipes D365 , logistique et le fournisseur WMS . Assurer le suivi du projet (planning, risques, livrables). Former les utilisateurs finaux si nécessaire. Maintenance & Support Corriger les anomalies post-déploiement. Optimiser les performances si besoin.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
594 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois