L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 431 résultats.
Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)
WorldWide People
Publiée le
Data science
9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Offre d'emploi
Data Scientist (H/F)
QODEXIA
Publiée le
Docker
GitLab CI
MLOps
10 jours
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. MISSION GLOBALE : Notre client est un grand groupe industriel de référence dans le secteur défense & technologies. Dans le cadre du développement d'une V0 sur un projet de détection d'éléments pour le secteur Naval (analyse d'images et flux vidéos), nous recherchons un Data Scientist Senior à forte séniorité et capacité de leadership. Vous participerez activement à la phase de scoping et au cadrage des besoins IA avec les équipes métiers, tout en concevant, développant et validant des solutions algorithmiques de Computer Vision/DRI et en assurant le cycle de vie complet des modèles (MLOps) dans un environnement de sprint condensé.
Mission freelance
Architecte Data DevOps / FinOps (Expertise GCP)
Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD
6 mois
650 €
Paris, France
Contexte de la mission Au sein d'une grande entité du secteur de l'énergie, vous interviendrez en tant qu' Architecte Data transverse avec une double expertise DevOps et FinOps . Votre rôle sera stratégique : concevoir des architectures cloud robustes, définir les standards d'urbanisation (Data, IA, MLOps) et piloter l'optimisation des coûts dans un environnement hybride et multi-cloud, avec un focus majeur sur GCP . Missions principales 1. Architecture & Urbanisation Définir les standards d'architecture et les règles d'urbanisation pour les domaines Data, IA, DevOps et MLOps. Concevoir et mettre en œuvre des architectures de données cloud performantes. Rédiger, maintenir et diffuser les bonnes pratiques (Data, On-Premise, Cloud et DevOps). Assurer la gouvernance des modèles et encadrer l'usage des LLM tout en gérant les risques éthiques et réglementaires. 2. Expertise DevOps & MLOps Industrialiser les pipelines de données et de Machine Learning (ML Pipelines). Superviser l'orchestration et la conteneurisation des services. Garantir la mise en œuvre des principes CI/CD et GitOps dans des environnements complexes. 3. Stratégie FinOps & Performance Intégrer les principes FinOps dès la conception (Architecture by design). Optimiser spécifiquement les coûts liés au Cloud et aux ressources GPU (Plan FinOps dédié à l'IA). Définir des modèles de refacturation interne et préconiser les outils de suivi de performance pour superviser les pipelines. Expertise Technique Requise Cloud : Maîtrise avancée de Google Cloud Platform (BigQuery, Composer, Airflow, DataProc, DataFlow). Infrastructure as Code & CI/CD : Terraform, Ansible, Git, Jenkins, GitLab-CI, GitOps, Helm. Conteneurisation : Docker, Kubernetes. Observabilité : ELK, Grafana, Prometheus, Google Monitoring. Environnement : Expérience significative en environnements hybrides (On-premise / Cloud). Modalités pratiques Lieu : Paris – Présence sur site obligatoire 2 à 3 jours/semaine . Date de démarrage : 01/06/2026. Date de fin : 31/12/2026 (Visibilité long terme). Prix d’achat max : 650 € HT / jour.
Offre d'emploi
Data Engineer (Bordeaux)
CAT-AMANIA
Publiée le
Agent IA
DBT
ETL (Extract-transform-load)
3 mois
40k-45k €
100-350 €
Bordeaux, Nouvelle-Aquitaine
Intégré ausein de la direction IT Data, vous viendrez apporter votre expertise technique sur des sujets récents autour de l'IA pour la data. En tant que Data Engineer, et en coordination avec le reste de l'équipe, vous serez amené à : - Effectuer des alimentations de données, - Travailler en binôme avec un Data Analyst sur un sujet IA/Data. - Travailler autour d'agent IA pour du requêtage SQL en langage naturelle - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data
Mission freelance
Data Scientist Gen.AI (h/f)
emagine Consulting SARL
Publiée le
1 mois
111 €
France
Nous recherchons un Data Scientist Gen AI pour contribuer au développement de solutions innovantes basées sur l'IA générative. Le candidat idéal doit posséder une expertise en IA générative et en machine learning, ainsi qu'une aptitude avérée à créer des applications conversationnelles efficaces dans un cadre international. Missions principales : Concevoir et développer des solutions conversationnelles basées sur des modèles d’IA générative. Participer à l’architecture technique et au choix des frameworks tels que les LLMs, orchestration, RAG et fine-tuning. Implémenter des systèmes agentiques lorsque pertinent, y compris des multi-agents, l’utilisation d'outils et des chaînes de raisonnement. Mettre en place des pipelines robustes pour la collecte de données, la vectorisation, le monitoring et l’évaluation. Optimiser la performance, la fiabilité et la sécurité des réponses générées par les systèmes. Collaborer activement avec les équipes interfonctionnelles pour atteindre les objectifs de projet. Profil recherché : Anglais opérationnel pour un contexte international. Expérience confirmée en IA générative. Compétences confirmées en machine learning. Expérience sur le développement de solutions conversationnelles. Gros plus: connaitre le cloud AWS
Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy
Mon Consultant Indépendant
Publiée le
Data analysis
IA
1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
Mission freelance
Développeur Fullstack & MLOps (PHP Laravel / React / IA Integration)
HAYS France
Publiée le
Azure
Docker
Google Cloud Platform (GCP)
3 ans
100-400 €
Strasbourg, Grand Est
Votre mission Votre rôle est crucial : rendre l’IA réellement actionnable en production . Vous intervenez sur toute la chaîne applicative, du backend à l’interface utilisateur, en intégrant des modèles d’IA (LLM, multimodaux…) dans des produits concrets et utilisés. Vos responsabilités principales : Concevoir et développer des applications fullstack robustes et scalables Intégrer des modèles d’IA (LLM, vision, texte, multimodal) dans des workflows applicatifs réels Exposer et consommer des API IA de manière performante et sécurisée Travailler sur la mise en production des modèles et leur exploitation (MLOps) Collaborer avec les équipes Data, Produit et UX pour transformer les cas d’usage IA en fonctionnalités utilisateurs Garantir la qualité, la maintenabilité et la performance des applications
Offre d'emploi
Data Analyst - Bordeaux
OCTOGONE
Publiée le
BI
Google Cloud Platform (GCP)
PL/SQL
9 mois
Bordeaux, Nouvelle-Aquitaine
Contexte Rattaché(e) à l'équipe Data au sein de la R&D d'un ERP Commerce d'un groupe de grande distribution, le/la Data Analyst aura pour mission de manipuler, mettre en qualité et exposer les données aux centrales d'achat du groupe. La mission s'inscrit dans un environnement technologique Cloud (GCP) utilisant des bases de données volumineuses. Description La mission inclut l'écriture et l'optimisation de requêtes SQL complexes pour l'extraction de données. Le consultant participera à la mise en qualité des données lors du déploiement de nouvelles Centrales et assurera une veille sur les outils BI et les principes d'IA générative. Livrables Requêtes SQL optimisées, jeux de données qualifiés pour les reprises de données, et tableaux de bord de visualisation (Looker, Power BI). Compétences Maîtrise avancée de SQL, connaissance de Google Cloud Platform (BigQuery), outils de Business Intelligence, programmation Python et familiarité avec l'IA/Machine Learning.
Offre d'emploi
PRODUCT OWNER IA AGENTIC R&D
SMILE
Publiée le
Méthode Agile
1 an
Paris, France
Contexte : Dans le cadre de nos travaux IA et de notre roadmap, nous lançons plusieurs pilotes autour de l’ IA Agentic en phase d’expérimentation. Nous recherchons un Product Owner pour nous accompagner dans cette démarche de test et R&D , avec un fort rôle d’interface entre les besoins métier et la mise en œuvre technique. Missions : Le PO sera intégré aux équipes IA Client, Conseiller CRC/Opérations et pilotera la démarche avec l’ensemble des équipes : Métier, IT, Data Scientists , ainsi qu’avec des partenaires éditeurs. Ses missions incluront : Interaction forte avec le Top Management : restitution claire et synthétique des avancées, mise en avant de la valeur business générée. Orientation Business : traduire les besoins métier en cas d’usage IA Agentic concrets et mesurables, démontrer la valeur ajoutée attendue et définir comment l’IA Agentic sera déployée. Compréhension de l’Asset et de la techno : maîtrise des concepts IA Agentic pour dialoguer avec les équipes techniques, tout en s’appuyant sur le PO Asset pour la mise en œuvre technique détaillée. Travail avec des éditeurs : cadrer, suivre et évaluer les contributions des partenaires dans le cadre des pilotes IA Agentic. Analyse de la réalité opérationnelle et de la performance : mettre en place des indicateurs de suivi (KPI), analyser les résultats, proposer des ajustements. Pilotage complet : gestion du projet de bout en bout, de l’idéation à l’évaluation des pilotes, avec une autonomie totale.
Mission freelance
Service Delivery Manager – Plateforme DATA / IA
KatchMe Consulting
Publiée le
SLA
6 mois
500-600 €
Issy-les-Moulineaux, Île-de-France
Le Service Delivery Manager intervient au sein d’une direction informatique en charge des infrastructures, de la production et de la supervision des systèmes d’information. Dans un contexte de transformation numérique et d’intégration d’équipes techniques issues de différentes entités, le poste vise à garantir la qualité, la continuité et la performance des services IT fournis aux métiers. Le Service Delivery Manager joue un rôle central dans la coordination entre les équipes métiers, les équipes techniques et la gouvernance des projets. Il veille à l’alignement des services informatiques avec les besoins opérationnels et s’assure du respect des engagements de service. Dans ce cadre, ses principales responsabilités sont : Garantir le respect des engagements opérationnels (OLA) et veiller au respect des engagements de service (SLA) . Participer à la gestion des incidents majeurs et des crises informatiques . Organiser et piloter les retours d’expérience (REX) suite aux incidents majeurs et assurer le suivi des plans d’actions. Assurer la gestion des problèmes selon les bonnes pratiques ITIL , afin d’identifier les causes racines et réduire la récurrence des incidents. Assurer le suivi des indicateurs de performance et produire les reportings associés. Représenter l’équipe dans les instances de pilotage de la qualité de service lorsque nécessaire. Contribuer au maintien en conditions opérationnelles du système d’information . Participer à la validation et à l’évolution du catalogue de services . Être responsable de la documentation opérationnelle relative à la gestion des incidents. Contribuer à l’ amélioration continue des processus RUN , notamment sur les processus de gestion des incidents, des problèmes et des demandes. Dans son rôle opérationnel, le Service Delivery Manager contribue également à : Définir et formaliser la convention de services de la plateforme. Garantir la qualité et la disponibilité des services IT . Maintenir un haut niveau de satisfaction des utilisateurs et des métiers . Optimiser l’utilisation des ressources techniques et organisationnelles . Favoriser une démarche d’amélioration continue basée sur les retours d’expérience et les indicateurs de performance.
Offre d'emploi
Data Architecte - LLMOPS
VISIAN
Publiée le
Kubernetes
Large Language Model (LLM)
Machine Learning
1 an
40k-45k €
400-700 €
Paris, France
Contexte: Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les metiers du Groupe. Un GRID de GPU on premise utilise pourle training et l'inference. Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrasturcutres, des plateformes (kubernetes/openshift) et des produits. Environnement technique: - Docker / Kubernetes / OpenShift / Cloud / Bare Metal - Programmation en python - Shell scipting - GPU Computing Outils de CI/CD DevSecOps/GitOps : hashicorp Vault, gitlab, gitlab-CI, kaniko, keycloak, ansible, Artifactory, ArgoCD, Argo Workflow
Offre d'emploi
Développeur Python (H/F)
Webnet
Publiée le
Python
34k-46k €
Lille, Hauts-de-France
Développeur Python (H/F) 📍 Localisation : Lille 📄 Type de contrat : CDI 💰 Rémunération : 34-46K Selon profil 🚀 Contexte Dans le cadre de notre développement, nous recherchons un(e) Développeur(se) Python disposant de solides compétences en DevOps et d’un intérêt marqué pour la data et/ou l’intelligence artificielle. Vous interviendrez sur des projets innovants à forte valeur ajoutée, mêlant développement, automatisation et exploitation de données. 🎯 Vos missions Concevoir, développer et maintenir des applications en Python Participer à la mise en place et à l’évolution des architectures techniques (CI/CD, cloud, conteneurisation) Automatiser les processus de déploiement et d’exploitation Collaborer avec les équipes data pour intégrer des modèles analytiques ou d’IA dans les applications Assurer la qualité du code (tests, revues, bonnes pratiques) Participer à la veille technologique (Python, DevOps, data, IA)
Mission freelance
Tech Lead / PO Tech – IA & Santé
Axysse
Publiée le
Agent IA
PostgreSQL
React
1 an
400-550 €
Île-de-France, France
Et si votre prochain défi consistait à transformer concrètement le système de santé grâce à la data et à l’IA ? Nous recherchons un profil hybride Tech Lead / Product Owner Tech , capable de structurer, accélérer et faire évoluer une plateforme innovante au cœur des enjeux de santé. 🎯 Votre mission Vous intervenez sur un produit à fort impact, avec un rôle clé à la croisée de la tech, du produit et de la data : Piloter les choix techniques et garantir leur alignement avec les enjeux business Structurer et faire évoluer l’architecture (flux, data, interopérabilité) Encadrer une équipe de développeurs fullstack Organiser et animer les rituels Agile Prioriser le backlog, rédiger les user stories, challenger les estimations Accélérer la delivery avec une approche orientée résultats rapides Contribuer activement à l’intégration de l’IA dans le produit 👉 L’objectif : passer un cap technologique et produit en un temps court , avec un impact mesurable. 🛠 Environnement technique Java, NodeJS VueJS, React PostgreSQL Figma, Retool Environnement cloud (échanges avec hébergeur) 🌍 Contexte Projet avec une dimension internationale Anglais obligatoire Présence sur site requise (3 jours sur site / 2 jours en télétravail) Environnement en forte croissance avec des enjeux structurants
Offre d'emploi
ML Engineer Google Cloud (Python, Vertex AI, BigQuery) – H/F
SMARTPOINT
Publiée le
BigQuery
Google Cloud Platform (GCP)
IA
1 an
50k-70k €
480-640 €
Île-de-France, France
Dans le cadre de l’amélioration de la personnalisation de l’expérience utilisateur , nous constituons une équipe dédiée aux sujets de machine learning et de recommandation en production . Cette équipe data est composée : d’un Product Owner d’un Data Scientist d’un Lead ML Engineer d’un Machine Learning Engineer L’environnement technique repose principalement sur Google Cloud Platform avec notamment : Python Vertex AI BigQuery Cloud Run Airflow API REST Terraform GitLab CI/CD L’objectif est de concevoir, industrialiser et déployer des solutions de machine learning en production , tout en assurant leur performance et leur scalabilité. Missions Au sein de l’équipe data et ML, vous interviendrez sur l’ensemble du cycle de vie des projets de machine learning en production . Cas d’usage et mise en production Concevoir un premier cas d’usage de personnalisation de l’expérience utilisateur Déployer les modèles en production sur Google Cloud Mettre en place des tests A/B pour mesurer l’impact des recommandations Assurer le monitoring et l’évaluation des performances des modèles Industrialisation des modèles IA Concevoir et maintenir des pipelines machine learning robustes et scalables Mettre en place les architectures MLOps Exposer les modèles via des API REST (FastAPI ou Flask) Industrialiser les modèles développés par les Data Scientists Mettre en place des workflows CI/CD Architecture et infrastructure data Structurer et organiser le stockage des données Garantir la scalabilité, la sécurité et la stabilité des environnements Déployer des infrastructures via Infrastructure-as-Code (Terraform) Collaborer avec les Data Engineers et équipes techniques Collaboration et amélioration continue Participer aux phases de cadrage, planification et delivery Contribuer à la documentation technique Réaliser une veille technologique sur les technologies ML et IA Appliquer les bonnes pratiques de développement et d’architecture data
Offre d'emploi
Builder Azure / DevSecOps Data
VISIAN
Publiée le
Azure
Azure DevOps
CI/CD
1 an
Paris, France
L’objectif de la mission est de concevoir, bâtir et sécuriser l’architecture cloud Azure d'un prototype Energy Management System (EMS), tout en préparant une industrialisation future sans dette d’architecture. Missions Concevoir et déployer l’architecture Azure du prototype EMS, incluant : Ingestion IoT & streaming temps réel (Azure IoT Hub, Event Hubs, Eventstream Microsoft Fabric RTI) Traitement temps réel & validation qualité (Eventstream processors, KQL Databases, Quality gate asynchrone < 10s) Stockage différencié (RAW, VALIDATED / CERTIFIED, OneLake & intégration Fabric) Observabilité, sécurité et traçabilité (Azure Monitor, Log Analytics, diagnostics, métriques temps réel, audit de bout en bout) Mettre en œuvre des patterns event-driven & streaming adaptés aux workloads IoT / EMS. Construire une plateforme data temps réel et sémantiquement gouvernée avec Microsoft Fabric, RTI & Fabric IQ : Conception des pipelines (ingestion, enrichissement, filtrage, routing, persistance temps réel) Exploitation des KQL Databases pour agrégations temps réel, détection d’anomalies, corrélation d’événements Mise en place d’actions automatiques via Activator (alertes, workflows) Contribution à la modélisation des entités métier, règles de qualité fonctionnelle et états opérationnels Préparation de l’intégration d’agents intelligents sur données temps réel Assurer la mise en œuvre DevSecOps & Infrastructure as Code : Infrastructure en IaC (Terraform ou Bicep) Pipelines CI/CD (GitHub Actions / Azure DevOps) Gestion des environnements (dev / acc / prod), secrets (Key Vault), identités managées, RBAC, policies Azure Intégration des garde-fous sécurité dès le prototype (least privilege, chiffrement, audit, gouvernance Fabric & Purview) Développer la plateforme data : APIs, streams, endpoints temps réel Microservices de traitement événementiel en Python et/ou Node.js / TypeScript Composants de normalisation et validation qualité, règles métier temps réel, intégration de modèles d’IA (Azure ML) Respect des contraintes fortes : latence end-to-end < 10 secondes, fiabilité, idempotence, gestion des erreurs & backpressure Produire un socle simple, robuste et consommable avec environnements reproductibles et documentés Réaliser des démonstrations régulières à destination des parties prenantes métier et techniques Outils & Environnement Cloud & Architecture : Azure IoT Hub, Azure Event Hubs, Microsoft Fabric RTI, Fabric IQ, OneLake Traitement & Stockage : Eventstream processors, KQL Databases (Eventhouse), Azure Functions, Azure Container Apps Observabilité & Sécurité : Azure Monitor, Log Analytics, Key Vault, RBAC, Managed Identity, policies Azure DevSecOps & IaC : Terraform (préféré) ou Bicep, GitHub Actions, Azure DevOps Développement : Python, Node.js, TypeScript Modélisation & Qualité métier : Fabric IQ, règles métier, qualité fonctionnelle et technique Automatisation : Activator (alertes, workflows) IA & Data Science : Azure Machine Learning (optionnel)
Offre d'emploi
Responsable du Pôle CRM Microsoft Dynamics
FED SAS
Publiée le
60k-70k €
Charenton-le-Pont, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Charenton-le-Pont H/F dans le cadre d'un CDI un Responsable de Pole CRM Microsoft Dynamics H/F. Analyse et accompagnement des besoins métier : Comprendre et analyser les besoins fonctionnels pour les traduire en solutions techniques adaptées. Assurer un rôle de référent CRM auprès des équipes métier et proposer des recommandations pertinentes. Favoriser l'adoption du CRM auprès des équipes locales et internationales. Formation et accompagnement des utilisateurs : Organiser et animer les sessions de formation pour les nouveaux utilisateurs. Assurer la formation continue sur les fonctionnalités existantes et les évolutions du CRM. Accompagner les utilisateurs dans la prise en main et l'optimisation des outils. Conception et développement : Concevoir, développer, configurer et personnaliser les solutions Dynamics 365 selon les besoins métier. Garantir le respect des standards de l'outil et limiter les développements spécifiques. Participer activement à la réalisation technique des projets, en collaboration avec un partenaire externe si nécessaire. Veille technologique et innovation : Suivre les évolutions de l'écosystème Dynamics 365 et Power Platform. Proposer des améliorations et nouvelles fonctionnalités, notamment sur l'automatisation, le marketing et l'intégration de l'IA.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Retour d'expérience démission-reconversion
- Démission pour création d'entreprise rapide
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Offre fictifs et offre non sérieuses
431 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois