L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 507 résultats.
Mission freelance
Data Scientist (Modélisation statistique, reinforcement learning)-(h/f)
emagine Consulting SARL
Publiée le
36 mois
500-650 €
95700, Roissy-en-France, Île-de-France
Le poste de Data Scientist se concentre sur la modélisation statistique et l'apprentissage par renforcement, visant à renforcer une équipe déjà existante avec un expert capable de concevoir des modèles prédictifs tout en étant capable de contribuer à des mises en production. Responsabilités : Développer et affiner des modèles statistiques pour améliorer la prise de décision. Appliquer des techniques d'apprentissage par renforcement dans des projets d'optimisation. Collaborer avec les équipes de production pour mettre en place des modèles efficaces. Utiliser des outils de data science pour générer des insights à partir des données. Communiquer clairement les résultats de la modélisation aux parties prenantes. Must Have : Expérience significative en modélisation statistique. Expérience avec des moteurs de recommandation. Apprentissage par renforcement (reinforcement learning) Maîtrise de l'anglais. ( entretien en anglais ) Nice to Have : Connaissances en systèmes basés sur le cloud, en particulier GCP. Compétences en industrialisation de modèles. Solides compétences en data science et machine learning. Thèse de doctorat (PhD) en domaine pertinent. Autres détails : Urgence : ASAP. Lieu de travail : Roissy , 95700 Télétravail : 3 jours par semaine, 2 jours sur site
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F
DSI group
Publiée le
Azure Data Factory
Azure DevOps
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Mission freelance
Data Engineer Python / Azure Cloud (H/F)
Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Mission freelance
Data Migration Lead (SAP S/4HANA Greenfield)
HOXTON PARTNERS
Publiée le
Data management
3 ans
680-900 €
Paris, France
Contexte : Nous recherchons un Data Architect / Data Migration Lead pour rejoindre l’équipe Data & AI d’un acteur majeur de l’industrie des boissons, reconnu pour la qualité de ses produits et sa présence internationale. Missions principales : Piloter et coordonner le stream Data Migration dans le cadre d’un projet SAP S/4HANA Greenfield. Définir la stratégie de migration de données et assurer son alignement avec les autres streams du programme. Planifier, suivre et assurer le reporting des activités de migration. Coordonner les différentes parties prenantes (équipes techniques, fonctionnelles, métiers) sur les phases d’extraction, transformation et chargement des données. Superviser la conception et le développement des programmes de migration. Organiser et suivre les mocks de migration (planning, exécution, reporting). Compétences recherchées : Expertise en migration de données SAP (S/4HANA, Greenfield) . Solides connaissances en Data Architecture, Data Access, Data Taxonomy . Expérience en pilotage transverse avec équipes techniques et métiers. Très bon niveau d’anglais. Modalités : Mission longue durée (21 mois). Localisation : Paris, avec 2 jours de télétravail par semaine. 📩 Si vous êtes intéressé(e), merci de me contacter en partageant votre CV actualisé et vos disponibilités. 📍 Lieu : Paris (2 jours de télétravail par semaine) 🌐 Langue : Anglais (obligatoire)
Offre d'emploi
Expert Data & Cloud Azure (H/F)
Amiltone
Publiée le
Azure
Cloud
40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un Expert Data & Cloud Azure : Objectifs de la mission - Migrer une application data existante vers une architecture cloud Azure moderne - Améliorer les performances, la sécurité et la supervision - Mettre en place des pipelines data robustes et automatisés - Garantir la fiabilité et la maintenabilité de la solution Responsabilités principales - Analyser l'existant et définir l'architecture cible sur Azure - Concevoir et implémenter des pipelines ETL / ELT avec Azure Data Factory / Fabric - Migrer les données et traitements Oracle vers le cloud - Mettre en place les bonnes pratiques DevOps (CI/CD) via GitLab et/ou Azure DevOps - Assurer la supervision des flux et plateformes (monitoring, logs, alertes) - Implémenter les mécanismes de sécurité (RBAC, chiffrement, conformité) - Moderniser et automatiser les scripts et traitements legacy - Rédiger la documentation technique et accompagner le transfert de compétences Compétences techniques requises - Excellente maîtrise de Microsoft Azure - Azure Data Factory / Fabric - Services data et intégration cloud - Forte expérience en migration de solutions data vers le cloud - Expertise confirmée sur bases de données Oracle - Bonne connaissance des pratiques CI/CD et DevOps - Expérience en supervision et sécurisation d'applications cloud
Mission freelance
SAP Tech Lead BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un SAP Tech Lead BTP / Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de piloter techniquement les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: Gérer techniquement le travail autour de SAP BTP, Integration Suite, APIs et l'interfaçage avec les systèmes legacy. • Définir et sécuriser les solutions d'intégration : APIs, événements, fichiers, middleware et sécurité des échanges. • Superviser les activités de conversion de données : mappage source/cible, règles de transformation, qualité, reprises et basculement. • Contribuer à la mise en œuvre de sujets critiques et soutenir les équipes projet sur les normes techniques. • Produire des recommandations de gouvernance d'architecture et de développement en ligne avec les principes Clean Core. Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec mappage, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes.
Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st
WorldWide People
Publiée le
DevSecOps
12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Mission freelance
Data Steward (H/F)
Insitoo Freelances
Publiée le
BI
SAP BW
2 ans
350-450 €
Lyon, Auvergne-Rhône-Alpes
Les missions attendues par le Data Steward (H/F) : Dans le cadre d’une transformation vers une plateforme data moderne (migration d’un environnement décisionnel type SAP BW vers Snowflake), nous recherchons un Data Steward spécialisé Finance pour accompagner les équipes métier et IT dans la structuration et l’évolution de ses environnements data. Le rôle se situe dans une phase de structuration du dispositif data et combine gestion de projet, expertise fonctionnelle Finance, et coordination transverse. Missions principales : Pilotage & Coordination Cadrer les besoins métiers et définir les périmètres projet. Coordonner les acteurs Finance, IT, Data Engineering et BI. Suivre l’avancement, identifier les risques et garantir l’alignement global. Assurer la production d’une documentation claire et structurée. Expertise fonctionnelle Finance Recueillir, formaliser et challenger les besoins Finance / Contrôle de Gestion. Rédiger les spécifications fonctionnelles et les traduire en exigences techniques. Participer aux phases de tests (IT & UAT). Accompagner les utilisateurs: recette, formation, support.
Mission freelance
Data Manager Lead – GO Data
ALLEGIS GROUP
Publiée le
Data governance
1 an
Paris, France
GO Data renforce son pôle Data Management afin d’accélérer la structuration, la gouvernance et l’efficacité des pratiques Data, notamment dans le cadre du programme BI & Analytics Strengthening (BigUp) et du déploiement des standards Data by Design. Nous recherchons un(e) Data Manager Lead pour piloter les initiatives clés, accompagner les Data Owners et Data Stewards, et garantir une gouvernance Data robuste, cohérente et alignée avec la stratégie Groupe. MISSIONS : 🔹 Pilotage du programme BigUp (BI & Analytics strengthening) Piloter le projet BigUp incluant : rationalisation des périmètres BI, standardisation des pratiques, amélioration des modèles de delivery, opérationnalisation du nouvel operating model. Coordonner les parties prenantes métiers, IT, data et transformation. 🔹 Gouvernance BI & Analytics en mode BAU Manager la gouvernance opérationnelle et maintenir les frameworks en place. Produire et mettre à jour les artefacts de gouvernance (inventaires, reporting, suivis). 🔹 Déploiement et application des Standards Data Renforcer la stratégie Data en garantissant l’application des standards : Data Governance Policy Data Quality Framework Data By Design Framework Documentation Data (modèles, glossaires, dictionnaires…). Construire et maintenir des modèles de données robustes et cohérents. 🔹 Data by Design & accompagnement projets Participer concrètement au processus Data by Design avec Data Architects, DPO et équipes projets. S’assurer que les exigences Data (qualité, sécurité, documentation, gouvernance) sont intégrées dès la conception. 🔹 Support aux Business Data Owners & Data Stewards Agir en Data Ambassador pour les accompagner dans la mise en œuvre des frameworks de gouvernance. Aider les domaines métiers (dont HR Data Domain) à monter en maturité.
Offre d'emploi
Consultant SAP Data Migration (H/F)
Scalesys
Publiée le
1 mois
55k-75k €
700-1 200 €
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
Mission freelance
SAP Senior Developer BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un Développeur SAP BTP / CPI senior - Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de d'intervenir techniquement sur les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: • Développer et maintenir des flux d'intégration autour de SAP BTP et de l'Integration Suite, en lien avec SAP, les systèmes legacy et les systèmes satellites. • Mettre en œuvre des interfaces techniques basées sur API, événements, fichiers ou middleware, selon les schémas définis par le projet. • Effectuer des activités de conversion de données • Contribuer aux tests techniques, aux tests d'intégration et à la correction des bugs • Documenter les développements réalisés et participer au transfert de connaissances aux équipes internes Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec cartographie, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes
Offre d'emploi
Data Analyst experimenté -Nantes (F/H)
Argain Consulting Innovation
Publiée le
Microsoft SQL Server
SQL
Teradata
9 mois
40k-45k €
400 €
Nantes, Pays de la Loire
Nous recherchons un(e) Consultant(e) Data orienté(e) à la fois Business et Technique. 🎯 Missions Assurer la communication avec les entités métiers clientes et leurs filiales ayant des besoins en jeux de données Promouvoir l’offre de service et élaborer les supports/éléments de communication associés Mettre en place et piloter les KPI de performance du service, ainsi que les plans d’amélioration continue Recueillir et analyser les besoins clients (expression de besoin, étude d’impacts) Accompagner les métiers dans l’identification et la formalisation des données nécessaires, en conformité avec les règles de gestion applicables Définir et mettre en œuvre les contrôles d’exploitabilité et d’accessibilité des données, en coordination avec les équipes en charge de la gouvernance et les instances d’usage Identifier les entrepôts ou sources de données pertinents en fonction des besoins Structurer la documentation des différents dossiers dans une logique de capitalisation et de transmission Organiser la recette des jeux de données avec les métiers et les utilisateurs Contribuer à l’industrialisation de certains cas d’usage métiers
Offre d'emploi
Data engineer informatica expérimenté H/F
TOHTEM IT
Publiée le
40k-45k €
Toulouse, Occitanie
Pour un client, nous recherchons un·e Data Engineer Informatica expérimenté·e . Tu interviens sur un environnement data structurant avec un objectif clair : challenger les modèles de données et les flux existants, les optimiser et les rendre plus robustes . Le contexte technique évolue vers Informatica Cloud : tu seras donc amené·e, au fil des sujets, à manipuler de plus en plus IICS en complément de PowerCenter. Tes missions Analyser et challenger les modèles de données Revoir les flux ETL Informatica pour : améliorer les performances simplifier les traitements renforcer la qualité des données Concevoir des solutions pérennes et industrialisées Intervenir sur des problématiques complexes de production Travailler avec les équipes métier, architecture et data Être force de proposition sur les choix techniques ➡ Dans le cadre de la mission, tu toucheras progressivement à : Informatica Cloud (IICS) nouveaux patterns d’intégration architectures data plus modernes
Mission freelance
Chef de Projet Marketing éditorial / d’Influence
Cherry Pick
Publiée le
Branding
Market data
Marketing
12 mois
300-380 €
Île-de-France, France
Responsabilités clés Définir la feuille de route Influence et Opérations Spéciales alignée avec les objectifs éditoriaux. Imaginer et concevoir des dispositifs d’influence et des opérations spéciales innovants à fort impact. Négocier, cadrer et piloter les collaborations avec partenaires et créateurs. Mettre en place et suivre les campagnes d’influence et opérations spéciales. Analyser les résultats, formuler des recommandations et produire des bilans numériques. Assurer une veille active sur les tendances social media, plateformes et créateurs. Maintenir à jour le planning prévisionnel des temps forts et programmes phares. Contribuer à l’amélioration du suivi des performances en collaboration avec la data. Compétences et expertises requises Expérience confirmée (4-5 ans minimum) en marketing d’influence, social media, brand content. Connaissance approfondie des médias, plateformes digitales, VOD et enjeux éditoriaux. Excellentes qualités rédactionnelles, orthographe et grammaire irréprochables. Capacité à travailler de manière transversale et en équipe. Esprit analytique et de synthèse, gestion de projet structurée et rigoureuse. Maîtrise des outils collaboratifs : Trello, Slack, Teams, Klaxoon. Connaissance d’outils d’analytics (AT Internet / Piano Analytics) appréciée.
Mission freelance
Developpeur .NET - Rennes
Tenth Revolution Group
Publiée le
.NET
Azure
Microsoft Dynamics
6 mois
100-400 €
Rennes, Bretagne
Développeur .NET - Rennes Dans le cadre d’un projet de modernisation des flux d’intégration pour l’un de nos clients, nous recherchons un Développeur .NET expérimenté afin d’intervenir sur la refonte de flux existants entre Dataverse et Dynamics 365 Finance & Operations . Démarrage ASAP. Déplacements sur site à Rennes. Durée : quelques mois. Missions Au sein de l’équipe technique, votre mission consistera à : Remplacer des flux existants Power Automate reliant Dataverse et Dynamics 365 F&O . Concevoir et développer des Azure Functions permettant de gérer ces intégrations. Analyser les flux Power Automate existants afin de comprendre la logique métier et technique. Mettre en place des mécanismes d’échange de données robustes entre Dataverse et D365 F&O . Participer aux phases de conception technique et proposer des solutions optimisées dans l’écosystème Azure. Profil recherché Compétences requises : Solide expérience en développement .NET (C#) Expérience avec Microsoft Azure , notamment le développement d’ Azure Functions Bonne compréhension des architectures d’intégration et des APIs Compétences appréciées : Expérience avec la Power Platform , notamment Power Automate Connaissance de Dataverse (lecture / écriture de données) Expérience avec Dynamics 365 Finance & Operations Environnement technique .NET / C# Microsoft Azure Azure Functions Power Platform / Power Automate Dataverse Dynamics 365 Finance & Operations
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3507 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois