Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Logic Apps
Votre recherche renvoie 9 résultats.
Mission freelance
Ingénieur Production / Exploitation Cloud Azure / Monitoring / Supervision / Automatisation
UCASE CONSULTING
Publiée le
Azure
Azure Logic Apps
6 mois
500-580 €
Paris, France
Bonjour, Pour le compte de notre client, nous recherchons un Ingénieur production / exploitation cloud azure.. Objectif du poste : Assurer l’accompagnement RUN des applications sur le Cloud Azure, incluant l’exploitation quotidienne, la supervision, le monitoring et la mise en place d’alertes. Ce rôle vise à transférer les compétences aux équipes client et à garantir la continuité et la fiabilité des applications dans un environnement cloud. Missions principales : Accompagner l’équipe Exploitation (6 personnes) dans la gestion quotidienne des applications sur Azure. Superviser et piloter les programmes et traitements exécutés sur le cloud (Azure Monitor, Application Insights, Logic Apps). Définir et mettre en place des alertes, dashboards et tableaux de bord pour le suivi des métriques clés. Développer et maintenir des scripts d’automatisation (Azure Automation Runbooks, Azure Functions) pour optimiser les flux, purger les DLQ ou scaler dynamiquement les workers. Être force de proposition pour améliorer les processus d’exploitation et de monitoring. Transférer les compétences à l’équipe pour qu’elle devienne autonome sur le RUN et le monitoring.
Offre d'emploi
Business Analyst / Data Analyst
R&S TELECOM
Publiée le
Apache Airflow
Azure Logic Apps
ETL (Extract-transform-load)
1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Pour l’un de nos clients, cette mission consistera par l’accompagnement du lancement d’un projet interne stratégique destiné à doter ses équipes commerciales d’un outil de pilotage centralisé axé sur la donnée. Tâches à réaliser : Recueillir et formaliser les besoins métier des équipes Sales / Sales Ops (indicateurs, rapports, cas d’usage). Analyser les sources de données existantes (dont Salesforce) et comprendre le business data model actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion / Canonical / Shared Data Model. Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place : Fabric Pipeline, dbt, Alteryx, Airflow, LogicApps, PowerAutomate, etc. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout (de la source jusqu’aux vues analytiques). Rédiger la documentation fonctionnelle et le dictionnaire de données pour les équipes data et métiers. Jouer le rôle de “go-to person” / référent data pour l’équipe projet, en répondant aux questions et en arbitrant les choix fonctionnels. Accompagner les utilisateurs (explication des KPIs, démonstration des vues, recueil de feedbacks) et proposer des améliorations continues.
Mission freelance
Développeur Azure Paas (on .Net core)- 3 ans - ASAP
Montreal Associates
Publiée le
.NET CORE
Azure DevOps
Azure DevOps Services
10 mois
500-600 €
Saint-Denis, Île-de-France
Voici une annonce courte, claire et sélective , dans le style habituel LinkedIn 👇 Développeur Back-end Senior Azure (.NET Core) Mon client international recherche un expert Azure PaaS confirmé pour faire évoluer et fiabiliser une plateforme cloud stratégique orientée APIs & Data . Objectif => rationaliser l’architecture, optimiser la performance et garantir la robustesse des services en production . 🎯 Responsabilités clés Évolution & maintenance de l’architecture Azure (PaaS / APIs / monitoring) Développement .NET Core de services backend CI/CD Azure DevOps & déploiements continus Modélisation data avec l’équipe Data Qualité, sécurité, performance & documentation (anglais) 🛠️ Exigences fortes (profils très expérimentés uniquement) 5+ ans Azure PaaS : App Services, Functions, LogicApps, ServiceBus, KeyVault, SQL/Cosmos, Storage, Azure AD Excellente maîtrise .NET Core Bonne culture Cloud architecture, observabilité, coûts & fiabilité Anglais fluent obligatoire ➕ Bonus : DevOps, Apigee, EventHub, Angular, New Relic #Freelance #Azure #DotNet #Backend #AzurePaaS #DevOps
Mission freelance
Ingénieur Cloud Azure – Supervision & Exploitation (RUN)
Mindquest
Publiée le
Azure
Azure Logic Apps
6 mois
Neuilly-sur-Seine, Île-de-France
Dans le cadre de la migration d’une plateforme applicative à fort volume vers le Cloud Azure, nous recherchons un Consultant Cloud Azure – RUN & Supervision Applicative pour accompagner les équipes sur la mise sous contrôle, l’exploitation et la fiabilisation des traitements cloud. La mission s’inscrit dans un contexte RUN, avec un fort enjeu de monitoring, observabilité, alerting et automatisation opérationnelle, sur des flux applicatifs distribués (asynchrone, messages, traitements batch / temps réel). Supervision & Observabilité: Mettre en place et optimiser la supervision des traitements cloud Azure Concevoir des dashboards de pilotage : volumes, erreurs, latences, performance Construire et maintenir des requêtes KQL pour l’analyse des logs, métriques et traces Définir et affiner des alertes intelligentes basées sur les usages et incidents réels RUN & Diagnostic: Assurer le diagnostic rapide des incidents applicatifs Corréler les événements entre différents composants (applications, queues, bases, services managés) Participer à l’amélioration continue de la stabilité et de la résilience des traitements Automatisation & Actions correctives: Mettre en place des scripts et workflows automatisés : purge de DLQ rejeu de messages actions correctives post-incident Utiliser Azure Automation Runbooks, Azure Functions et/ou Logic Apps Déclencher des workflows à partir d’alertes (notifications, actions techniques) Collaboration: Travailler en lien étroit avec les équipes applicatives et cloud Apporter une expertise RUN orientée exploitation, fiabilité et performance
Mission freelance
Data Engineer (H/F) - 63
Mindquest
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Context Démarrage ASAP pour une mission de Data Engineer au sein d’une grande équipe data industrielle. La mission s’inscrit dans le remplacement d’un congé maternité, avec une forte probabilité de continuité sur une autre équipe à l’issue de cette période. Environnement structuré, déjà composé de plusieurs freelances intégrés. Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et la création de valeur. Accompagner les équipes métier dans le développement, le déploiement et l’exploitation de solutions data. Être le référent data pour les sujets d’exposition et d’exploitation des données industrielles. Concevoir et maintenir des pipelines data robustes et optimisés. Produire des analyses et visualisations accessibles aux équipes métiers. Garantir la qualité, la gouvernance et l’éthique des données. Maintenir à jour le catalogue des datasets et la documentation associée. Participer aux tests, à la mise en production et à la formation des utilisateurs.
Offre d'emploi
Développeur Azure iPaaS Junior (H/F)
CONCRETIO SERVICES
Publiée le
.NET
Azure DevOps
Azure Logic Apps
1 an
52k-57k €
350-400 €
Vacognes-Neuilly, Normandie
⚠️ Ce poste n’est ni un rôle d’infra cloud, ni un simple poste low-code : c’est un développeur d’intégration Azure , avec du C# , des flux et des API . Il s’agit d’un poste technique mais encadré , idéal pour un profil junior ayant déjà une première expérience concrète sur Azure , souhaitant monter en compétences sur les sujets d’intégration, d’API et de cloud . VOS RESPONSABILITES PRINCIAPLES : Développement & évolution des flux d’intégration Développer et maintenir des flux d’intégration sur Azure Implémenter des traitements serverless via Azure Functions Concevoir et faire évoluer des Logic Apps existantes Consommer et exposer des API REST Participer à la fiabilisation et à l’optimisation des flux existants Qualité, monitoring & support Participer au diagnostic des incidents sur les flux Analyser les logs et contribuer au monitoring Corriger des anomalies et améliorer la résilience des intégrations Documenter les flux et les évolutions réalisées Travail en équipe & collaboration Travailler en étroite collaboration avec : Product Owner Développeurs Équipe intégration / cloud Participer aux rituels agiles Être force de proposition à son niveau (améliorations, bonnes pratiques)
Mission freelance
Data Engineer Azure / Databricks
Signe +
Publiée le
Snowflake
12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Mission freelance
Consultant(e) D365 Logistique – Intégration API/EDI (H/F)
ASENIUM
Publiée le
Microsoft Dynamics
8 mois
400-550 €
La Défense, Île-de-France
Notre client recherche un consultant spécialisé en Dynamics 365 Finance & Operations (D365 F&O) – Module Logistique, pour développer une intégration API/EDI entre son ERP D365 et le WMS (Warehouse Management System) d’un fournisseur externe. L’objectif est d’automatiser les flux de données (commandes, stocks, traçabilité, sérialisation) entre les deux systèmes, en garantissant la fiabilité et la performance des échanges. Missions Principales Analyse & Conception Comprendre les besoins métiers (logistique, sérialisation, gestion des stocks). Cartographier les flux entre D365 Logistique et le WMS externe. Définir l’architecture technique (API REST/SOAP, EDI, webhooks, etc.). Rédiger les spécifications fonctionnelles et techniques. Développement & Intégration Développer l’API/EDI dans D365 F&O (X++, Power Platform, Azure Logic Apps, Azure Functions). Configurer les connecteurs (Azure Service Bus, Data Lake, etc.) si nécessaire. Tester les échanges (unitaires, intégration, performance). Documenter les développements et les procédures. Pilotage & Collaboration Travailler en étroite collaboration avec les équipes D365 , logistique et le fournisseur WMS . Assurer le suivi du projet (planning, risques, livrables). Former les utilisateurs finaux si nécessaire. Maintenance & Support Corriger les anomalies post-déploiement. Optimiser les performances si besoin.
Mission freelance
Data Engineer Senior / Data Product Analyst
Signe +
Publiée le
Microsoft Power BI
24 mois
370 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte du poste Dans un contexte industriel et data-driven, le poste vise à renforcer la capacité de l’entreprise à exploiter ses données pour améliorer le pilotage des activités, optimiser les processus et créer de la valeur métier. Le profil interviendra comme référent data opérationnel, à l’interface entre les équipes métiers et les équipes techniques, dans des conditions industrielles exigeantes. Profil recherché Profil autonome avec au moins 5 ans d’expérience en data engineering Forte capacité d’analyse business et de compréhension desseux des enjeux métiers Capacité à concevoir, développer et opérer des solutions data de bout en bout Aisance dans un rôle d’interface entre équipes métiers et équipes techniques Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et d’identifier les leviers de création de valeur Accompagner les équipes métiers dans le développement, le déploiement et l’exploitation des solutions data Être le référent technique de la solution, avec une maîtrise fine des données manipulées Agir comme point de contact privilégié des équipes métiers pour les sujets liés à l’exposition, à l’exploitation et à la valorisation des données industrielles Garantir la mise à disposition de données fiables, compréhensibles et exploitables Principaux résultats attendus Identification, capture et sélection des données pertinentes pour répondre aux besoins des utilisateurs Optimisation du temps, des ressources et des outils nécessaires à la gestion et à l’analyse des données Mise à disposition des données sous des formats accessibles et exploitables via des visualisations adaptées Production de recommandations et lignes directrices permettant aux métiers de créer de la valeur Optimisation des offres, services ou processus grâce aux analyses et évaluations réalisées Application et respect des règles du groupe en matière d’éthique et de gouvernance des données Présentation et promotion des fonctionnalités des produits data afin de faciliter leur adoption et leur maintenabilité Réalisation de tests conformes à la stratégie de test définie Maintien à jour du catalogue des produits data (datasets) Mise à disposition de kits de formation et d’outils à destination des utilisateurs Compétences fondamentales en Data Engineering Modélisation de données Modèles relationnels Modèles dimensionnels Data Vault ETL / ELT Conception et optimisation de pipelines robustes Gestion des dépendances et de l’industrialisation Qualité et gouvernance des données Data lineage Contrôles de qualité des données Catalogage et gestion des métadonnées Architecture data Compréhension des architectures modernes (Data Lakehouse, Data Mesh, etc.) Langages de programmation SQL avancé Python / PySpark avancé Outils et technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretien Client final
- ARE, ACRE, création SARLU, IK et rémunération
- URSSAF micro-entreprise : factures impayées, encaissement et facture groupée
- Deux ESN me positionnent sur la même mission
- Evolution TVS et opportunité acquisition véhicule
- Cher FreeWork : possible de vérifier le sérieux des "annonceurs" ? ;-)
9 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois