L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 250 résultats.
Mission freelance
Data Engineer Manager
Publiée le
Azure
Databricks
Snowflake
6 mois
420-490 €
Libourne, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer Manager. Secteur d'activité du client final : santé Contexte : le Client recherche un profil senior avec une expérience confirmée de Data Engineer en environnement complexe, connaissant les DataPlateforms, maitrisant Databricks et/ou Snowflake, idéalement sur Azure. Démarrage : immédiatement Autre prérequis : Expérience en migration de plateformes Exépérience en gestion d'équipes mixtes (internes, consultants, offshore/AMS)
Offre d'emploi
Ingénieur Cloud Azure confirmé
Publiée le
Architecture ARM
Azure
DevOps
12 mois
50k-70k €
400-530 €
Châtillon, Île-de-France
Télétravail partiel
Bonjour, Nous recherchons pour notre client basé en région parisienne un INGENIEUR CLOUD AZURE – Confirmé (4-10 ans) Objectif global : Participer au déploiement des projets data du client Contrainte forte du projet Maitrise de la plateforme Cloud Microsoft Azure Les livrables sont Construire des infrastructures Cloud Public (principalement sur Azure) Industrialiser les architectures cibles et configurer les équipements (CI / CD) Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Description détaillée Contexte Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data pour les enseignes et les fonctions d’appui du client En tant qu'Ingénieur DevOps, votre mission principale sera de participer au déploiement des projets data du client. La plate-forme utilisée est le Cloud Microsoft Azure. Vous êtes polyvalent et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du client sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Le contexte vous plaît ? Découvrez votre quotidien au sein de votre future équipe. Vos missions - Construire des infrastructures Cloud Public (principalement sur Azure) - Industrialiser les architectures cibles et configurer les équipements (CI / CD) - Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. - Participer aux phases de validation technique lors des mises en production ou des évolutions. - Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Vos atouts pour réussir De formation supérieure en informatique, vous justifiez d’une expérience de 4-10 ans dans un contexte Data. Vous disposez des connaissances sur les outils et méthodologies suivants : -Cloud Azure -Infrastructure as a code (ARM, YAML) -Intégration et déploiement continu (Git, Azure DevOps) -Services Big Data : Azure DataLake, Azure EventHub, Azure Databricks, Azure Data Factory, Power BI -Services Web : Azure FunctionApp, Azure WebApp -Micro-services/containers (AKS) -Base de données : SQL DB, CosmosDB La connaissance de ces langages de programmation serait un plus : Spark et Scala. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Cloud Data Engineer
Publiée le
Big Data
Cloud
60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Mission freelance
Cloud, Network and Datacenter Solution Consultant
Publiée le
Architecture
Azure
Cloud
6 mois
550-600 €
La Défense, Île-de-France
Contexte de la mission : Intégrer une équipe internationale en charge de la gouvernance, de l’architecture et de la transformation des infrastructures IT dans le secteur financier. Accompagner la mise en œuvre de solutions hybrides sécurisées, robustes et réglementairement conformes. Missions : Évaluer l’infrastructure actuelle (cloud + datacenter) Concevoir et mettre en œuvre des solutions sécurisées et scalables Conseiller sur l’optimisation des coûts, la résilience et les risques Assurer la conformité réglementaire (FCA, GDPR, ISO 27001) Collaborer avec les équipes techniques et métiers Documenter les procédures, guides, standards Participer aux audits, à la veille technologique et à la rédaction des roadmaps Compétences Attendues : 10 ans d'expérience en cloud & infrastructure Haut niveau d’expertise sur Azure et HyperV Connaissances approfondies des normes de sécurité Leadership et expérience en environnement complexe (banque/assurance) Excellente communication en français et anglais
Mission freelance
Data Engineer H/F
Publiée le
Azure
3 ans
Île-de-France, France
Description : Livrables : • Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. • Analyser et interpréter des données complexes afin d’en extraire des informations exploitables. • Collaborer avec des équipes inter fonctionnelles pour identifier et résoudre les défis liés aux données. • Développer et maintenir des pipelines de données, des modèles et des outils de reporting. • Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. • Fournir une expertise technique et des conseils aux parties prenantes pour soutenir les prises de décisions fondées sur les données. Expertise : • Diplôme de niveau Bachelor ou Master en informatique, data science ou domaine connexe. • Plus de 5 ans d’expérience en data engineering, data analytics ou rôle similaire. • Expérience avérée dans la livraison de solutions data dans un environnement dynamique. • Maîtrise des technologies et architectures data modernes, telles que les plateformes cloud, les frameworks big data et les solutions de data warehousing. • Expertise en langages de programmation tels que Python, SQL et Spark. • Maîtrise de la modélisation de données, des processus ETL et des techniques de transformation de données. • Expertise des plateformes cloud orientées data (ex. : AWS, Azure, Google Cloud). • Maîtrise des outils de visualisation et de reporting (ex. : Power BI, Tableau). • Connaissance approfondie des bonnes pratiques en matière de sécurité, gouvernance et conformité des données.
Mission freelance
Consultant Architecte Cloud, Réseau et Datacenter
Publiée le
Architecture
Azure
Finance
1 an
520-750 €
La Défense, Île-de-France
Télétravail partiel
Nous recherchons pour un de nos clients un Consultant Cloud, Réseau et Datacenter. Vous serez responsable de la conception et de la mise en œuvre de solutions cloud hybrides, datacenter et réseau pour soutenir la stratégie technologique et les exigences réglementaires du secteur financier. Vous interviendrez sur des projets stratégiques, en collaboration avec des équipes globales et locales. Missions principales Évaluer et optimiser l’infrastructure IT existante. Concevoir des architectures sécurisées et évolutives (Azure, on-premises). Piloter des migrations vers le cloud. Garantir la conformité (ISO 27001, PCI DSS, SOC 2) et la sécurité des données. Collaborer avec les équipes risques, conformité et sécurité. Conseiller sur la résilience, la continuité et l’optimisation des coûts.
Offre d'emploi
Consultant FinOps Data & Monitoring – Cloud Azure (H/F)
Publiée le
Azure
Snowflake
6 mois
Paris, France
Télétravail partiel
Contexte Dans le cadre d’un programme de transformation Cloud, nous recherchons un(e) Consultant FinOps orienté Data & Analyse pour exploiter les données de consommation Cloud et mettre en place des mécanismes de pilotage financier, forecast, supervision et alerting . Le poste est centré sur l’ analyse des données Azure , la réalisation de POC analytiques , et la construction d’indicateurs FinOps permettant d’anticiper les dérives budgétaires. Missions Exploitation et analyse de la donnée Cloud Collecter et analyser les données de consommation Azure et d’outils Cloud/SaaS. Réaliser des analyses exploratoires et POC , notamment via le requêtage KQL , pour comprendre les usages, coûts et dérives potentielles. Structurer et exploiter les données dans Snowflake afin de produire des analyses FinOps exploitables. Pilotage FinOps & forecast Construire des indicateurs FinOps : suivi des coûts, tendances, dérives. Mettre en place des prévisions budgétaires (forecast) basées sur les données de consommation. Contribuer au showback et à l’aide à la décision pour les équipes projets et FinOps. Supervision, monitoring et alerting Définir et implémenter des règles de monitoring et d’alerting sur les dérives financières. Mettre en place une surveillance liée à la juste consommation des ressources Cloud. Alimenter les outils de reporting et de visualisation (dashboards). Contribution aux activités FinOps Participer au suivi des coûts et au support des équipes projets. Identifier des opportunités d’optimisation et contribuer aux plans de remédiation. Maintenir et faire évoluer les reportings FinOps existants.
Offre d'emploi
Architecte Solution Azure + Business Central ou F&O
Publiée le
Azure
Microsoft Dynamics
12 mois
55k-60k €
600-700 €
Lille, Hauts-de-France
Contexte : Garantir la cohérence, la robustesse et la scalabilité de l’architecture cible autour de Microsoft Business Central et de son écosystème Azure, dans un contexte de déploiement international multi-BU. L’Architecte Azure sera le garant de la vision technique globale, capable de challenger les choix proposés par Microsoft et l’intégrateur, et d’assurer la maîtrise de l’architecture finale. Conception de l’architecture ● Définir et documenter l’architecture cible sur Azure en lien avec Business Central, Power Platform, Microsoft Fabric, Entra ID et les solutions de Data Management. ● Challenger la vision architecture fournie par l’éditeur et l’intégrateur (scalabilité, sécurité, intégration, coûts) adaptés aux cas d’usage Kiloutou ● Assurer la cohérence des modules déployés par BU, tout en intégrant les adaptations locales. Identité, sécurité et conformité : en collaboration avec l’architecte sécurité / Responsable sécurité ● Piloter l’intégration de Microsoft Entra ID avec l’Active Directory on-premise (IAM, RBAC, authentification, habilitations). ● Garantir la conformité aux standards sécurité (Zero Trust, GDPR, standards groupe). ● Appliquer les principes de gouvernance API et des habilitations cross-BU. Intégration applicative et API Management ● Encadrer la mise en œuvre du Hub API (Twoday, API Management) et son interaction avec Business Central et les autres systèmes (MDM, Power Apps, Snowflake, etc.). ● Définir ou appliquer les standards d’API (sécurité, monitoring, SLA). ● Garantir la maintenabilité et la performance des flux inter-systèmes. ● Garantir l'observabilité des applications du programme Data & Analytics : en collaboration avec les équipes Data ● Définir ou appliquer les patterns d’intégration des données ERP vers Snowflake, Microsoft Fabric, PowerBI et Tableau. ● Garantir la qualité et la gouvernance des données partagées au niveau international. ● Optimiser les architectures data pour la performance et le coût. Support aux BU internationales ● Adapter l’architecture aux spécificités locales (réglementaires, techniques, organisationnelles ou business). ● Définir des principes modulaires pour permettre une déclinaison par BU tout en gardant une cohérence groupe. ● Coacher les équipes locales sur l’usage des composants Azure et Power Platform. Pilotage & collaboration ● Travailler étroitement avec les équipes produit (Business Central), les intégrateurs, les équipes IT locales et globales. ● Établir et maintenir la cartographie applicative et technique avec l’équipe Architecture d’entreprise ● Participer aux comités d’architecture et sécurité (CAS), en portant la vision architecture du programme ⸻ Compétences requises • Cloud & Azure : maîtrise approfondie d’Azure (Entra ID, Azure DevOps, API Management, Azure Files, Fabric). • ERP & Dynamics : bonne compréhension de Business Central et de ses mécanismes d’extension (AL, DevOps, modules). • Data & Analytics : connaissance des patterns d’intégration vers Snowflake, PowerBI, Tableau, Fabric. • Sécurité & IAM : expertise Active Directory, synchronisation AD Connect, RBAC, Zero Trust. • Intégration & API : gouvernance API, middleware, monitoring, performance. • Méthodologie : architecture d’entreprise (TOGAF, Zachman, modulaire/composable), DevOps, Agile. • Soft skills : capacité à challenger les partenaires (Microsoft, intégrateur), communication claire, leadership transverse, sens politique dans un contexte international. Profil recherché • Bac+5 (école d’ingénieur, master informatique). • Expérience confirmée (8+ ans) en architecture cloud, dont 3+ ans sur Azure. • Expérience significative dans des programmes ERP internationaux (idéalement Dynamics 365 Business Central ou F&O). • Connaissance des environnements multi-BU et des enjeux de localisation/régionalisation. • Anglais courant (environnement international). ⸻ Livrables attendus • Schéma directeur de l’architecture cible (global + déclinaisons BU) du programme. • Cadre de gouvernance API et data. • Standards d’habilitations et de sécurité. • Modèle de déploiement international (blueprint Azure + Business Central). • Cartographie applicative et technique mise à jour. • Roadmap technique alignée avec la roadmap produit.
Mission freelance
Architecte cloud azure et on prem H/F
Publiée le
Azure
DataCenter Infrastructure Management (DCIM)
1 an
610-730 €
Paris, France
Télétravail 100%
Contexte : Au sein d’une équipe internationale, vous apportez votre expertise sur les infrastructures hybrides (datacenter + cloud Azure) afin de garantir sécurité, conformité réglementaire et performance des plateformes technologiques. Responsabilités principales Évaluer l’infrastructure existante et définir la stratégie cloud/datacenter conforme aux réglementations financières (FCA, PRA, GDPR…). Concevoir et mettre en œuvre des solutions sécurisées, scalables et alignées sur la stratégie technologique régionale. Accompagner les équipes de direction sur la roadmap et les initiatives stratégiques. Optimiser les coûts, réduire les risques et renforcer la résilience des systèmes critiques. Architecturer des environnements hybrides (Azure + on-premise) et piloter les migrations applicatives vers le cloud. Collaborer avec les équipes Architecture, Cyber, Cloud Ops et autres experts pour garantir l’équilibre entre besoins métiers et exigences de cybersécurité. Produire la documentation (process, guides, templates) supportant l’adoption du cloud. Assurer la conformité aux standards (ISO 27001, PCI DSS, SOC 2) et accompagner les audits. Surveiller la performance et la disponibilité des systèmes critiques.
Mission freelance
Ingénieur Data / BI
Publiée le
Azure Data Factory
Databricks
Scala
12 ans
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB est le datamart TV qui vise à centraliser et fiabiliser les données nécessaires au pilotage et à l’analyse de l’activité publicitaire TV linéaire. Le datamart se source principalement d’OptiPub, base de référence regroupant les informations issues des différentes applications métiers de la régie publicitaire. Côté restitution, Ouranos fonctionne principalement avec une logique de self-BI : nous mettons à disposition des métiers un univers BusinessObjects et/ou un dataset Power BI standardisé, que les utilisateurs exploitent pour construire leurs propres tableaux de bord et analyses. La finalité est de fournir un socle de données unique et cohérent permettant aux équipes métier d’accéder rapidement à des informations fiables sur l’activité pub TV et de gagner en autonomie dans le reporting. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Ingenieur Data 5-8 ans Définition du profil Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Data Engineer Scala/Spark.
Publiée le
Azure
Databricks
Datadog
1 mois
450-520 €
Saint-Denis, Île-de-France
Télétravail partiel
Client : Entreprise de transport Poste : Architecte technique Senior DSM Expérience : Plus de 8 ans TJM d’achat max : 5 15€ Localisation : Banlieue parisienne Deadline réponse : 09/12 Démarrage : 01/01/2025 Durée : Mission très longue DESCRIPTION DE LA MISSION Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Data Engineer Senior Scala/Spark. Vous interviendrez en tant que contributeur individuel sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes. Les projets sont menés en équipe de 2 à 6 Data Engineers, accompagnés d’opérateurs, d’architectes et encadrés par un chef de projet. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en méthodologie agile, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. Ces livrables sont réalisés par l'équipe projet, sans responsabilité de production individuelle. Les sprints s’échelonnent généralement sur 2 semaines. Contenu général des sprints : Développement des US et tests associés ; Documentation du projet, mapping des données, modélisation des pipelines, documents d’exploitation ; Mise en place du CI/CD sur l’usine logicielle ; Mise en place du monitoring ;
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
Azure DevOps
Databricks
1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, BI, Sécurité, Infrastructure), vous interviendrez sur la conception, le développement et l’industrialisation des pipelines data dans un environnement Azure. Vos principales responsabilités : Concevoir des pipelines d’ ingestion et de transformation (batch et near-real-time) Développer et maintenir des flux sous Azure Data Factory Implémenter des traitements Spark via Databricks Mettre en place la qualité des données , le monitoring et la reprise sur erreur Versionner, packager et livrer via des pipelines CI/CD Collaborer avec les équipes BI, sécurité et infra 🛠️ Industrialisation & DataOps Respect des standards de développement et de nommage Mise en œuvre de pipelines CI/CD Documentation et maintien des bonnes pratiques Data Contribution à la performance et à la robustesse des traitements
Mission freelance
Développeur .NET 8 | Azure Cloud | Blazor | API REST
Publiée le
12 mois
500 €
75001, Paris, Île-de-France
Lieu : Paris - Présence physique requise 4 jours/semaine Durée : 12 mois (renouvelable) Date de démarrage : 19 janvier 2026 Langues : Français et Anglais (maîtrise requise) Contexte Nous recherchons un Développeur IT Senior pour intervenir sur le projet UniqueRef au sein de l'équipe Referential. Ce projet stratégique consiste à migrer une application OnPrem vers Azure, intégrer un nouveau fournisseur de données et mettre en place des flux d'alimentation pour nos référentiels (instruments, émetteurs, données extra-financières). Vos missions Développer les nouveaux composants et assurer la cohérence technique des modules. Rédiger les spécifications techniques et documents d'architecture (architecture review, dossier d'exploitation). Planifier les travaux, estimer les charges et anticiper les risques. Collaborer avec les équipes infrastructures pour la mise en place de l'environnement Azure. Tester, déployer et accompagner les phases UAT et PROD. Garantir la qualité des livrables et des développements (tests unitaires, Sonar, automatisation). Profil recherché (détails) Formation : Bac+5 (école d'ingénieur ou équivalent). Expérience : Minimum 5 ans en développement informatique. Expertise dans le développement sur Azure et la définition d'architectures applicatives. Expérience confirmée en API REST , ETL, batchs et services. Connaissance des frameworks Microsoft pour accélérer la mise en place de nouvelles fonctionnalités. Maîtrise des modèles et bases de données (SQL Server). Expérience dans la mise en place de la qualité du code (Sonar) et amélioration continue. Une expérience en automatisation des tests est un plus. Familiarité avec les environnements Agile (SCRUM) et les process DevOps . Atout : Expérience en finance de marché ou gestion d'actifs, avec un intérêt pour les problématiques data (produits financiers, référentiels). Compétences techniques (détails) Langages & Frameworks : .NET 8, C#. Blazor WebAssembly / Server App (Front-end). Outils & Environnements : Visual Studio, GIT. Microsoft SQL Server. Azure (déploiement, services, migration). Méthodologies & Qualité : Tests unitaires, automatisation des tests. Sonar pour la qualité du code. Jira ou Azure DevOps pour la gestion Agile (board, test plans). Soft skills Rigueur, pragmatisme, adaptabilité. Esprit d'équipe et communication claire. Résistance au stress.
Offre d'emploi
Ingénieur DevOps Azure H/F
Publiée le
Azure
1 an
40k-55k €
100-500 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Ingénieur.e DevOps Azure pour une grande entreprise internationale ! 🚀 Ce poste est fait pour toi si : tu as 3 ou plus années d'expérience en tant que Ingénieur.e DevOps ; tu as 2 ans d'expérience professionnelle avec Azure à minima ; tu as 2 ans d'expérience professionnelle avec Terraform ET Ansible à minima. Tes missions … ✨ Utiliser la plateforme pour déployer vos VM et conteneurs ✨ Adapter les environnements à vos besoins ✨ Administrer vos services au quotidien ✨ Faire le support, l’exploitation, la supervision ✨ Assurer le lien avec les développeurs / projets Contexte L’équipe Data recherche un DevOps pour assurer le déploiement, la configuration et l’exploitation de ses environnements techniques (VM, conteneurs, services applicatifs) et garantir leur stabilité au quotidien. Il interviendra en support des projets Data/IA et en complémentarité de l’équipe plateforme IT. TT: 2 ou 3 jours par semaine. Démarrage: rapide. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Mission freelance
Ingénieur DevOps Cloud Azure & Data - Confirmé 5 ans xp
Publiée le
Azure
Cloud
Databricks
1 an
Île-de-France, France
Télétravail partiel
Description du contexte Au sein de la Direction Digital et Data, le consultant intégrera le Data Lab , en charge de l’ensemble des projets BI et Data du groupement. La plateforme cible est le Cloud Microsoft Azure . Dans le cadre des projets de transformation, l’Ingénieur DevOps participera au déploiement et à l’industrialisation des solutions data. Polyvalent et à l’aise dans la communication avec les équipes techniques, il devra également contribuer aux sujets de sécurité, aux ateliers, et au suivi des recommandations issues des audits. L’environnement est Agile , et l’équipe composée d’une dizaine de collaborateurs. Missions principales Construire des infrastructures Cloud Public (principalement Azure) Industrialiser les architectures cibles & configurer les équipements (CI/CD) Mettre en place outils & procédures de supervision garantissant la haute disponibilité Participer aux phases de validation technique (mise en production & évolutions) Collaborer étroitement avec les équipes Développement, Sécurité et Projets
Offre d'emploi
SDM TECHNIQUE AZURE (H/F)
Publiée le
Azure
ITIL
microsoft
3 ans
40k-45k €
450-550 €
75002, Paris, Île-de-France
Télétravail partiel
Nous recherchons un Service Delivery Manager (SDM) technique orienté Azure , capable d’évoluer dans un environnement exigeant du secteur du luxe. Au sein de l’équipe Opérations, vous serez garant de la qualité du Run et du bon fonctionnement des services Cloud, principalement sur Azure. Vous interviendrez sur les activités de delivery management, incident management, problem management, suivi de KPI, animation des comités, gestion du Build-to-Run et coordination des partenaires. Votre rôle est avant tout organisationnel et communicationnel : vous accompagnez les équipes techniques, challengez les partenaires, facilitez la résolution des incidents et assurez une communication claire, structurée et cohérente auprès des responsables applicatifs. Vous aurez également un rôle clé dans la validation des documentations, la bonne application des processus ITIL et l’amélioration continue. Vous ne serez pas amené à "mettre les mains dans la technique", mais un vernis technique solide sera indispensable pour comprendre les architectures, challenger efficacement, poser les bonnes questions et guider les analyses. Vous interviendrez sur un périmètre multi-cloud (Azure, un peu de GCP pour la data) et sur un portefeuille d’environ 80 applications critiques pour le business et l’image de marque de la Maison.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Calcul de l'indemnité de la rupture conventionnelle
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
250 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois