Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 247 résultats.
Freelance

Mission freelance
Tech Lead Data Engineer

QUALIS ESN
Publiée le
Azure

6 mois
400-550 €
Île-de-France, France

G Principales missions : - Assurer un leadership technique auprès des équipes de développement. - Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. - Participer activement aux phases de conception, développement et tests. - Porter la vision technique au sein des équipes Agile. - Garantir la qualité des livrables et veiller à la réduction de la dette technique. - Réaliser la modélisation des données. - Assurer une veille technologique et participer aux POCs. - Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. FRIDF-TECHNOLEAD-2 - France - IDF - TECH LEAD - Confirmé (4-10 ans) CONCEPTION S'assure de l'exhaustivité et de la pertinence des spécifications confiées aux développeurs Coordonne les plans de développements et activités des développeurs sur l'ensemble des composants logiciels impactés Réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants existants DÉVELOPPEMENT Elabore, maintient et renforce les directives d'intégration logicielle et réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants Aligne son travail avec les principes d'urbanisation et les directives générales d'intégration logicielle préconisée par l'Architecture Transverse Supervise les aspects techniques d'un projet (à la demande du responsable de pôle) Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Valide le design du logiciel et propose les frameworks utilisés dans le cadre du projet NORMALISATION ET QUALITÉ Assure la qualité du code des programmes informatiques Elabore et maintient les normes et patterns spécifiques d'intégration ainsi que leur diffusion auprès des développeurs et assure que ces normes / patterns sont bien suivies par l'équipe Est responsable également de l'élaboration et du maintien des abaques de coûts / délais nécessaires en regard des services fournis Assure la qualité des environnements de développement, des développements, du packaging et le bon usage des technologies à travers des audits de code Fait une veille permanente sur les évolutions technologiques ASSEMBLE LES COMPOSANTS ET PRÉPARE LA LIVRAISON DE SOLUTIONS Dans le cadre de projets, assemble les composants unitaires dans un package cohérent destiné au déploiement de la solution et le met sous gestion de configuration Assure la mise à disposition des environnements de développement Définit et administre une bibliothèque de composants logiciels, normes et patterns et assure la documentation de ces composants réutilisables dans la documentation ASSURE LE SUPPORT DE NIVEAU 3 Assure le support N3 pour la résolution de problèmes avec des composants développés par l'équipe et déployés dans les environnements Contribue à la rédaction des contrats de TMA en y intégrant les normes techniques COMMUNICATION ET VEILLE TECHNOLOGIQUE Assure une veille permanente sur les évolutions technologiques Assiste le responsable de pôle à identifier les axes d'amélioration technique et des compétences à développer

Freelance

Mission freelance
Azure Data Engineer (Azure Functions / Kafka / MS Fabric)

K2 Partnering Solutions
Publiée le
Azure
SAP BW

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un expert en data engineering pour nous accompagner dans un premier temps à l’extraction des données financières depuis SAP vers notre plateforme de données Azure, puis au développement de pipelines de données robustes. Le projet consiste à intégrer SAP BW et SAP BFC à la plateforme Azure. L'objectif est de centraliser efficacement les données financières pour alimenter un modèle d'intelligence artificielle destiné à prédire les KPIs financiers de l’entreprise. Le consultant idéal aura une solide expérience des Azure Functions , Apache Kafka , Microsoft Fabric , ainsi qu’une bonne maîtrise de SAP BW et SAP BFC . Ce projet est essentiel pour améliorer nos capacités de traitement de données financières et garantir des analyses prédictives fiables. 📌 Objectifs & livrables L’objectif principal est d’assurer une intégration fluide des systèmes financiers à notre plateforme Azure. Les livrables attendus incluent : Concevoir et implémenter un pipeline de données entre SAP BW, SAP BFC et Azure Garantir l'intégrité et la sécurité des données tout au long du processus Optimiser les flux de données pour un traitement et une analyse en temps réel Faciliter la consommation des données par des modèles d'IA pour la prédiction des KPIs Fournir la documentation et la formation pour la maintenance et le support

CDI
Freelance

Offre d'emploi
Développeur iPaaS Azure Junior

1G-LINK CONSULTING
Publiée le
Azure

1 an
Neuilly-sur-Seine, Île-de-France

Vos missions : Développer des flux d'intégration avec Azure Logic Apps ou Azure Function Créer des Azure Functions en C#/.NET pour des traitements spécifiques Implémenter des pipelines de données avec Azure Data Factory (ADF) Développer en .NET/C# pour les composants personnalisés Participer à la mise en place de l'infrastructure Azure (Terraform) Contribuer aux pipelines DevOps pour le déploiement automatisé Collaborer sur la configuration des environnements Implémenter le monitoring avec Azure Monitor et Application Insights Utiliser ELK Stack pour l'analyse des logs Assurer le support niveau L3 des solutions déployées avec documentation associée

Freelance
CDI

Offre d'emploi
Data Engineer

CELAD
Publiée le
Azure Data Factory
Big Data

1 an
49k-55k €
400-550 €
Île-de-France, France

Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.

CDI
CDD

Offre d'emploi
Chef de projet DATA

VADEMI
Publiée le
Azure
Databricks
Modélisation

12 mois
45k-55k €
Châtillon, Île-de-France

Contrainte forte du projet - Le livrable est TDB suivi des flux Compétences techniques Azure - Confirmé - Impératif modelisation data - Confirmé - Impératif databricks - Junior - Important méthodo agile - Junior - Important Description détaillée Contexte de la mission Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion 🛠️ Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus

Freelance

Mission freelance
Data Engineer azure (SQL / ADF /Power BI)

adbi
Publiée le
Azure Data Factory
Azure DevOps
CI/CD

10 mois
Île-de-France, France

Au sein d’un Centre de Compétences Data, le Data Engineer participe à des projets de transformation digitale. Il conçoit, développe et déploie des solutions Data et BI pour permettre aux utilisateurs métiers de suivre et analyser leurs activités. Il met en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts), développe des pipelines ETL/ELT automatisés avec Azure Data Factory et SSIS, assure la qualité, la sécurité et la performance des données, et collabore avec les équipes DevOps, Product et Data pour garantir la cohérence technique et fonctionnelle des solutions. Compétences attendues : Langages : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Outils : GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning

Freelance

Mission freelance
Architecte Azure Virtual Desktop (F/H) - 75

Mindquest
Publiée le
Azure

3 mois
Paris, France

Expert Azure Virtual Desktop Localisation : Paris 14 Date de démarrage prévu : début novembre Télétravail : Oui / 2j par semaine Missions : - Formaliser une offre de service claire autour d’AVD, - Documenter les processus de build et de run, - Accompagner les équipes dans la compréhension et l’implémentation de la solution, avec un focus particulier sur les cas d’usage Workplace (ex. bureaux virtuels pour externes, développeurs, etc.). -------------------------------------------------------------------

Freelance
CDI

Offre d'emploi
Ingénieur DevOps Azure & AVD (H/F)

AVA2I
Publiée le
Azure

3 ans
55k-60k €
500-560 €
Île-de-France, France

Contexte : Au sein d’une équipe en charge de la conception et de la mise en œuvre d’une solution basée sur Azure Virtual Desktop (AVD) , vous interviendrez en tant que référent technique aux côtés du Tech Lead. Votre rôle consistera à participer activement à la mise en place technique du produit, à son automatisation et à la collecte de métriques d’usage et de coûts, tout en garantissant la qualité et la performance de la solution dans un environnement Cloud Azure. Missions principales : Participer au développement et à l’automatisation de la solution AVD (pipelines, provisioning, déploiements). Contribuer à la mise en œuvre du control plane (gabarits, règles d’auto-scalabilité). Mettre en place les mécanismes de gestion du cycle de vie des masters et des pools (OS Image Gallery, applications, mises à jour Windows…). Concevoir et maintenir les pipelines CI/CD dans Azure DevOps et AWX (Repos, Pipelines YAML, IaC via Terraform, playbooks Ansible). Définir et appliquer les règles de gestion des accès aux environnements virtualisés (RBAC, abonnements, rôles). Contribuer à la rédaction des User Stories (US) et à la documentation technique du produit. Participer à la mise en place de l’ observabilité et du monitoring de la solution (logs, métriques, alertes). Mettre en œuvre la collecte et l’analyse des KPI de consommation et de coûts (Showback / Chargeback). Collaborer étroitement avec le Product Owner et les membres de l’équipe produit. Participer à la phase d’exploitation et assurer un support technique de niveau expert aux équipes opérationnelles.

Freelance
CDI

Offre d'emploi
Azure Cloud Administrator & Architect H/F

HIGHTEAM
Publiée le
Azure

3 ans
Île-de-France, France

Le département informatique travaille actuellement avec l'équipe Digital & Data Solution sur des initiatives liées à l'IA, au machine learning et aux données. Nous recherchons un expert Azure Cloud pour : - Administrer le tenant Azure existant du groupe - Contribuer à la mise en œuvre de cas d'utilisation de l'IA et du machine learning - Contribuer au projet Data Platform en participant activement au MVP avec la solution Snowflake - Mettre en place les meilleures pratiques Azure (automatisation, sécurité) avec différentes parties prenantes - Transférer ses compétences à l'équipe existante Vous collaborerez étroitement avec différentes équipes informatiques (cybersécurité, opérations informatiques, développement informatique, informatique métier), ainsi qu'avec l'équipe Digital & Data Solution. » Les équipes informatiques du Groupe comptent plus de 600 collaborateurs répartis entre Paris, Tunis, Francfort et Düsseldorf. Nous recherchons un expert Azure ayant une expérience significative (plus de 5 ans) dans l'administration et la conception de projets informatiques cloud. Connaissances en cloud (administration, support, IaC, automatisation, sécurité cloud) Très bonne expertise des services Azure, Terraform, scripting Administrer, surveiller et mettre en œuvre les services Azure Contribuer à la mise en œuvre de projets liés à l'IA et à la plateforme de données Promouvoir les meilleures pratiques DevSecOps Être une référence technique en matière d'IA et d'apprentissage automatique Travailler en étroite collaboration avec les architectes du groupe, les équipes de sécurité et DEX Solides compétences techniques dans Azure, IaC (terraform), Solide expérience dans les cas d'utilisation de l'IA et du machine learning dans Azure. La connaissance des scripts Azure PowerShell serait appréciée. Maîtrise de l'anglais. Expertise dans le cloud Azure.

Freelance

Mission freelance
ARCHITECTE DATA / BI

UCASE CONSULTING
Publiée le
Azure
Microsoft Power BI

6 jours
280-750 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un Architecte Data / BI. 🎯 But du projet Mettre en place une donnée fiable, robuste et gouvernée , permettant de soutenir la croissance client et de disposer d’une BI performante, maintenable et alignée avec les enjeux métiers . L’objectif global est de : Réaliser un état des lieux complet de l’environnement Data (technique, organisationnel et fonctionnel), Identifier les points de faiblesse et les opportunités d’amélioration , Définir une vision cible à 3–5 ans (schéma directeur Data), Recommander les bonnes pratiques et les outils adaptés , en tenant compte à la fois de l’écosystème Microsoft (Power BI, SQL Server, Azure) et Open Source , Aligner la stratégie Data sur la croissance business et les besoins des métiers (Marketing, Facturation, Supply, Procurement). 🔍 État actuel et contexte technique Architecture et sources : 3 principales sources de données : Open Bravo (ERP / gestion opérationnelle) Magento (e-commerce) SAP BI Design (reporting financier) Environ 30 tables , avec 500 000 lignes / an chacune (volumétrie modérée mais non négligeable). Pas de datamart complet et enrichi , architecture fragmentée. Stack BI : Power BI pour le reporting, mais performances dégradées et pas de mise à jour temps réel sur certains indicateurs clés (notamment CA e-commerce ). Problématiques techniques : Flux SQL complexes et peu optimisés , générant des lenteurs et un risque d’erreur. Manque de gouvernance de la donnée (règles de gestion hétérogènes, absence de traçabilité claire du cycle de vie des données). Pas d’unicité de la donnée → incohérences possibles entre sources. Dépendance forte aux sources brutes , sans couche d’intégration stable (Data Warehouse/Data Lake structuré manquant). ⚠️ Points critiques identifiés Manque de vision globale de l’écosystème Data : absence de cartographie claire des flux, processus, et responsabilités. Architecture sous-optimale : pas de modèle de données central (datamart/warehouse) consolidant les flux multi-sources. Performance Power BI insuffisante : SQL non optimisés, données non préparées, calculs coûteux. Gouvernance et qualité de données à structurer : pas de cadre formalisé de validation, de définition des KPIs ni de dictionnaire de données. Dépendance aux équipes techniques pour chaque évolution de reporting. Pas de benchmark / comparaison sectorielle pour ajuster la stratégie Data à la croissance du groupe. Rapport d’audit Data (état des lieux complet, points critiques, volumétrie, architecture actuelle) Schéma directeur Data cible à 3–5 ans Recommandations techniques (Microsoft & Open Source) Feuille de route priorisée (actions court, moyen, long terme) Benchmark sectoriel (KPI, modèles de gouvernance, architecture comparée)

Freelance

Mission freelance
ARCHITECTE APPLICATIF - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
Cloud

24 mois
325-650 €
La Défense, Île-de-France

Profil Architecte Applicatif - Cloud Azure Contexte : Notre client souhaite remplacer ses deux applications métier déployés dans plus de 40 pays et utilisés pour l'activité. Le higl level design est attendu sur S1 2024 et doit permettre de définir les grandes orientations d'architecture de la nouvelle solution. Ce cadrage se fera en collaboration avec les équipes AMOA et les équipes des applications Legacy. • Role : Architecte applicatif/solution nouvelle application métier • Missions : o Accompagnement au design applicatif de la nouvelle solution (orientation microservices interne + produit éditeur) o Aide au choix de technologies o Définition du plan de transition entre le système legacy et nouveau en prenant en compte les adhérences des autres projets o Prise en compte des guidelines technologiques (cible Azure notamment)

Freelance
CDI

Offre d'emploi
Développeur iPaaS Azure sénior

1G-LINK CONSULTING
Publiée le
Azure

1 an
Neuilly-sur-Seine, Île-de-France

Nous recherchons plusieurs Développeurs iPaaS Azure sénior pour accompagner notre client sur ses projets. L’objectif : interconnecter des systèmes hétérogènes et fiabiliser les échanges de données via Microsoft Azure Vos missions : Développement et intégration Développement et intégration Développer des flux d'intégration avec Azure Logic Apps ou Azure Function Créer des Azure Functions en C#/.NET pour des traitements spécifiques Implémenter des pipelines de données avec Azure Data Factory (ADF) Développer en .NET/C# pour les composants personnalisés Participer à la mise en place de l'infrastructure Azure (Terraform) Contribuer aux pipelines DevOps pour le déploiement automatisé Collaborer sur la configuration des environnements Implémenter le monitoring avec Azure Monitor et Application Insights Utiliser ELK Stack pour l'analyse des logs Assurer le support niveau L3 des solutions déployées avec documentation associée Encadrement technique des développeurs junior Interface avec les équipes métier et architectes Formation et transfert de compétences INFORMATIONS SUPPLEMENTAIRE : Localisation : Neuilly-sur-Seine (92) – hybride Langues : Français courant, anglais technique

Freelance

Mission freelance
Netdevops (Python/Azure) H/F

LeHibou
Publiée le
Azure
Python

1 an
400-610 €
Charenton-le-Pont, Île-de-France

PRESENTATION DU SERVICE Le Service Inet Cloud, constitué de 6 collaborateurs localisés à Paris, a en charge la gestion des Infrastructures réseaux et équipements de sécurité sur les cloud publics et privé. Il s’occupe notamment : - Du socle d’infrastructure réseau, DNS et sécurité sur les cloud publics suivants : - Amazon Web Service - Azure - Google Cloud Platform - Des opérations liées au maintien en condition opérationnelle des périmètres suivants : - Web Application Firewalls Cloud (Ubika) - Proxys applicatifs métiers Cloud (Skyhigh WSG / ex McAfee) - Infrastructure DNS Cloud (Infoblox) - Load-balancers Vmware / HA Proxy pour le Cloud Privé (Nota : la gestion des règles -proxys, waf- est opérée par les équipes sécurité) Il participe à la mise en place des solutions d’architecture associées au périmètre. Il pilote l’ensemble des audits internes relatifs à son périmètre. Il assure le suivi de l’obsolescence des équipements et leur remplacement, la mise à jour des versions, le déploiement des correctifs de sécurité, la gestion de capacité et le dimensionnement des équipements. Il est en relation privilégiée avec la direction sécurité afin de mettre en place techniquement les fonctionnalités demandées par cette dernière. Il planifie, organise et met en œuvre les évolutions dans un souci de disponibilité, de performance et de respect règlementaire afin de rendre un service de qualité pour les clients du groupe BPCE.

Freelance

Mission freelance
Data Analyst Azure Data Factory

KEONI CONSULTING
Publiée le
Azure

18 mois
100-500 €
Paris, France

CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques ERP, SI Financier, Progiciels Dans le cadre du renforcement de l’équipe Data Factory de notre client, au service des équipes Finance & Procurement, la mission vise à transformer les données issues de l’ERP Oracle Cloud en indicateurs fiables et tableaux de bord Power BI permettant le pilotage opérationnel et financier. Les travaux s’inscrivent dans l’environnement Azure (Azure Data Factory, Azure Databricks, Power BI) et suivent les bonnes pratiques de qualité, de performance et de gouvernance des données. MISSIONS Objectifs de la mission : - Analyse des besoins Finance / Procurement et formalisation des exigences fonctionnelles (KPI, règles de gestion, périmètres analytiques). - Mapping des données depuis la source Oracle vers les modèles analytiques Power BI (modèle en étoile, dictionnaire de données, règles de transformation). - Développement et industrialisation des data pipelines dans Azure . - Conception et développement des tableaux de bord Power BI (datasets, DAX, RLS, UX) prêts à être déployés et adoptés par les métiers. Responsabilités principales : 1) Analyse de besoins et cadrage - Conduire des ateliers avec les key users Finance (Comptabilité générale, Fournisseurs/AP, Clients/AR, Contrôle de gestion) et Achats. - Produire les spécifications fonctionnelles et le backlog associé. 2) Cartographie & modélisation des données (Oracle → Power BI) - Identifier tables, vues et colonnes Oracle pertinentes ; définir la granularité et les jointures. - Rédiger le document de mapping et le dictionnaire de données (définitions, sources, règles de calcul). - Concevoir le modèle sémantique (étoile) pour Power BI, avec dimensions conformes et mesures DAX documentées. 3) Développement des pipelines (Azure Databricks / ADF) - Développer notebooks et jobs (PySpark/SQL) pour ingestion, nettoyage, transformations et calculs d’indicateurs. - Mettre en place des contrôles qualité (règles, reconciliations, gestion des écarts) et optimiser coûts/performance. 4) Développement des dashboards Power BI - Créer les datasets (mesures DAX, hiérarchies, rôles RLS) et les rapports (navigation, filtres, drill, bookmarks). - Réaliser la recette avec les utilisateurs, intégrer les retours, publier et organiser le partage (Apps, workspaces). 5) Documentation, gouvernance & transfert - Tenir à jour la documentation (spécifications, mapping, checklist de qualité). - Contribuer aux bonnes pratiques (naming, versioning Git/Azure DevOps, sécurité & conformité). Domaines de données concernés : - Finance : Comptabilité générale (GL), Comptabilité fournisseurs (AP), Comptabilité clients (AR), Contrôle de gestion (actuals, budget, forecast). - Achats / Procurement : données fournisseurs, familles d’achat, contrats, engagements, réceptions, paiements. Expertise souhaitée - Expérience avérée d’au moins une mission de reporting financier incluant : Comptabilité générale, AP, AR, Contrôle de gestion, Achats. - Maîtrise d’Azure Data Factory, Azure Databricks et Power BI (datasets, DAX, RLS, publication). - Compétences en modélisation décisionnelle (modèle en étoile, granularité, dimensions conformes) et qualité des données. - Capacité à animer des ateliers, rédiger des spécifications claires et collaborer avec des profils métiers et techniques. - Anglais courant indispensable (ateliers, documentation, échanges avec parties prenantes).

Freelance
CDI

Offre d'emploi
Chef de Projet MOE Data Azure

ALTEN
Publiée le
Azure

3 ans
40k-50k €
100-570 €
Paris, France

Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). 📌 Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion

Freelance
CDI

Offre d'emploi
Mission Freelance / portage - Ingénieur Cloud Azure / DevOps – Data - Hauts-de-Seine, France

KUBE Partners S.L. / Pixie Services
Publiée le
Azure
Cloud
IAC

3 ans
40k-55k €
100-600 €
Hauts-de-Seine, France

Bonjour, Pour l’un de mes clients, je recherche un(e) : Description : Construire et industrialiser des infrastructures Cloud Public sur Azure, configurer les équipements CI/CD et collaborer avec les équipes Dev, sécurité et projets pour la transformation data. Compétences techniques : Big Data : Azure DataLake, EventHub, Databricks, ADF - Confirmé Cloud : Microsoft Azure - Confirmé Infrastructure as Code : ARM, YAML - Confirmé Intégration/déploiement continu : Git, Azure DevOps - Confirmé Langues : Français courant Missions principales : Construire et industrialiser les infrastructures Cloud Azure Mettre en place CI/CD et outils de surveillance pour haute disponibilité Participer aux validations techniques des mises en production Collaborer avec Dev, sécurité et projets Profil requis : Bac+3/5 en informatique Expérience 5-10 ans en contexte Data Connaissances : Cloud Azure, IaC (ARM/YAML), CI/CD (Git, Azure DevOps), Big Data (DataLake, EventHub, Databricks, ADF, Power BI), Web (FunctionApp, WebApp), Micro-services/containers (AKS), Bases SQL DB/CosmosDB Plus : Spark, Scala Mots-clés : Azure, Cloud, DevOps, Data, CI/CD, ARM, YAML, Git, Azure DevOps, DataLake, EventHub, Databricks, ADF, Power BI Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.

1247 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous