L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 032 résultats.
Offre d'emploi
Expert Data & Cloud Azure (H/F)
Amiltone
Publiée le
Azure
Cloud
40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un Expert Data & Cloud Azure : Objectifs de la mission - Migrer une application data existante vers une architecture cloud Azure moderne - Améliorer les performances, la sécurité et la supervision - Mettre en place des pipelines data robustes et automatisés - Garantir la fiabilité et la maintenabilité de la solution Responsabilités principales - Analyser l'existant et définir l'architecture cible sur Azure - Concevoir et implémenter des pipelines ETL / ELT avec Azure Data Factory / Fabric - Migrer les données et traitements Oracle vers le cloud - Mettre en place les bonnes pratiques DevOps (CI/CD) via GitLab et/ou Azure DevOps - Assurer la supervision des flux et plateformes (monitoring, logs, alertes) - Implémenter les mécanismes de sécurité (RBAC, chiffrement, conformité) - Moderniser et automatiser les scripts et traitements legacy - Rédiger la documentation technique et accompagner le transfert de compétences Compétences techniques requises - Excellente maîtrise de Microsoft Azure - Azure Data Factory / Fabric - Services data et intégration cloud - Forte expérience en migration de solutions data vers le cloud - Expertise confirmée sur bases de données Oracle - Bonne connaissance des pratiques CI/CD et DevOps - Expérience en supervision et sécurisation d'applications cloud
Offre premium
Mission freelance
Ingénieur Cloud AWS - Data & IA
TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas
36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Mission freelance
Data Engineer Azure / IA
Sapiens Group
Publiée le
Azure
Azure DevOps
Databricks
12 mois
400-450 €
Lille, Hauts-de-France
Ingénierie Data Concevoir et développer des pipelines de données (ETL / ELT) . Collecter, transformer et intégrer des données provenant de différentes sources (API, bases de données, fichiers, streaming). Mettre en place et optimiser des flux de données robustes et scalables . Garantir la qualité, la fiabilité et la traçabilité des données . Concevoir et maintenir des modèles de données adaptés aux usages analytiques. Plateforme et outils Data Développer des solutions sur des plateformes Big Data et Cloud (ex : Databricks). Automatiser les workflows et déploiements via CI/CD (Azure DevOps) . Optimiser les performances des traitements Python et SQL . Participer à la mise à disposition des données pour les outils de visualisation et de reporting (Power BI) . Intelligence Artificielle appliquée à la Data Utiliser des outils d’IA pour assister le développement (génération et optimisation de code). Mettre en place des processus automatisés d’analyse et de transformation de données basés sur l’IA. Contribuer à l’intégration de modèles d’IA ou de Machine Learning dans les pipelines de données. Utiliser l’IA pour la documentation automatique, la détection d’anomalies et l’analyse exploratoire des données . Collaboration et méthodologie Travailler en méthodologie Agile / Scrum . Collaborer avec les équipes Data, BI, Data Science et métiers . Participer aux rituels Agile (daily, sprint planning, rétrospective). Contribuer aux bonnes pratiques de gouvernance et de gestion des données .
Offre d'emploi
Data Engineer Azure/Fabric
AEROW
Publiée le
Agile Scrum
Azure
Azure Data Factory
2 ans
40k-55k €
400-550 €
Gosselies, Hainaut, Belgique
ATTENTION, 2 JOURS SUR SITE / SEMAINE A GOSSELIES OBLIGATOIRE (= NON NEGOCIABLE) , NE PAS POSTULER LE CAS ECHEANT. Dans le cadre de ses activités, CLIENT recherche un Data Engineer pour renforcer son équipe Data. Il s’agit d’une mission jusque fin d’année, renouvelable , au sein de la Factory Data , responsable de la gestion, de la maintenance et de l’évolution des solutions Data (Microsoft Fabric, Azure Data Factory, SAP BO/DS). Le Data Engineer rejoindra l’équipe en charge du développement, de la maintenance et du support des solutions BI Azure & Microsoft Fabric , tant sur les volets correctifs qu’évolutifs . Responsabilités principales Développement & Data Engineering Développer les flux d’ingestion via Fabric Data Factory (et compréhension d’Azure Data Factory) Développer les flux de transformation via Fabric Factory Notebooks (Spark / PySpark) Optimiser les requêtes et traitements , en tenant compte des coûts Azure Contribuer à la modélisation du Lakehouse Concevoir et implémenter l’ architecture médaillon (Silver & Gold) dans Microsoft Fabric Mettre en œuvre les formats open table (Delta, Iceberg) Qualité, tests et delivery Définir et documenter le plan de tests unitaires (automatisables) Exécuter et suivre les tests unitaires Participer à l’ estimation des charges lors des phases de cadrage Rédiger la documentation technique Contribuer à l’ amélioration continue (guidelines, bonnes pratiques) Maintenance & support Participer à la maintenance des solutions en production Contribuer à la résolution des incidents Atout complémentaire Participation aux analyses fonctionnelles : Traduction des besoins métier Élaboration des modèles logiques Réalisation de tableaux de bord Tests fonctionnels de la solution
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Offre d'emploi
Data Engineer Azure
VISIAN
Publiée le
Azure
Azure Data Factory
Azure Synapse
2 ans
40k-60k €
400-550 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Azure avec une très bonne maîtrise d'Azure Data Factory et d'Azure Devops pour la CI/CD Nous recherchons un consultant capable de mettre en place les flux d'interface entre SAP Concur et les différentes applications Finance au travers de l'ETL Microsoft Azure Data Factory et d’en assurer le RUN/ CI/CD avec Azure Devops. Il est nécessaire d'avoir une capacité à être force de proposition et travailler en autonomie.
Mission freelance
DevOps Azure, AWS & Python sur Paris 17
EterniTech
Publiée le
Ansible
AWS Cloud
Azure
3 mois
Paris, France
Je recherche pour l'un de mes clients dans le secteur des assurances un Devops Azure, AWS et Python sur Paris 17 Type de prestation : 2 x Devops cloud (azure or aws) Lieu de la mission : Paris 17 Durée de la prestation : 3 mois renouvelable Expériences : minimum 8 années Date de démarrage : ASAP 2 jours de gratuité au démarrage Anglais courant + CV en anglais Objectifs de la mission Les experts DevOps sélectionnés contribueront à l’automatisation, l’optimisation et à l’excellence opérationnelle de l’infrastructure cloud du client. Les responsabilités principales sont : Gestion des pipelines CI/CD Conception et mise en œuvre : Création et maintien de pipelines CI/CD pour automatiser les processus de build, test et déploiement des partages de fichiers de stockage. Optimisation : Amélioration continue de l’efficacité et de la fiabilité des pipelines. Infrastructure as Code (IaC) Automatisation : Utilisation d’outils comme Terraform ou Cloud Formation pour gérer l’infrastructure via le code. Scalabilité : Garantir que l’infrastructure peut évoluer efficacement selon les besoins. Supervision et logging Mise en place : Implémentation d’outils de monitoring pour suivre la performance des systèmes. Analyse : Analyse proactive des logs pour identifier et résoudre les problèmes. Sécurité Bonnes pratiques : Mise en œuvre de mesures de sécurité et vérifications de conformité dans les pipelines CI/CD. Gestion des incidents : Élaboration et maintenance de plans de réponse aux incidents. Collaboration et documentation Travailler étroitement avec les équipes développement, QA et opérations pour assurer une fluidité des workflows. Faciliter la communication entre équipes et résoudre rapidement les incidents. Créer une documentation complète, plans de tests et supports de transfert pour les Experts et QA.
Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st
WorldWide People
Publiée le
DevSecOps
12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Offre d'emploi
Ingénieur(e) DevOps Cloud expérimenté(e)
ANDEMA
Publiée le
AWS Cloud
Azure
Terraform
48k-54k €
Chambéry, Auvergne-Rhône-Alpes
Nous recherchons un(e) Ingénieur DevOps Cloud Senior pour renforcer l'équipe Cloud de l'un de nos clients. L’objectif est de poser la gouvernance des environnements Public Cloud , d’accompagner techniquement les collaborateurs et de contribuer à la mise en place de standards et bonnes pratiques pour les projets cloud sur Azure et AWS. Vous rejoindrez une équipe d'une vingtaine de personnes réparties sur trois périmètres Public Cloud, avec un rôle transversal et stratégique, garantissant la cohérence technique et opérationnelle des environnements cloud et hybrides. 🎯 Missions principales1️⃣ Gouvernance Cloud Définir et maintenir les standards et règles d’usage pour les Landing Zones Azure et AWS : RBAC, policies, tagging, compliance Sécurité et conformité (ISO, RGPD, SOC2) Mettre en place et administrer les mécanismes de contrôle (Azure Policy, AWS Config, Service Control Policies). Garantir la cohérence des environnements et la conformité aux bonnes pratiques cloud. 2️⃣ Intégration On-Prem & Hybrid Comprendre les contraintes des environnements existants (réseau, sécurité, containers, virtualisation). Assurer l’interopérabilité entre Cloud et On-Prem. Contribuer aux projets hybrides Cloud + Datacenter et à la gouvernance des workloads Kubernetes. Participer aux patterns de migration et à l’optimisation des architectures hybrides. 3️⃣ Automatisation & Infrastructure as Code Maintenir et faire évoluer les scripts Terraform pour la création et la configuration des Landing Zones. Automatiser les contrôles de conformité et les déploiements cloud. Optimiser les pipelines CI/CD et améliorer les processus DevOps. 4️⃣ FinOps & Optimisation Participer au suivi des coûts et à l’optimisation des ressources cloud. Mettre en place des alertes et reporting pour les usages cloud. Contribuer à la définition des budgets et à la rationalisation des services Cloud.
Offre premium
Offre d'emploi
Data Engineer Python / Azure / Ops
VISIAN
Publiée le
Azure
Azure Data Factory
Python
2 ans
Paris, France
La DSI du client recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l'exploitation des données par les analystes métiers et data scientists. A ce titre, vos principales missions consisteront à : Mener les projets d'intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d'optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d'optimiser les architectures Contribuer à l'amélioration de la gouvernance sur la protection et la confidentialité des données. Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l'entreprise.
Mission freelance
Tech Lead C# VueJS H/F
LOMEGARD
Publiée le
AWS Cloud
Azure
C#
6 mois
500-600 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet stratégique au sein d’un grand groupe international, nous recherchons un Lead Developer .NET / Vue.js pour piloter techniquement une squad de 5 personnes et garantir la cohérence technologique d’un produit à forte visibilité interne. Le projet s’appuie sur un environnement moderne, multi-cloud et structuré, avec des enjeux forts de qualité, de performance et de coordination technique. Démarrage prévu début Avril avec 2 jours de télétravail. Missions : Encadrer techniquement la squad et garantir le respect des standards technologiques Participer activement au développement .NET / Vue.js Assurer la cohérence technique , la qualité du code et la bonne intégration des composants Anticiper et remonter les risques , points bloquants et besoins d’arbitrage Collaborer étroitement avec l'architecte et les parties prenantes internes Contribuer à l’amélioration continue, aux bonnes pratiques et à la performance globale du produit
Mission freelance
Data Engineer Python / Azure Cloud (H/F)
Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Mission freelance
Architecte Cybersécurité Cloud & Identité
AGH CONSULTING
Publiée le
AWS Cloud
Azure
6 mois
400-600 €
Trappes, Île-de-France
Contexte Dans le cadre du renforcement de son dispositif cybersécurité, un grand groupe basé en Île-de-France recherche un Architecte Cybersécurité spécialisé en environnements Cloud et gestion des identités. Le poste peut être orienté : Build : cadrage, conception et transformation Run : gouvernance, amélioration continue et maintien en conditions opérationnelles Missions principalesArchitecture & sécurité Cloud Définir et faire évoluer les architectures de sécurité sur des environnements Cloud (AWS, Azure, GCP) Intégrer les exigences cybersécurité dans les projets de transformation Cloud Mettre en œuvre les principes Zero Trust Réaliser des analyses de risques et proposer des plans de remédiation Architecte Cybersécurité Cloud … Identité & gestion des accès (IAM / IGA / PAM) Structurer et formaliser les modèles d’identité et de gestion des accès Sécuriser les comptes à privilèges Déployer ou faire évoluer des solutions SSO, MFA et fédération d’identités Garantir la conformité des accès aux standards internes et réglementaires Architecte Cybersécurité Cloud … Gouvernance & conformité Accompagner les équipes projets sur les sujets cybersécurité Assurer l’alignement avec les normes et référentiels (ISO 27001, NIST, CIS, ANSSI, RGPD) Participer aux audits et démarches de conformité Contribuer à l’amélioration continue de la posture sécurité Architecte Cybersécurité Cloud … Sécurité & IA (selon profil) Comprendre les enjeux de sécurité liés aux usages d’IA Intégrer les exigences de sécurité dans les projets intégrant de l’IA
Offre d'emploi
Architecte Cloud Azure - Migration
KLETA
Publiée le
Azure
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un Architecte Cloud Azure pour accompagner nos clients dans leurs projets de migration et de modernisation vers Microsoft Azure. Vous interviendrez sur des missions de cadrage, d’audit et de définition de trajectoires cibles adaptées aux contraintes techniques, organisationnelles et métiers. Vous analyserez les architectures existantes, identifierez les risques et proposerez des solutions optimisées en matière de performance, de sécurité, de coût et de résilience. Vous participerez à la conception de Landing Zones Azure, à la structuration des environnements multi-souscriptions et à la mise en place de bonnes pratiques de gouvernance et de conformité. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des déploiements via Terraform ou Bicep et à l’adoption des principes cloud native. Vous aurez également un rôle pédagogique en accompagnant les équipes client dans leur montée en compétence sur Azure, en partageant des bonnes pratiques d’architecture et en facilitant l’acculturation au cloud.
Mission freelance
Data Engineer AWS (H/F)
HOXTON PARTNERS
Publiée le
AWS Cloud
Big Data
Data Lake
2 ans
350-450 €
Liège, Belgique
Nous recherchons un Data Engineer AWS pour intervenir sur l’exploitation et l’évolution d’une plateforme Data & Analytics dans un contexte de projet structurant. La mission s’inscrit dans un programme de maintenance et d’industrialisation des solutions Cloud et Big Data. Missions principales : Assurer le support applicatif et technique de niveau 1 et 2 sur les solutions Data. Participer à la maintenance évolutive et à l’amélioration continue des plateformes existantes. Concevoir et développer des solutions Data & Analytics en respectant les standards de qualité et de performance. Rédiger la documentation technique et fonctionnelle liée aux livrables. Partager les bonnes pratiques et contribuer à la montée en compétences collective. Estimer les charges, participer à la conception technique et au déploiement des solutions.
Offre d'emploi
DevSecOps Azure - Transformation
KLETA
Publiée le
Azure
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un DevSecOps Azure pour accompagner nos clients dans l’adoption de pratiques de sécurité cloud modernes et industrialisées. Vous interviendrez sur des missions d’audit, de cadrage et de mise en place de dispositifs DevSecOps adaptés aux contraintes techniques et réglementaires. Vous analyserez les environnements existants, identifierez les risques et proposerez des trajectoires d’amélioration en matière de sécurité et d’automatisation. Vous participerez à l’intégration de contrôles de sécurité dans les pipelines CI/CD, à la mise en place de politiques de conformité via Azure Policy et à l’automatisation des processus via Infrastructure as Code. Vous accompagnerez également les équipes client dans leur montée en compétence sur Azure et les pratiques DevSecOps, en animant des ateliers et en diffusant les bonnes pratiques. Votre rôle combinera expertise technique et conseil, avec une forte capacité à adapter votre discours à des interlocuteurs variés (techniques, sécurité, exploitation et métiers).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5032 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois