Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 413 résultats.
Freelance

Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform

Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
550-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de sa plateforme cloud , une grande organisation internationale recherche un DevOps / Cloud Platform Engineer pour intervenir sur la conception, l’industrialisation et l’exploitation d’une plateforme AWS sécurisée et scalable. Vous rejoindrez une équipe Platform Engineering transverse, au service de multiples équipes produits, avec un fort enjeu d’automatisation, de standardisation et de fiabilité. La mission s’inscrit dans la durée (minimum jusqu’à fin 2026, avec possibilité de prolongation). Missions En tant que DevOps / Cloud Platform Engineer , vous interviendrez sur l’ensemble du cycle de vie de la plateforme cloud : Infrastructure & Cloud AWS Concevoir et maintenir une plateforme AWS multi-comptes (Organizations, Control Tower, gouvernance, sécurité). Définir des architectures cloud robustes et alignées avec les bonnes pratiques AWS . Mettre en place et maintenir des blueprints / golden paths pour différents types de workloads : Conteneurs (EKS, ECS, Fargate) Serverless (Lambda) Workloads traditionnels (EC2, Auto Scaling) Infrastructure as Code & Terraform Concevoir et développer des modules Terraform réutilisables (réseau, sécurité, compute, data). Gérer Terraform à l’échelle : Remote state (S3, DynamoDB) Versioning et lifecycle des modules Multi-environnements Détection et correction du drift CI/CD & Automatisation Construire et maintenir des pipelines CI/CD (GitLab CI, Jenkins) pour : Infrastructure et applications Tests automatisés Policy-as-Code (OPA / Conftest) Scans de sécurité (tfsec, Checkov) Déploiements automatisés (Atlantis, Spacelift, Terraform Cloud) Automatiser les tâches récurrentes via scripts Bash/Python ou outils internes. Exploitation, Sécurité & Fiabilité Mettre en place la supervision et l’observabilité : CloudWatch, OpenTelemetry Prometheus / Grafana Datadog, OpenSearch Définir et suivre les SLI/SLO . Assurer la sécurité des environnements : IAM en moindre privilège KMS, gestion des secrets (Secrets Manager, SOPS) Patching, scans IaC et images Participer au support avancé (L2/L3), à la gestion des incidents et aux post-mortems. Migration & Accompagnement Accompagner les équipes dans la migration de workloads on-premise vers AWS : Audits et assessments Choix des patterns d’architecture Adoption des templates et outils Support et coaching des équipes
CDI

Offre d'emploi
Data Engineer - Lyon

Publiée le
Databricks
DBT
Snowflake

50k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Data Engineer / Développeur Talend - Niort

Publiée le
Apache Maven
JIRA
Talend

2 ans
380-480 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Pour l'un de nos clients niortais, nous recherchons un data engineer / développeur talend : · Participer à l'évaluation de la charge de travail d'analyse et de réalisation, · Contrôler la qualité des développements, · Développer et maintenir, le cas échéant, les applications informatiques, · Participer aux tests d'intégration, · Rédiger les dossiers afférents aux phases précédentes, · Respecter les normes de développement et de planification, · Participer à l'industrialisation des applications, · Participer à la formation des utilisateurs.
Freelance
CDI

Offre d'emploi
Data Engineer (14)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Informations Générales Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 Data Engineers) en charge de la mise à disposition des données pour le pilotage des offres numériques via le produit Data4All. Stack : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; qualité des données et support aux utilisateurs. Concevoir & maintenir des modèles de données et pipelines robustes et scalables ; organiser/structurer le stockage. Mettre en place et maintenir des infrastructures scalables, assurer sécurité/stabilité des environnements, workflows CI/CD. Contribuer à la gouvernance (qualité, fiabilité, intégrité), documentation et veille ; participation aux instances Data Ingénieurs.
Freelance

Mission freelance
Data Engineer (IA/Géospatial) (H/F)

Publiée le
MLOps
Python

6 mois
300-350 €
Toulouse, Occitanie
Télétravail partiel
Notre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : * Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et météorologiques, dans un environnement cloud-native. ## Compétences techniques attendues * Données météo & satellites Maîtrise des formats (NetCDF, GeoTIFF, HDF5), outils Python (xarray, rasterio…), prétraitement d’images, expérience Sentinel-1/2 et données météo (ARPEGE, AROME, GFS, ERA5). * Data Engineering Pipelines ETL/ELT scalables, orchestration (Airflow, Prefect, Argo), bases de données (PostgreSQL/PostGIS, MongoDB, Snowflake), optimisation des accès. * MLOps & DevOps Déploiement de modèles (CI/CD, monitoring), outils ML/Cloud (MLflow, SageMaker, Docker, Kubernetes, Terraform), AWS/Azure/GCP. * Développement logiciel Python, frameworks web (FastAPI, Django, Flask), bonnes pratiques (tests, docs, versioning).
Freelance

Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)

Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Freelance

Mission freelance
Machine Learning Engineer (Détection des fraudes)

Publiée le
Data science
Dataiku
Machine Learning

4 mois
580-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur bancaire Description 🏢 Le Contexte Pour le compte d’un grand groupe bancaire français , nous recherchons un expert en Data Science pour rejoindre une équipe pluridisciplinaire (Conformité, IT, Gestion de projet) en pleine transformation. Le groupe lance une refonte majeure de son dispositif de surveillance LCB-FT (Lutte Contre le Blanchiment et le Financement du Terrorisme). L’objectif est de passer d’une approche traditionnelle (moteur de règles) à une solution interne innovante intégrant le Machine Learning et l'IA . 🎯 Votre Mission Au cœur de la Direction de la Conformité, votre rôle principal est de réduire significativement le taux de faux positifs et d'améliorer la capacité de détection de nouveaux schémas de fraude, tout en garantissant une explicabilité totale vis-à-vis du régulateur. Vos responsabilités principales : Modélisation & Data Science : Élaborer de nouveaux modèles de scoring et de segmentation de la clientèle. Combiner des approches supervisées et non supervisées pour détecter les comportements suspects (patterns connus et atypiques). Réaliser le Feature Engineering : sélection et validation des variables pertinentes (historique bancaire, KYC, transactions). Optimisation & Performance : Réviser les seuils de déclenchement des alertes pour optimiser le travail des analystes. Assurer la performance des modèles aussi bien en traitement Batch qu'en Temps Réel. Gouvernance & Explicabilité (Critique) : Garantir que chaque modèle produit est "auditable" et explicable (transparence des décisions, justification des variables) pour répondre aux exigences réglementaires strictes. Gestion de Projet & Accompagnement : Accompagner les phases de cadrage, recette et industrialisation. Rédiger les livrables (cahiers des charges, expressions de besoins, documentation technique). 🛠 Environnement Technique Stack principale : Python, Dataiku. Données : Historique opérations, KYC, relations clients, volumétrie bancaire standard.
CDI

Offre d'emploi
Data Engineer - Nantes

Publiée le
ETL (Extract-transform-load)
Informatica
Semarchy

40k-43k €
Nantes, Pays de la Loire
Nous recherchons un Ingénieur Data / Développeur ELT en CDI, passionné par la manipulation de données et les environnements analytiques. Vous participerez à la conception, l’alimentation et l’optimisation de nos flux de données stratégiques. vos missions : Concevoir, développer et maintenir des flux d’intégration de données. Participer à l’architecture et à l’industrialisation des traitements ELT/ETL. Travailler sur des environnements manipulant de très gros volumes de données. Collaborer avec les équipes métiers et techniques pour garantir la qualité et la cohérence des données. Optimiser la performance des requêtes et des pipelines de données.
CDI

Offre d'emploi
Senior data engineer H/F

Publiée le

55k-63k €
Neuilly-sur-Seine, Île-de-France
Au sein de la DSI, l'équipe Data (10 personnes) joue un rôle central dans la valorisation des données de l'entreprise. Vous rejoignez le pôle Solutions Data, pour contribuer à la mise en œuvre et à la maintenance du Système d'Information décisionnel. Vos missions sont les suivantes : Participer à la conception et au développement de projets data innovants Assurer le maintien en conditions opérationnelles (MCO) des bases, applications et flux de données existants Collaborer avec les équipes Métiers pour analyser et traduire les besoins fonctionnels en solutions techniques Contribuer à l'amélioration continue de la plateforme data (processus, outils, qualité des données) Documenter les développements et assurer un transfert de compétences auprès de l'équipe Data
Freelance
CDI

Offre d'emploi
Senior Azure IAM Engineer / Cloud Security Engineer - 12 mois - Charleroi

Publiée le
Automatisation
Azure
IAM

6 mois
Charleroi, Hainaut, Belgique
Télétravail partiel
Senior Azure IAM Engineer - 6 mois renouvelable - Charleroi Un de nos importants clients recherche un Ingénieur Senior Azure IAM Engineer pour une mission de 6 mois renouvelable sur Charleroi. L'objectif est de mettre en œuvre la stratégie de nettoyage des droits privilégiés dans Azure, en appliquant les bonnes pratiques de sécurité, en supprimant les héritages non maîtrisés, et en modélisant les rôles techniques dans un environnement cloud complexe. Tâches principales : Collecter et analyser les permissions existantes dans Azure (Management Groups, Subscriptions, Resource Groups). Supprimer les héritages de droits non souhaités depuis le Management Group Root. Implémenter des modèles de rôles RBAC sécurisés et adaptés aux besoins métiers. Automatiser les audits et les revues d’accès via PowerShell, Azure CLI. Monitorer les usages des rôles à privilèges (Owner, Global Admin, etc.) et proposer des remédiations. Collaborer avec les équipes IAM, I&O et sécurité pour intégrer les rôles dans les workflows existants. Documenter les rôles, les règles d’héritage, et les processus d’attribution. La surveillance et reporting des journaux d'activité (Audit Logs) pour la détection d'anomalies et violations de sécurité. Profil recherché : Certification Microsoft SC-300 : Administrateur d'Identité et d'Accès Associé Expertise en Azure RBAC, Entra ID, PIM, et gestion des rôles personnalisés. Maîtrise des outils d’automatisation : PowerShell, Azure CLI. Connaissance des limites Azure (nombre d’assignations, héritage, etc.). Expérience en sécurité cloud et gouvernance des accès. Capacité à travailler en environnement multi-équipes et à gérer des projets techniques complexes. Langues : Français C1, Anglais B2 Autonomie Si cette offre vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Freelance

Mission freelance
Data Engineer (H/F)

Publiée le
Dataiku

1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
📌 Data Engineer (H/F) – Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail 📢 Pas de portage ni de sous-traitance Nous recherchons un Data Engineer autonome , pour accompagner la transformation data de l’entreprise et soutenir les équipes métier dans leurs analyses, pilotages et initiatives de création de valeur. 🎯 Missions principales Collecter, analyser et exploiter les données pertinentes pour optimiser le pilotage des activités. Accompagner les équipes métier dans le développement, le déploiement et l’opération des solutions data. Concevoir des modèles de données (relationnel, dimensionnel, Data Vault). Développer et optimiser des pipelines ETL/ELT robustes et maintenables. Garantir la qualité et la gouvernance des données (lineage, métadonnées, quality checks…). Participer à l’évolution de l’ architecture data (Data Lakehouse, Data Mesh). Produire des visualisations et analyses accessibles (Power BI). Maintenir le catalogue de datasets à jour. Réaliser les tests selon la stratégie définie. Fournir des kits de formation et accompagner les utilisateurs dans la prise en main des solutions. 📈 Résultats attendus Données pertinentes identifiées, capturées et valorisées. Optimisation du temps, des outils et des ressources liés à la gestion data. Analyses et visualisations lisibles et exploitables par les métiers. Recommandations permettant la création de valeur opérationnelle. Amélioration continue des services et processus grâce aux insights data. Respect des normes éthiques et de gouvernance du groupe. Promotion et documentation des produits data pour faciliter leur maintien dans le temps. 🧠 Compétences requises Data Engineering Modélisation : relationnelle, dimensionnelle, Data Vault Pipelines ETL / ELT Gouvernance : data lineage, qualité, catalogage Architectures data modernes : Data Lakehouse, Data Mesh Langages SQL avancé Python / PySpark avancé Technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps 📍 Conditions Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail Pas de portage, ni de sous-traitance
Freelance

Mission freelance
Senior Security Engineer

Publiée le
AWS Cloud
Azure
Gateway

12 mois
540-570 €
Suresnes, Île-de-France
Télétravail partiel
Nous recherchons un(e) Senior Security Engineer expérimenté(e) pour rejoindre notre équipe de sécurité opérationnelle. Le rôle est essentiel pour renforcer la posture cybersécurité de l’organisation en participant à des projets d’architecture, en menant des tests d’intrusion, en supervisant des projets de sécurité et en apportant une expertise technique sur les solutions de sécurité. La mission contribue à garantir l’efficacité des contrôles de sécurité, à appliquer la gouvernance de sécurité et à protéger les actifs critiques tout en maintenant la résilience opérationnelle. Responsabilités principales : Stratégie et architecture cybersécurité Mener des études d’architecture de sécurité. Assister à la mise en œuvre de la feuille de route technologique en cybersécurité. Fournir des retours sur les technologies émergentes et leur impact opérationnel. Aider à aligner l’utilisation des technologies avec les objectifs de sécurité de l’entreprise. Gestion de projets cybersécurité Superviser la planification, l’exécution et la livraison de projets cybersécurité (infrastructure, applications, cloud). Définir le périmètre, les objectifs et les livrables des projets. Collaborer avec des équipes transverses (IT central, IT régional, équipes produits et solutions, équipes GRC). Communiquer l’avancement, les risques et les résultats aux parties prenantes techniques et non techniques. Tests d’intrusion et gestion des vulnérabilités Contribuer à la définition du programme de tests d’intrusion. Coordonner les tests pour identifier les failles de sécurité. Analyser les résultats et accompagner les équipes concernées dans les mesures correctives. Fournir des rapports avec recommandations exploitables. Expertise sur les solutions de sécurité Piloter le déploiement des outils de sécurité. Agir en tant qu’expert technique sur les plateformes et outils de sécurité. Former les équipes IT et SecOps sur les technologies de sécurité. Évaluer la performance des solutions de sécurité et proposer des améliorations. Compétences techniques et qualifications : Minimum 10 ans d’expérience en tant que consultant ou dans un rôle similaire en cybersécurité. Expérience avérée dans la conception et la mise en œuvre de stratégies de prévention des fuites de données (DLP) sur environnements cloud et postes de travail. Maîtrise approfondie de l’architecture de sécurité cloud (AWS, Azure, GCP) : IAM, chiffrement, conception sécurisée des workloads. Expérience pratique avec CSPM et CWPP, y compris la sélection, rationalisation et intégration des outils. Connaissance des WAF (AWS WAF, Azure Application Gateway, Cloudflare) et de leur configuration. Expertise dans la conception, l’exécution et le suivi des programmes de tests d’intrusion. Compétences complémentaires : Gestion de projet et engagement des parties prenantes. Capacité à traduire les risques techniques en impacts business. Excellentes compétences en communication et documentation, à destination d’audiences techniques et exécutives. Maîtrise du français et de l’anglais.
CDI
Freelance

Offre d'emploi
Expert QA Automatisation / IA – Aix en Provence H/F

Publiée le
Automatisation
Gherkin
Gitlab

3 ans
50k-55k €
460-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Quel challenge proposons nous ? Dans le cadre de projets dans le domaine du test en région PACA, nous recrutons un expert QA automatisation et Intelligence Artificielle (F/H) chez notre client proche d’ Aix en Provence. Ainsi, vos missions seront : Participer à l’affinage des US / Features et à l’élaboration des critères d’acceptances. Élaborer et déployer les stratégies de tests fonctionnels et automatisés Veiller à la cohérence entre la stratégie et sa mise en application. Mettre en place les bonnes pratiques Définir le processus de mise en œuvre de l'automatisation des tests : choix et mis en place des outils de test et des Framework adaptés Assurer l’automatisation de tests : développement, Scripting et reporting des anomalies Mettre en place les Pipelines CI/CD et intégrer les tests Garantir la traçabilité et maintenabilité des tests automatisés Accompagner les QA dans les pratiques d’industrialisations des tests Diffuser et partager auprès des QA les standards, les patterns et Template d’automatisation, rationaliser le choix des outils. 3 jours de présentiel et 2 jours de remote - 1er mois intégration en présentiel. Vous envisagez un projet de vie proche d'Aix en Provence
CDI

Offre d'emploi
Testeur QA - Secteur des Télécoms - Lyon (H/F)

Publiée le
Playwright
Rest

40k-45k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du poste Notre client, éditeur de logiciels spécialisé dans le développement de solutions à forte volumétrie et orientées services, renforce aujourd’hui son pôle Qualité & Automatisation . Basé à Lyon, le poste s’inscrit dans un environnement Agile au sein d’une équipe pluridisciplinaire mêlant développeurs, product owners et ingénieurs QA. L’objectif : garantir la fiabilité , la performance et la qualité des produits déployés auprès de clients internationaux. Missions principales En collaboration étroite avec les équipes produit et développement , vous serez en charge de : Définir la stratégie de test et de recette sur les nouvelles fonctionnalités. Concevoir et exécuter des campagnes de tests fonctionnels et automatisés end-to-end . Développer et maintenir les tests automatisés d’API avec REST Assured . Identifier, documenter et suivre les bugs et anomalies jusqu’à leur résolution. Intégrer les tests dans les pipelines CI/CD sous GitLab. Participer activement aux cérémonies agiles (Daily, Rétrospectives, Refinement, Example Mapping, etc.). Contribuer à la culture QA et à l’amélioration continue des bonnes pratiques qualité. Stack & Environnement technique Tests automatisés : REST Assured (prioritaire), Playwright (TypeScript) CI/CD : GitLab CI/CD Architecture : Event Driven Architecture, Rest API Conteneurisation : Docker / Kubernetes Base de données : MariaDB / SQL Outils de gestion : Jira / XRay / Confluence Communication : Slack, Google Suite
CDD
Freelance

Offre d'emploi
Tech Lead SRE / Site Reliability Engineer (H/F)

Publiée le
Ansible
AWS Cloud
Docker

12 mois
50k-65k €
480-550 €
France
Télétravail partiel
Vous rejoignez la Platform Team au sein de la Tribe Paiement de la Digital Factory en tant que Tech Lead SRE . Votre rôle : piloter la vision technique SRE, garantir la fiabilité des plateformes de paiement, et assurer la performance, la résilience et la scalabilité des environnements cloud. Vous serez le référent technique, le mentor de l’équipe SRE, et un acteur clé dans la définition des standards d’ingénierie, DevOps et SRE. Leadership & Vision technique Superviser l’ensemble des activités SRE de la Platform Team. Porter la vision d’architecture résiliente, scalable et moderne (cloud, conteneurs, automatisation). Définir les standards SRE , bonnes pratiques DevOps et orientations techniques : CI/CD, observabilité, sécurité, gestion des incidents. Encadrer et développer l’équipe SRE (mentorat, pair programming, formation). Architecture & Fiabilité Concevoir et faire évoluer l’architecture cible de la plateforme Paiement avec les architectes et Tech Leads. Définir et maintenir les blueprints d’architecture : réseau, sécurité, déploiement, observabilité. Participer aux choix technologiques et à l’urbanisation cloud (AWS). Exploitation & Automatisation Garantir le maintien en condition opérationnelle (MCO) de l’ensemble des applications Paiement. Optimiser les performances, la sécurité, la stabilité et la scalabilité des environnements. Construire et améliorer les pipelines CI/CD (GitLab CI) : tests, scans sécurité, qualité, déploiements progressifs. Automatiser les opérations répétitives (scripts, jobs, workflows). Support technique & gestion des incidents Analyser, corriger et suivre les tickets (ServiceNow, Jira) de niveau 3. Réaliser les opérations de maintenance, rattrapages d’incidents et opérations bulk. Participer aux handovers des nouvelles fonctionnalités en production. Produire des rapports techniques sur la performance et les incidents. Observabilité & Monitoring Mettre en place, maintenir et améliorer les dispositifs d’observabilité (Splunk Observability). Réagir rapidement en cas de panne, diagnostiquer les causes et proposer des solutions pérennes. Suivre l'état de santé des applications, lever les alertes et réaliser les premières analyses. FinOps & optimisation des ressources Suivre les coûts AWS, détecter les dérives et proposer des optimisations. Contribuer à une démarche FinOps structurée pour un usage maîtrisé du cloud.
Freelance
CDD

Offre d'emploi
Data Engineer Microsoft Fabric (Azure Cloud) - Bruxelles

Publiée le
BI
Data Lake
Microsoft Fabric

9 mois
40k-45k €
540-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre de la modernisation de l'entrepôt de données de notre client , nous recherchons un Data Engineer expérimenté pour accompagner la migration vers Microsoft Azure et l’adoption de Microsoft Fabric et Power BI . Mission : Concevoir et développer des flux ETL dans Microsoft Fabric (Dataflows Gen2, Pipelines, Notebooks PySpark). Modéliser les données pour le BI selon Kimball / Snowflake (tables de faits, dimensions, agrégats). Assurer la qualité, fiabilité et performance des flux de données et mettre en place le monitoring. Automatiser les déploiements via CI/CD (Azure DevOps ou GitHub). Collaborer avec l’équipe ICT pour assurer la cohérence et la gouvernance des systèmes.
413 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous