Trouvez votre prochaine offre d’emploi ou de mission freelance SPARQL à Paris
Votre recherche renvoie 25 résultats.
Offre d'emploi
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse
12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
Mission freelance
Architecte Data – Azure/Databrics
Hexagone Digitale
Publiée le
Azure
Azure Data Factory
BI
6 mois
450-550 €
Paris, France
Dans le cadre du renforcement de sa Data Factory, un grand groupe international accélère la structuration de sa plateforme data sur Microsoft Azure avec un usage central de Databricks pour le traitement, la transformation et la valorisation des données. L’environnement s’inscrit dans une logique Data Lake , organisation Bronze / Silver / Gold et montée en maturité data à l’échelle groupe. Mission L’Architecte Data interviendra sur la conception et l’industrialisation de la plateforme data Azure. Ses responsabilités principales : Concevoir et faire évoluer l’architecture data sur Azure Structurer et optimiser les pipelines data via Databricks (Spark) Mettre en place les traitements de transformation et d’agrégation Modéliser les données pour les usages analytiques Garantir performance, scalabilité et qualité des flux Participer aux ateliers de cadrage technique avec les équipes métiers et IT Contribuer aux standards d’architecture et aux bonnes pratiques data Compétences clés (Must Have) Databricks (obligatoire) Azure (Data Lake, Synapse, Data Factory) Spark / PySpark SQL avancé Architectures Data Lake – Bronze / Silver / Gold Conception de pipelines data industrialisés Modélisation Data Warehouse Compétences appréciées (Nice to Have) Power BI DAX MDM (Master Data Management) Data Quality / Gouvernance Data Mesh Azure DevOps / Git ERP (SAP) Profil recherché 5 à 10 ans d’expérience en Data Engineering / Architecture Data Expérience confirmée sur des environnements Azure + Databricks Capacité à intervenir sur des environnements data complexes Autonomie technique et posture structurante Bon relationnel et capacité à challenger les choix d’architecture Environnement de travail Cloud : Microsoft Azure Traitement data : Databricks, Spark Stockage : Azure Data Lake Gen2 Orchestration : Azure Data Factory BI (selon besoins) : Power BI Gouvernance (selon périmètre) : MDM / Data Quality Conditions de la mission Lieu de la mision : Paris Mission longue : 6 à 12 mois renouvelables Temps plein Télétravail partiel possible Démarrage rapide TJM : 450-550€
Mission freelance
Ingénieur Workplace Intune (h/f)
emagine Consulting SARL
Publiée le
Intune
3 ans
Paris, France
Le Service Senior d’Ingénierie du Poste de Travail travaillera en interface avec l’équipe Windows Edition Product , en support pour intégrer et déployer les appareils gérés via Intune , et accompagnera les entités Groupe dans leur onboarding via la configuration des profils et l’intégration des applications. Description du service : G estion d’applications de bout en bout (intégration → test → qualification → déploiement) via Intune Support de niveau L3 (gestion des incidents majeurs et des problèmes techniques rencontrés par les utilisateurs) A nalyse et correction de bugs D éveloppement de nouvelles fonctionnalités , si nécessaire Contribution à la gestion du cycle de vie des produits au niveau des entités locales Livrables attendus : Livraison de paquets d’applications configurés via Intune , configuration WIP et VPN Mise à jour, résolution et clôture des tickets d’incidents SILVA Reporting (éléments de sécurité, nombre de dispositifs, applications/outils) via Intune et Log Analytics Documentation de toutes les configurations et implémentations réalisées Compétences requises : Indispensables : Environnement de travail anglais et maîtrise du contexte professionnel en anglais Expertise dans la rédaction de documentation Maîtrise de l’approche MDM via Autopilot/Intune Expertise dans la gestion des appareils Windows Expertise en Windows Information Protection (WIP) Souhaitables : Expertise en MS Endpoint DLP Expertise en McAfee Cloud Proxy Expertise en F5 PerApp VPN Connaissance de la méthodologie Agile/Scrum
Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance
Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud
12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Mission freelance
Cloud Delivery Manager (h/f)
emagine Consulting SARL
Publiée le
12 mois
500-600 €
75000, Paris, Île-de-France
Introduction & Résumé Le/la Cloud Delivery Manager est chargé(e) de superviser et d’optimiser l’environnement de production cloud de l'entreprise, garantissant stabilité, performance et sécurité. Ce poste requiert une expertise en gestion d'environnements cloud ainsi qu'une connaissance approfondie des technologies Azure et GCP. Principales Responsabilités Gestion des Incidents et des Problèmes : Piloter la gestion des incidents, communiquer avec les équipes IT. Gestion des Prestataires : Piloter les relations avec les prestataires d’infogérance. Gestion des Changements : Piloter les demandes de changement et coordonner avec les équipes. Garantie des Livrables de Mise en Production : Assurer le respect des documentations standards. Reporting : Produire des rapports hebdomadaires et mensuels sur l’activité de production. Exigences Clés Diplôme de l’enseignement supérieur en informatique ou domaine connexe. Expérience significative (minimum 5 ans) en gestion d'environnements cloud. Solide connaissance des environnements cloud Azure, GCP. Expérience en gestion d'incidents, problèmes et changements. Expertise en reporting mensuel efficient. Anglais courant. Atouts Souhaitables Certifications cloud (Azure, GCP). Connaissance des architectures PaaS. Connaissance des outils comme ServiceNow. Aptitude à communiquer en anglais technique. Autres Détails Contexte : Au sein de l’équipe IT Production. Environnement Technique : 90% Windows servers, 85% Azure. Connaissance GCP est un plus. Lieu : Paris Démarrage : ASAP Télétravail : 1 jour / semaine Durée : > 12 mois
Mission freelance
Développeur .NET Finance (h/f)
emagine Consulting SARL
Publiée le
1 mois
500-550 €
Paris, France
Résumé : Le rôle de Développeur .NET Finance consiste à concevoir et implémenter des solutions logicielles au sein d'un environnement technique complexe, principalement basé sur des technologies Microsoft, tout en répondant aux besoins des métiers du groupe. Responsabilités : Développer des applications en utilisant C# et les principes de programmation fonctionnelle. Collaborer avec les équipes Front-Office et Middle-Office pour garantir des solutions adaptées aux utilisateurs. Assurer le déploiement des applications sur l'infrastructure Participer à l'élaboration et à la mise en œuvre de chaînes CI/CD pour les projets. Travailler sur des projets liés à la gestion d'actifs et à l'immobilier. Effectuer des tests et assurer le contrôle de la qualité du code. Compétences Requises : Expérience en développement C#, version 4.7 ou supérieure. Connaissance des principes SOLID en programmation. Expérience des API Rest et WCF. Capacité à travailler en interaction directe avec les utilisateurs dans le secteur de la finance. Atouts : Connaissance des métiers de la gestion d'actifs. Compétences en programmation fonctionnelle. Excellentes qualités relationnelles et sens du service.
Mission freelance
Consultant DevOps SRE (h/f)
emagine Consulting SARL
Publiée le
Terraform
3 ans
Paris, France
Description du service : En tant que Senior Software Engineer supportant la plateforme GHES , le service sera responsable du développement de fonctionnalités d’entreprise, d’automatisations et d’intégrations visant à améliorer les capacités et la fiabilité de la plateforme. Le service sera intégré dans un environnement agile ( SCRUM , SAFe ), favorisant une culture de confiance, de transparence et d’amélioration continue. Livrables du service : Concevoir, développer et maintenir l’automatisation des infrastructures à l’aide de Terraform et Ansible . Encadrer une équipe de SRE et d’ingénieurs afin de garantir la fiabilité, la sécurité et l’évolutivité de la plateforme. Piloter les processus d’automatisation et de gestion des incidents conformément aux principes SRE . Contribuer à l’évolution du socle SDLC pour répondre aux exigences métier, de gouvernance et opérationnelles. Collaborer avec les parties prenantes des différentes équipes pour améliorer les pratiques de développement, la sécurité et la conformité. Expertise : Ingénierie logicielle & livraison de fonctionnalités : Expertise avérée dans le développement de fonctionnalités d’entreprise, d’API ou d’outils d’automatisation dans un environnement cloud ou d’entreprise. Infrastructure as Code (IaC) : Expertise approfondie de Terraform et Ansible pour le déploiement d’infrastructures et la gestion de configuration. Supervision & gestion des incidents : Solide connaissance des systèmes de monitoring, de l’alerte et des processus de gestion des incidents. Architecture système : Conception et optimisation d’architectures évolutives, sécurisées, conformes et résilientes. DevSecOps & CI/CD : Expertise pratique des pipelines CI/CD , de l’automatisation et des stratégies de déploiement. Expertise technique : GitHub Enterprise Server (GHES) : Maîtrise avancée de la gestion, du déploiement et des fonctionnalités de GHES . Plateformes cloud : Expertise des fournisseurs cloud tels que Azure ou AWS , en particulier dans le contexte de solutions hybrides ou de contraintes de résidence des données. Gouvernance & résidence des données : Expertise des considérations de sécurité, conformité et résidence des données en entreprise. Langages & outils : Maîtrise du scripting ( Bash , PowerShell ) et familiarité avec les outils d’automatisation ( Terraform , Ansible ) et de supervision. Jira et Confluence : Expertise dans l’utilisation de Jira pour la gestion de projets et de Confluence pour la documentation et la collaboration. Expertises supplémentaires : Collaboration & interface : Interface avec des équipes transverses, parties prenantes et utilisateurs finaux. Résolution de problèmes : Forte capacité analytique pour diagnostiquer les problèmes et mettre en œuvre des solutions efficaces. Environnement anglais Qualifications du service : 5 à 7+ ans d’expérience professionnelle en ingénierie logicielle, DevOps ou développement de plateformes, avec un historique de livraison de fonctionnalités d’entreprise. Expertise technique approfondie en automatisation, développement de plateformes et support opérationnel. Méthodologies agiles ( SCRUM , SAFe ). Expertise dans l’implémentation et le support d’outils et frameworks SDLC évolutifs. Connaissance des exigences de conformité, de sécurité et de gouvernance au sein de grandes organisations.
Offre d'emploi
Développeur Full-Stack JAVA AWS (FH)
ASTRELYA
Publiée le
Angular
Apache Kafka
Apache Spark
Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Développeur(se) Fullstack Java AWS, vous interviendrez sur des projets innovants, au cœur des enjeux de transformation de nos clients. Vous participerez à la conception, au développement et à l’industrialisation de solutions modernes, robustes et évolutives. Concrètement vous allez : Concevoir et développer des applications Java / Spring Boot performantes. Contribuer au développement front (Angular, React ou Vue.js selon les projets). Participer à la définition des architectures techniques. Travailler en méthodologie agile au sein d’équipes pluridisciplinaires. Collaborer avec nos experts DevOps, Cloud et Data pour industrialiser et optimiser les solutions. Contribuer à l’amélioration de la qualité du code (tests automatisés, revues, bonnes pratiques). Développer en respectant les bonnes pratiques de production logicielle et de CraftsManship. Votre futur environnement technique : Back-end : Java 21, Spring Boot, API REST, microservices Front-end : Angular / React / Vue.js DevOps : CI/CD (GitLab, Jenkins, Azure DevOps…), Docker, Kubernetes Cloud : Azure, AWS ou GCP Modélisation de données : Kafka Qualité : tests unitaires, tests d’intégration, Sonar, automatisation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
25 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois