Trouvez votre prochaine offre d’emploi ou de mission freelance Azure
Ce qu’il faut savoir sur Azure
Azure est la plateforme de cloud computing de Microsoft offrant une large gamme de services pour créer, déployer et gérer des applications. Sa scalabilité et sa flexibilité le rendent adapté aux entreprises de toutes tailles.
Offre d'emploi
SRE DevOps
Dans le cadre du renforcement des équipes d’exploitation et d’ingénierie, mon client souhaite intégrer un SRE / DevOps Engineer chargé d’assurer la fiabilité, la performance et la disponibilité des environnements de production, tout en accompagnant les équipes projets dans l’automatisation et l’industrialisation des déploiements. L’objectif est double : Fiabiliser et monitorer les plateformes applicatives et data en production, Automatiser et rationaliser les processus de build, déploiement et supervision. Les missions sont de : Mettre en œuvre et maintenir les chaînes CI/CD (GitLab CI, Jenkins, Azure DevOps, etc.) Assurer la supervision , l’ observabilité et la gestion des incidents (Prometheus, Grafana, ELK, Datadog…) Concevoir et maintenir l’ infrastructure as code (Terraform, Ansible, Helm, etc.) Gérer et sécuriser les environnements conteneurisés (Kubernetes, Docker, OpenShift) Automatiser les déploiements applicatifs et optimiser les pipelines de livraison continue Collaborer étroitement avec les équipes de développement pour garantir la stabilité et la scalabilité des services Contribuer à la culture DevOps et à la montée en compétence des équipes internes

Offre d'emploi
Ingénieur Prod Data / DataOps Engineer (Pas de profils Data Engineer / Data Scientist)
Pour l'un de nos clients nous recherchons un(e) Ingénieur de Prod Data, qui sera amené à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers. Les principales missions sont les suivantes : Administration de la plateforme Data et de ses outils Administrer les composants Dataiku et CloudBeaver de la plateforme (installation, configuration, monitoring, backup, montées de version…) Faire évoluer et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagner les utilisateurs sur les best practices et l’industrialisation des projets métiers Support et expertise technique Résoudre les incidents impactant les plateformes Conseiller les équipes du Data Office (Data engineers / Data scientists / Data analysts / BI engineer) sur les choix d’implémentation (architecture et technologie) Réaliser des audits techniques, des analyses de performance (requêtes SQL, jobs Spark, fonctions Lambda, entraînement modèles ML, …) ou des PoC. Evolution de l’infrastructure : Evaluer l'infrastructure actuelle et proposer si besoin une stratégie de modernisation progressive des composants legacy (IaaS) vers des solutions cloudnatives (PaaS/SaaS/Serverless), en intégrant les pratiques DevOps (IaC, CI/CD, automatisation) et FinOps Développer et implémenter les nouveaux patterns d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel)
Mission freelance
Ingénieur Data Platform (H/F)
Nous recherchons un(e) Ingénieur(e) Data Platform spécialisé(e) dans la conception, le développement et la maintenance des infrastructures soutenant les pipelines de données et les applications data-driven de l’entreprise. Le rôle consiste à bâtir un écosystème de données robuste, évolutif et fiable, en lien étroit avec les équipes Data et Cloud. Missions principales : Concevoir, développer et maintenir l’infrastructure de données basée sur Snowflake. Mettre en œuvre des modules Terraform pour Snowflake et les ressources Cloud associées. Garantir la qualité, la sécurité et l’automatisation de l’infrastructure via des workflows CI/CD Git. Gérer la configuration et la protection des secrets (HashiCorp Vault, AWS Secrets Manager, Azure Key Vault, GCP Secret Manager). Participer aux activités DevOps liées à la supervision et au déploiement.

Mission freelance
Tech Lead Fullstack Java/Angular
CONTEXTE: Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Chef de projet Spécialités technologiques : Fullstack , Applications Web, Versionning, Gestion de configuration, Devops, tests unitaires Compétences Technologies et Outils PostgreSQL Ansible ElasticSearch JestJava Docker Kubernetes Gitlab Keycloak Apache SpringBoot Angular Azure Nginx Terraform Méthodes / Normes Adapter RGAA Nous recherchons un profil tech lead pour reprendre en charge certaines activités build et run d'un projet stratégique. Il sera amené à piloter l'activité de l'équipe technique du projet (~6 personnes) et à participer aux instances du projet (interne et avec le client) et en lien avec son homologue fonctionnel et le Chef de projet. MISSIONS - Pilotage et suivi - Assurer la cohérence technique de l'application run et build - Co-construction du plan de charge du projet avec le chef de projet et le référent fonctionnel avec la responsabilité sur le périmètre technique (planification et répartition des activités des développeurs du périmètre) - Suivre l'activité de l'équipe et valider la bonne adéquation de la production avec le plan de charge théorique. Adapter le plan de charge si un écart survient en collaboration avec le chef de projet et le référent fonctionnel - Garantir toutes les productions techniques (codes, tests unitaires, documentation, livrables techniques, conceptions techniques, etc.), en qualité et délais, dans le respect des normes et standards. - Suivre et réaliser les revues de code avec feedback constructif aux équipes - Evaluer les charges techniques et rédiger les devis Expertise technique - Développer les fonctionnalités complexes et/ou critiques de l’application (back et front) - Effectuer le support technique aux développeurs - Maitriser les problématiques de performance, de sécurité et d’accessibilité - Maintenir et faire évoluer les chaines de construction et déploiement, ainsi que les environnements internes Expertise souhaitée Compétences attendues : - Exigées: Java 17, Spring 6, Spring Boot 3, JUnit 5, Angular 17, NgRx, Jest, GitLab, PostgreSQL, Conception technique, Chiffrage, Pilotage d’équipe technique, Revue de code - Souhaitables : Elasticsearch, Tomcat, Apache, nginx, Keycloak, RGAA, DSFR - Appréciées : Ansible, Terraform, Docker, Kubernetes, Azure Une bonne expression orale et écrite ainsi que des qualités pédagogiques sont requises
Offre d'emploi
Lead Devops H/F
À propos de nous : Grafton Recruitment, spécialiste de l'intérim et du recrutement de profils juniors à professionnels confirmés, recherche un Lead Devops. Vous souhaitez relever un nouveau défi et prendre un rôle clé dans la mise en place d'une culture DevOps ? Nous recrutons pour le compte de notre client un Lead DevOps en CDI à Strasbourg. Vos missions Définir et piloter la stratégie DevOps. Concevoir et optimiser les pipelines CI/CD. Garantir la disponibilité, la sécurité et la performance des environnements (cloud et on-premise). Encadrer et faire monter en compétence une équipe d'ingénieurs DevOps. Assurer une veille technologique et proposer des solutions innovantes. Profil recherché Expérience confirmée (5 ans minimum) en environnement DevOps. Maîtrise des outils : Kubernetes, Docker, Terraform, Ansible, GitLab CI/CD. Expertise cloud (AWS, Azure ou GCP) et automatisation. Leadership, pédagogie et capacité à travailler en transverse. #LI-ST1
Mission freelance
Data Engineer / Analytics Engineer Microsoft Fabric
Contexte : Notre client, un grand établissement financier, recherche un Data / Analytics Engineer spécialisé sur l’écosystème Microsoft Fabric pour intervenir dans un projet stratégique de migration de Synapse vers Fabric. Le contexte fonctionnel est très novateur, il permet le suivi de l'ensemble du processus d'achat de l'entreprise. La mission, d’une durée initiale de plus de 6 mois et reconductible, s’inscrit dans un programme long terme de modernisation des plateformes data & analytics. Missions principales : Le consultant interviendra en tant que Data Engineer / Analytics Engineer et aura pour responsabilités : Concevoir, développer et maintenir des pipelines de données dans Azure Data Factory et Microsoft Fabric Data Factory. Accompagner la migration des pipelines Synapse vers Fabric Data Factory. Migrer les workloads SQL Serverless de Synapse vers un Lakehouse Fabric. Participer à la modélisation des données et à l’optimisation des flux pour des usages analytiques et reporting. Contribuer à l’industrialisation et à la mise en place de bonnes pratiques (performance, qualité, sécurité). Collaborer avec les équipes métiers et BI pour assurer la bonne alimentation des modèles Power BI. Rédiger la documentation technique et transférer les compétences aux équipes internes. Compétences recherchées : Compétences principales (indispensables) : Microsoft Fabric (Data Factory, Lakehouse, OneLake). Azure Data Factory (ADF). Synapse Analytics (pipelines & SQL Serverless). Power BI (modélisation, intégration des datasets). Compétences secondaires (atouts) : Python pour l’automatisation et la transformation des données. PowerShell pour le scripting et l’automatisation des environnements Azure. Profil recherché : Minimum 3 à 5 ans d’expérience en tant que Data Engineer / Analytics Engineer. Solide expérience dans la migration ou la mise en place de solutions cloud data Microsoft. Expérience dans des environnements grands comptes ou secteur financier appréciée. Capacité à travailler en mode projet (agilité, collaboration avec plusieurs équipes). Bonnes compétences de communication et capacité à vulgariser les enjeux techniques auprès des métiers. Informations pratiques : Lieu : Paris / Île-de-France. Télétravail : jusqu’à 3 jours par semaine. Durée : mission longue (> 6 mois), reconductible. Démarrage : dès que possible. TJ : 550€ Merci de faire parvenir vos CV à :

Mission freelance
Cloud Delivery Manager - CDI - Paris 02 H/F
Qui sommes-nous ? On est une ESN spécialisée dans le domaine des infrastructures à taille humaine, avec plus de 30 ans d’histoire. Mais ce qui fait notre vraie différence ? On ne se contente pas de dire qu’on valorise nos collaborateurs, on le prouve au quotidien. Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. 📍 Le terrain de jeu ? Notre siège est situé au cœur du dynamique 10e arrondissement de Paris, mais nos opportunités de postes s'étendent dans tous les arrondissements parisiens et la proche banlieue. Votre mission (si vous l’acceptez) : Suivi incidents/problèmes/changements (ServiceNow, CAB) Pilotage prestataires infogérance (Azure 85% / GCP 10% / Aliyun 5%) Garant des livrables de mise en production Reporting hebdomadaire et mensuel de suivi de l'activité de production L’environnement technique : Solide connaissance des environnements cloud Azure, GCP et Aliyun. Maîtrise des systèmes d'exploitation Windows Server et Linux. Connaissance des architectures PaaS (Platform as Service). Connaissance des outils de gestion des incidents et des problèmes (ex : ServiceNow). Connaissance des outils de supervision et de monitoring. Vous, notre perle rare : Vous avez 5 ans d’expérience (minimum) en environnement challengeant Vous avez déjà travaillé avec des clients grands comptes Vous parlez anglais (niveau conversationnel) Vous êtes rigoureux, organisé et attentif aux détails. Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 50000 - 55000 € (Selon votre expertise) 400 - 500€ Indépendant Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !

Mission freelance
Expert vulnérabilité
Contexte Le consultant rejoindra le Centre de Sécurité Opérationnelle afin de participer à la mise en œuvre, au paramétrage et à l’exploitation quotidienne des outils de cybersécurité. Il interviendra sur les activités de détection, d’analyse et de gestion des vulnérabilités, en lien étroit avec les équipes techniques et les clients internes. Mission principale ✔️ Élaborer et appliquer les politiques de scan de vulnérabilités. ✔️ Déployer et administrer la solution de gestion des vulnérabilités. ✔️ Superviser les scans (actif, passif, authentifié ou non, cloud AWS/Azure). ✔️ Maintenir les rapports d’analyse et les tableaux de bord. ✔️ Structurer et prioriser les plans de correction. ✔️ Fournir un appui aux équipes techniques pour la remédiation. ✔️ Effectuer une veille constante sur les menaces et vulnérabilités émergentes. ✔️ Automatiser les tâches répétitives via scripts, RPA ou pipelines CI/CD. ✔️ Rédiger les alertes, tickets et rapports dans Jira ou ServiceNow. ✔️ Contribuer à l’amélioration continue des processus et de la qualité des livrables.

Mission freelance
Expert QA Data H/F
Notre client dans le secteur Autre recherche un/une Expert QA Data (H/F)H/F Description de la mission: Notre client, grand groupe recherche un ingénieur expert QA des données ! Vous serez responsable de garantir la qualité et l'intégrité des produits et flux de données. Votre travail devra directement améliorer la qualité des livraisons et empêcher les bugs d’atteindre la production. Cela est essentiel, car l’utilisation et l’importance des produits de données ne cessent de croître. Vous collaborerez étroitement avec les chefs de produit, les ingénieurs et les autres membres de l’équipe pour définir, exécuter et automatiser nos processus d’assurance qualité. L'équipe Testing & QA joue un rôle essentiel pour garantir la fiabilité et les performances des produits de l'entreprise, tout en réduisant la charge de travail des équipes d’ingénierie. Sa mission est d’être le garant de la qualité des produits et services, et d’améliorer en continu les processus et les outils afin d’apporter toujours plus de valeur à ses clients. L'équipe a très tôt investi dans les capacités d’automatisation , et met en œuvre une démarche d’efficacité avec une vision end-to-end au sein de ses équipes. Envionnement technique : Jira X-Ray pour la rédaction et l’exécution des scénarios manuels. X-Ray est également utilisé avec IntelliJ pour implémenter les tests automatisés en Gherkin . Le framework d’automatisation est personnalisé et repose sur Selenium , Appium et RestAssured . L’exécution se fait sur LambdaTest , avec les résultats de test envoyés dans Jira . Les tests API sont gérés avec Postman , et les logs sont stockés dans Datadog . Responsabilités : Vous jouerez un rôle clé dans la promotion de la qualité au sein de votre périmètre dédié. Vos principales responsabilités seront les suivantes : Élaborer la stratégie de test de l’équipe Data et définir la bonne approche en matière d’assurance qualité, en collaboration avec votre Product Owner , Scrum Master et l’ équipe Data . Concevoir, diriger et exécuter des sessions de tests de bout en bout ( E2E ), avec un accent particulier sur nos produits de données au sein de l’ environnement Azure Data Stack et Databricks . Travailler en étroite collaboration , de manière proactive, avec les Product Owners pour définir et affiner les scénarios de test , en mettant l’accent à la fois sur les exigences fonctionnelles et sur la précision des données . Garantir la qualité et la valeur des produits de données livrés en mettant en œuvre des scénarios de test rigoureux avec les membres de la tribu Data . Appliquer et adapter notre cadre et nos pratiques QA afin de répondre aux défis spécifiques d’un environnement orienté données . Collaborer avec l’équipe d’Automatisation de l’Assurance Qualité (QAA) pour automatiser les tests critiques , en mettant principalement l’accent sur l’ingestion des données et les produits de données clés . Ce que nous recherchons : 3 à 4 ans d’expérience en tests logiciels et en assurance qualité . Profil proche de celui d’un Data Analyst , avec une solide compréhension des méthodologies QA , un fort sens de la rigueur et une grande attention aux détails . Capacité à comprendre rapidement le contexte métier et les aspects fonctionnels de nos produits de données, même sans expérience préalable dans notre secteur d’activité spécifique. Maîtrise des technologies clés liées aux données , avec une excellente maîtrise du SQL indispensable Une expérience avec Azure Data Stack et Databricks constitue un atout majeur. Expérience de travail sur une plateforme de données . Compétences techniques : expérience pratique des outils et frameworks d’automatisation de tests (ex. : Selenium , Appium , Cucumber ). Excellentes capacités d’analyse et de résolution de problèmes , avec la capacité d’identifier la cause racine des problèmes de qualité des données et de collaborer avec l’équipe pour les résoudre. Capacité à travailler de manière autonome et en équipe , dans un environnement multiculturel , technique et agile à grande échelle (SaFe) . Maîtrise de l’anglais , à l’écrit comme à l’oral, pour une communication efficace. La certification ISTQB est un atout . Compétences / Qualités indispensables : anglais, test, QA, SQL, selenium, appium, cucumber, plateforme de données, SaFe Compétences / Qualités qui seraient un + : Azure Data Stack, Databricks, certification ISTQB Informations concernant le télétravail : 2 jours par semaine de télétravail
Mission freelance
Chef de projet - Infrastructure IT
Nous recherchons un chef de projet expérimenté pour piloter des programmes stratégiques en cybersécurité, infrastructure IT et gestion du poste de travail, dans un environnement hybride Microsoft / Azure . Une connaissance théorique/ fonctionnelle des technologies est suffisante, aucunes tâches techniques ne vous seront adressées. Le besoin se trouve sur vos compétences dans l'organisationnel. ✅ Cybersécurité & PKI ✅ Protection & Poste de travail ✅ MDM & Gestion mobile Migration MobileIron → Intune (Apple iOS) Intégration Apple Business Manager pour cycle de vie applicatif Déploiement & formation Tanium MDM (SaaS) ✅ Identité & Cloud Gestion identités hybrides ( AD & Entra ID ) Mise en place protocoles d’authentification & collaboration B2B

Offre d'emploi
TECH LEAD DATA ENGINEER
Nous recherchons un Tech Lead Data Engineer senior avec une expérience d’au moins 2 ans en tant que Tech Lead, certifié sur Spark ou Databricks (obligatoire) et qui sera en mesure de livrer des : 1. Guidelines techniques & standards de développement 2. Cartographie de la dette technique priorisée En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique. À ce titre, vos principales responsabilités seront : • Assurer un leadership technique auprès des équipes de développement. • Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. • Participer activement aux phases de conception, développement et tests. • Porter la vision technique au sein des équipes Agile. • Garantir la qualité des livrables et veiller à la réduction de la dette technique. • Réaliser la modélisation des données. • Assurer une veille technologique et participer aux POCs. • Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. EXPERTISES REQUISES - Databricks - Spark - Azure - Modélisation Aptitudes Personnelles • Leadership technique et capacité à fédérer. • Force de proposition et esprit de partage. • Excellente maîtrise de l’architecture SI. • Rigueur, réactivité, aisance relationnelle et rédactionnelle. • Capacité à accompagner la montée en compétences des équipes. • Communication claire et collaboration transverse.
Offre d'emploi
Expert IA (ChatGPT)
Nous recherchons un ** Expert en Intelligence Artificielle (IA) spécialisé ChatGPT dans la **conception, le développement et le déploiement d’assistants conversationnels internes de type ChatGPT** pour les entreprises. Le candidat idéal aura une solide expérience en **IA générative**, **traitement du langage naturel (NLP)** et **intégration d’outils LLM (Large Language Models)** dans les environnements professionnels afin d’automatiser les processus, améliorer la productivité et renforcer la gestion des connaissances internes. Responsabilités principales : * Concevoir et développer des **assistants IA internes (ChatGPT-like)** adaptés aux besoins spécifiques de l’entreprise. * Intégrer le modèle IA avec les systèmes internes (SharePoint, CRM, ERP, bases documentaires, intranet, etc.). * Gérer la **fine-tuning** ou la personnalisation de modèles de langage (OpenAI, Azure OpenAI, Anthropic, Llama, Mistral, etc.). * Garantir la **sécurité, la confidentialité et la gouvernance des données** utilisées par l’IA. * Collaborer avec les équipes métiers pour identifier les cas d’usage pertinents (support interne, RH, IT, juridique, formation, etc.). * Surveiller la performance du chatbot et proposer des optimisations continues. * Assurer une **veille technologique active** sur les innovations en IA générative, NLP et automatisation intelligente. Compétences techniques requises : * Maîtrise des **modèles de langage (LLMs)** et des API (OpenAI, Azure OpenAI, Hugging Face, etc.). * Solides connaissances en **Python**, **LangChain**, **RAG (Retrieval-Augmented Generation)**, et intégration API. * Expérience avec les frameworks IA : **TensorFlow**, **PyTorch**, ou équivalents. * Maîtrise des outils de vectorisation de données et de bases vectorielles (FAISS, Pinecone, ChromaDB, etc.). * Connaissance des **architectures cloud (Azure, AWS, GCP)** et de leurs services IA. * Bonne compréhension des enjeux de **sécurité et confidentialité** dans le contexte IA.
Offre d'emploi
Ingénieur·e DevOps
Vous êtes rigoureux·se, autonome et passionné·e par l’industrialisation des process de livraison logicielle ? Vous souhaitez rejoindre un environnement technique exigeant et contribuer à la fiabilisation des chaînes CI/CD ? Cette opportunité est pour vous ! Nous recherchons un·e Ingénieur·e DevOps pour intervenir auprès d’un grand compte du secteur de l’assurance. Vos missions principales : Participer à la gestion des mises en production dans des environnements complexes Industrialiser et maintenir les chaînes d’intégration et de déploiement continu (CI/CD) Mettre en œuvre, configurer et optimiser les outils de release management (XL Deploy, XL Release, Jenkins, Azure DevOps) Contribuer à l’amélioration de la qualité du code via l’intégration de SonarQube dans les pipelines Automatiser les processus à l’aide de scripts PowerShell, Python ou Groovy Intervenir sur des environnements hétérogènes : mainframe z/OS, systèmes Windows et Linux Collaborer avec les équipes de développement et d’infrastructure pour assurer la fluidité des déploiements Environnement technique : CI/CD & Release Management : Jenkins, Azure DevOps, XL Deploy, XL Release Langages de scripting : PowerShell, Python, Groovy Systèmes : z/OS, Windows Server, Linux Qualité de code : SonarQube Versioning & Collaboration : Git Langages utilisés (maintenance & intégration) : C#,

Offre d'emploi
Responsable d'exploitation
Principales responsabilités Mettre en place l’environnement technique des tests avec notre infogérant Suivre et encadrer les différents acteurs durant les tests de DRP Analyser les dysfonctionnements techniques avec les équipes support et escalader aux experts/architectes Maintien à jour de la documentation de la stratégie et de la politique de DRP du Groupe Animer les comités de pilotage Compétences requises Connaissance approfondie des technologies Microsoft, Linux, Bases de données, Réseaux, Cloud, Stockage, Sauvegardes, … Capacité à effectuer des évaluations fonctionnelles et à recommander des solutions appropriées Compétences en matière de résolution de problèmes et de monitoring Environnement technique Système : Windows, Linux Cloud : Azure, AWS Stockage : Purestorage, Netapp Sauvegarde : Netbackup, Veeam Réseaux : LAN/WAN, TCP/IP Databases : Oracle, SQL, Postgre, MariaDB Annuaire : Active Directory, Azure AD

Offre d'emploi
TECH LEAD DATA ENGINEER
Nous recherchons un Tech Lead Data Engineer senior avec une expérience d’au moins 2 ans en tant que Tech Lead, certifié sur Spark ou Databricks (obligatoire) et qui sera en mesure de livrer des : 1. Guidelines techniques & standards de développement 2. Cartographie de la dette technique priorisée En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique. À ce titre, vos principales responsabilités seront : • Assurer un leadership technique auprès des équipes de développement. • Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. • Participer activement aux phases de conception, développement et tests. • Porter la vision technique au sein des équipes Agile. • Garantir la qualité des livrables et veiller à la réduction de la dette technique. • Réaliser la modélisation des données. • Assurer une veille technologique et participer aux POCs. • Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. EXPERTISES REQUISES - Databricks - Spark - Azure - Modélisation Aptitudes Personnelles • Leadership technique et capacité à fédérer. • Force de proposition et esprit de partage. • Excellente maîtrise de l’architecture SI. • Rigueur, réactivité, aisance relationnelle et rédactionnelle. • Capacité à accompagner la montée en compétences des équipes. • Communication claire et collaboration transverse.

Offre d'emploi
Développeur Data (Bordeaux)
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Azure
Ingénieur·e devops (Cloud)
L’ingénieur·e devops utilise Azure pour automatiser et gérer les déploiements d'applications Cloud, en garantissant leur disponibilité, leur scalabilité et leur sécurité.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L’architecte Cloud conçoit des solutions d'infrastructure basées sur Azure, en intégrant des services Cloud sécurisés et évolutifs adaptés aux besoins spécifiques des entreprises.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La responsable des infrastructures utilise Azure pour superviser les environnements Cloud, en optimisant leur performance et en garantissant leur fiabilité à travers les différents services de la plateforme.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offresIngénieur·e systèmes & réseaux
L’ingénieur·e systèmes & réseaux utilise Azure pour configurer et sécuriser les environnements Cloud tout en assurant leur intégration avec les réseaux d'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offres