Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 777 résultats.
CDI
Freelance

Offre d'emploi
Expert Kubernetes / DevOps

Publiée le
Ansible
Azure
Cloud

3 ans
40k-65k €
400-560 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de son pôle DevOps, un grand groupe international du secteur du luxe recherche un Expert Kubernetes / DevOps afin d’industrialiser les déploiements des infrastructures cloud et de renforcer l’expertise autour des plateformes de conteneurisation. La mission s’inscrit au sein d’une équipe DevOps transverse, en charge des produits et solutions d’automatisation utilisés par les équipes techniques et projets. Objectifs de la mission L’expert interviendra sur les sujets suivants : Définition, évolution et maintien des toolkits de la fondation Kubernetes déployée sur plusieurs environnements cloud Contribution experte au déploiement et à l’extension de la plateforme Kubernetes sur différents fournisseurs cloud Mise en place de standards, bonnes pratiques et patterns d’industrialisation Accompagnement des équipes projets dans l’adoption et l’utilisation de la fondation Kubernetes Support aux équipes opérationnelles Transfert de compétences vers les équipes internes Responsabilités principales Participer à l’animation et à l’expertise du domaine DevOps Intervenir en tant que référent technique Kubernetes Garantir la qualité, la robustesse et la maintenabilité des déploiements Contribuer à l’amélioration continue des processus et outils DevOps
Freelance

Mission freelance
Data Engineer H/F

Publiée le
Azure

3 ans
Île-de-France, France
Description : Livrables : • Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. • Analyser et interpréter des données complexes afin d’en extraire des informations exploitables. • Collaborer avec des équipes inter fonctionnelles pour identifier et résoudre les défis liés aux données. • Développer et maintenir des pipelines de données, des modèles et des outils de reporting. • Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. • Fournir une expertise technique et des conseils aux parties prenantes pour soutenir les prises de décisions fondées sur les données. Expertise : • Diplôme de niveau Bachelor ou Master en informatique, data science ou domaine connexe. • Plus de 5 ans d’expérience en data engineering, data analytics ou rôle similaire. • Expérience avérée dans la livraison de solutions data dans un environnement dynamique. • Maîtrise des technologies et architectures data modernes, telles que les plateformes cloud, les frameworks big data et les solutions de data warehousing. • Expertise en langages de programmation tels que Python, SQL et Spark. • Maîtrise de la modélisation de données, des processus ETL et des techniques de transformation de données. • Expertise des plateformes cloud orientées data (ex. : AWS, Azure, Google Cloud). • Maîtrise des outils de visualisation et de reporting (ex. : Power BI, Tableau). • Connaissance approfondie des bonnes pratiques en matière de sécurité, gouvernance et conformité des données.
Freelance

Mission freelance
229375/Ingénieur CloudOps / SysOps AWS ou AZURE

Publiée le
AWS Cloud
Azure DevOps

6 mois
Paris, France
Ingénieur CloudOps / SysOps AWS ou AZURE, Devops, Kubernetes, Linux. Responsabilités : • Intégration : Concevoir, mettre en œuvre et faire évoluer les infrastructures Cloud et les services Cloud dans un souci constant d'industrialisation, d'efficacité et de coûts (FinOps) • Définir, concevoir, documenter les solutions d'industrialisation en lien avec les équipes R&D du groupe (devOps) et les autres équipes Cloud. • Assurer le transfert de compétences auprès de l’équipe N1 pour une prise en charge au bon niveau des alertes et incidents impactant nos services et les parcours clients. • Prendre en charge des incidents escaladés par les pilotes (Niveau 1 Cegid), le customer care ou les équipes R&D du groupe pendant les phases de transition double RUN • Piloter et correspondre avec les fournisseurs SaaS, logiciels et matériels de la plateforme Cloud • Assurer le respect des processus ITIL (Change, Incident, Problem) • Assurer la mise en œuvre, le respect et l'application des processus sécurité (ISO 27001) • Participer à des groupes de travail transversaux • Définir et rédiger la documentation technique propre au périmètre • Assurer une veille technologique et obtenir les certifications requises au maintien de son expertise Background & skills Experience • Expérience en tant qu’ingénieur Cloud Operation ou infrastructure (minimum 7 ans) dans des environnements IaaS/PaaS de production exigeants (niveau de service et disponibilité) et large volumes • Expérience dans la gestion d’environnement AWS, automatisation et intégration continue • Contribution à des projets de migration cloud applicative et infrastructure (lift & shift, replatform, re build) • Expérience en gestion d’infrastructures IT (Admin System, database) avec une forte orientation en environnements de production clients avec des enjeux de disponibilités très élevés. • Expérience de la gestion des incidents et des crises • Capacité à travailler dans un environnement agile, à gérer et ajuster les priorités de l’équipe Cloud Education • Bac+5 ou supèrieur. Diplôme en informatique, ingénierie ou domaine équivalent. Required Skills • Esprit analytique, rigueur et sens de l’anticipation • Autonomie, proactivité et capacité à prendre des décisions • Appétence pour l’excellence opérationnelle • Organisation, priorisation, pragmatisme • Partage de connaissance • Communication technique avec les autres équipes, leurs managers ou dans toute instance nécessitant la présentation de projets et de leurs objectifs • Passionné avec l’envie d’apprendre et de transmettre, qui sait créer les conditions d’un échange constructif – individuel et collectif • Intègre, transparent • Anglais courant Desirable Skills Mandatory • Certification avancée sur AWS • Compute / virtualisation : Windows et/ou Linux, scripting Powershell ou python, VMWare • DB : SQL Server, Cosmos DB, Oracle, Mysql • Outils de monitoring type APM (Ex : Dynatrace, Splunk) • Terraform, Ansible, GitHub, Azure DevOps Expected skills Microsoft Azure Confirmed DEVOPS Confirmed KUBERNETES Confirmed LINUX Confirmed AWS Confirmed
Freelance
CDI

Offre d'emploi
Observability Expert

Publiée le
Azure
Grafana

3 ans
40k-65k €
400-660 €
Paris, France
Télétravail partiel
I. Contexte : Notre département IT souhaite mettre en place et animer une Communauté de Pratique dédiée à l’observabilité et à la supervision de nos applications métiers. En tant qu’expert Observabilité/Supervision, vous serez chargé de définir et mettre en œuvre une stratégie d’observabilité complète (monitoring, logs, alerting, tracing) afin de garantir une visibilité en temps réel sur l’état de santé, les performances et le comportement de nos applications. Ces solutions permettront une détection proactive des incidents, un diagnostic rapide des problèmes et assureront la disponibilité de nos services critiques. L’environnement applicatif est hybride, composé de solutions cloud (D365, Power Apps, services Azure, Data product Fabric) et d’applications hébergées on-premise sur serveurs Windows (sites web, serveurs IIS, etc.). II. Missions : · Référent technique pour contribuer à la construction et à l’implémentation des composants de supervision et des pipelines d’observabilité · Fournir une expertise et, si nécessaire, participer à la conception, l’intégration et le déploiement des solutions de supervision (dashboards, collecte de logs, tracing, détection d’anomalies basée sur l’IA, etc.) · Collaborer avec les équipes de développement, d’exploitation et de sécurité pour intégrer les outils et pratiques d’observabilité dans les pipelines CI/CD · Apporter son expertise lors des incidents et des analyses de causes racines. · Identifier les besoins spécifiques de chaque équipe et définir des plans d’accompagnement. · Développer et maintenir des tableaux de bord et rapports pour visualiser les performances applicatives · Analyser et interpréter les métriques pour identifier les tendances et détecter les problèmes de manière proactive · Définir la gouvernance, les règles de fonctionnement et les objectifs de la Communauté. · Mettre en place des outils collaboratifs (wiki, canaux Teams) · Organiser et animer des sessions de la communauté · Favoriser les échanges inter-équipes et le partage de connaissances · Co-construire des standards techniques et des guidelines avec les équipes · Rédiger des guides de bonnes pratiques et de la documentation technique · Assurer une veille active sur les technologies et pratiques d’observabilité · Évaluer et tester de nouveaux outils du marché · Proposer des POC et des expérimentations innovantes.
Freelance
CDD

Offre d'emploi
Lead Consultant Machine Learning Engineering H/F

Publiée le
GitLab CI
Google Cloud Platform (GCP)
Python

12 mois
40k-45k €
600-680 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, vos missions consisteront à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance

Mission freelance
DBA POSTGRESQL/AZURE

Publiée le
PostgreSQL

6 mois
600-700 €
Île-de-France, France
Télétravail partiel
Référent PostgreSQL · Administration N3 des environnements PostgreSQL (IaaS & PaaS : Azure PostgreSQL Flexible Server) · Définition et mise en œuvre de standards d’exploitation : sécurité, reloads, supervision, PRA · Automatisation des déploiements et des opérations via Ansible, Git, scripting · Intégration avec les outils Azure : Bicep, Log Analytics, Azure Monitor · Participation à la mise en place de dashboards techniques (Grafana) · Contribution au support, à la documentation, et à la démarche DevOps DBA
Freelance

Mission freelance
Ingénieur Data / BI

Publiée le
Azure Data Factory
Databricks
Scala

12 ans
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB est le datamart TV qui vise à centraliser et fiabiliser les données nécessaires au pilotage et à l’analyse de l’activité publicitaire TV linéaire. Le datamart se source principalement d’OptiPub, base de référence regroupant les informations issues des différentes applications métiers de la régie publicitaire. Côté restitution, Ouranos fonctionne principalement avec une logique de self-BI : nous mettons à disposition des métiers un univers BusinessObjects et/ou un dataset Power BI standardisé, que les utilisateurs exploitent pour construire leurs propres tableaux de bord et analyses. La finalité est de fournir un socle de données unique et cohérent permettant aux équipes métier d’accéder rapidement à des informations fiables sur l’activité pub TV et de gagner en autonomie dans le reporting. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Ingenieur Data 5-8 ans Définition du profil Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
CDI
Freelance

Offre d'emploi
Expert M365 & Azure

Publiée le
Azure
Intune
microsoft

6 mois
50k-55k €
400-490 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Dans la direction du SI Bureautique du Pôle Numérique, l’expert contribuera à la conception, la mise en œuvre et à l’évolution des interfaces et solutions M365 à destination de l’ensemble des collaborateurs de l’organisation et ce, en adéquation avec les objectifs stratégiques. Rattaché au responsable du service Projets Ingénierie & Architecture du SI Bureautique, le prestataire participera aux missions suivantes : 1- Phases projet : • Contribuer à la conception des solutions et à la rédaction des dossiers d’architectures en collaboration avec l’architecte référent, les experts sécurité, infrastructure et réseau • Accompagner le chef de projet sur les points techniques lors de la rédaction des cahiers des charges et du choix des solutions • Déployer, intégrer, les POC, les environnements de non-production, de production et/ou interfaces des solutions sélectionnées et ce, en adéquation avec les préconisations des intégrateurs, des experts sécurité et des architectes • Collaborer avec les consultants et les intégrateurs, contributeurs des projets • Rédiger l’ensemble des documentations et procédures techniques • Assurer un reporting sur l’avancement de ses actions auprès du chef de projet • Transférer les compétences aux équipes d’exploitation 2- Maintien en conditions opérationnelles, de sécurité et Expertise • Maintenir les environnements et/ou interfaces des solutions implémentées à jour • Fiabiliser, optimiser le fonctionnement et les performances de ces solutions et/ou interfaces • Administrer l’ensemble des environnements M365 • Analyser, évaluer l’impact de nouvelles solutions sur l’existant • Corriger les vulnérabilités détectées dans le cadre des audits de sécurité 3 - Support N3 • Analyser, diagnostiquer, résoudre les incidents de dernier niveau sur la solution cloud ainsi que toutes les solutions d’interopérabilité entre les produits métiers et les briques Microsoft du SI Bureautique 4 - Veille Technique • S’informer, se tenir à jour des évolutions techniques associées aux produits Microsoft afin de proposer des solutions innovantes au client • Assurer une veille technique
CDI

Offre d'emploi
Développeur Python – Automatisation

Publiée le
Apache Airflow
CI/CD
Docker

40k-45k €
Île-de-France, France
Télétravail partiel
En tant que Développeur Python spécialisé en automatisation, vous interviendrez sur la conception, le développement et l’optimisation de scripts et d’outils destinés à automatiser les processus internes. Vous contribuerez à réduire les tâches manuelles répétitives, améliorer la fiabilité opérationnelle et accélérer les workflows techniques et métiers. Vous travaillerez en collaboration directe avec les équipes techniques (Ops, Data, Infrastructure) pour identifier les besoins, proposer des solutions innovantes et garantir la performance des outils développés.
Freelance

Mission freelance
Data Analyst / Data Quality

Publiée le
Azure
Data quality
SQL

24 mois
Paris, France
Télétravail partiel
Profils et Métiers : Métiers : Data Management Fonctions : Data Analyst Spécialités technologiques : Reporting MDM (Master Data Management) Cartographie des données Data quality (qualité des données) Type de facturation : Assistance Technique (taux journalier) Compétences techniques : Technologies et outils : Azure (4 ans), SQL (4 ans), Power BI, GCP Méthodes / Normes : KPI Soft skills : Rigueur Secteur d'activité : Énergie Description et livrables de la prestation : Le prestataire intervient dans le cadre du déploiement d’un référentiel centralisé des identités pour garantir la qualité, l’intégrité et la fiabilité des données issues de systèmes variés, support aux processus IAM/IGA. Il couvre : Données RH et organisationnelles, interfaces, flux et pipelines d’ingestion Interactions avec les équipes Data, RH, Sécurité et Métiers Les prestations incluent : Collecte et intégration : cartographie, amélioration des flux, contrôle de conformité, transformation et enrichissement Analyse de la qualité : détection anomalies, rapports, causes racines, actions correctives Mise en qualité et gouvernance : règles de qualité, golden records, dédoublonnage, remédiations Reporting et indicateurs : tableaux de bord KPI, suivi de la qualité, rapports consolidés Contribution au projet IGA : alignement des données, tests, mise en production Livrables attendus : Documentation systèmes sources et flux Catalogue de données et dictionnaire des attributs Règles de qualité et d’unicité Rapports d’analyse (initial et périodiques) Données nettoyées, normalisées et documentées Tableaux de bord Data Quality (Power BI) Documentation technique et fonctionnelle Rapports d’avancement et d’activité
Freelance
CDI
CDD

Offre d'emploi
Expert OpenShift – Administration de Clusters (H/F) – Paris

Publiée le
Ansible
CI/CD
Kubernetes

1 an
Paris, France
Contexte : Nous recherchons un Expert OpenShift pour accompagner l’administration et l’évolution d’une infrastructure containerisée à grande échelle. Vous interviendrez au sein d’équipes techniques expérimentées pour garantir la stabilité, la performance et la sécurité des environnements OpenShift en production. 🎯 Vos principales missions : Assurer l’ administration, la supervision et le maintien en conditions opérationnelles (MCO) des clusters OpenShift. Gérer l’ évolution et l’optimisation des plateformes d’hébergement. Réaliser l’ analyse et la résolution des incidents de niveau 2 et 3 . Participer à l’ industrialisation et à l’automatisation des opérations (Ansible, scripts, CI/CD…). Apporter votre expertise et vos recommandations techniques pour améliorer la fiabilité et la performance. Assurer les astreintes et interventions en HNO si nécessaire. 🧩 Compétences techniques requises : OpenShift – Expert – impératif Kubernetes – Confirmé – impératif Linux (Red Hat / CentOS) – Confirmé – impératif Automatisation (Ansible, CI/CD, scripting) – Confirmé – impératif Anglais professionnel – impératif
Freelance

Mission freelance
[MDO] ingénieur de plateforme de données - (min 7 ans XP)

Publiée le
CI/CD
Cloud
JIRA

5 mois
400-560 €
Flandre-Occidentale, Belgique
Télétravail 100%
En tant qu’ingénieur de plateforme de données, le rôle consiste à concevoir, développer et maintenir l’infrastructure supportant les pipelines de données et les applications pilotées par les données. La mission implique de créer un écosystème de données robuste, évolutif et fiable, en utilisant principalement Snowflake et des modules Terraform pour le cloud, tout en appliquant les bonnes pratiques DevOps, y compris CI/CD et tests d’infrastructure automatisés. La gestion sécurisée des secrets via des solutions comme HashiCorp Vault ou les gestionnaires de secrets cloud est également un aspect clé.
Freelance

Mission freelance
Data Engineering Manager – Data Platform & Transformation H/F

Publiée le
Azure
Snowflake

6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Engineering Manager – Data Platform & Transformation H/F Description de la mission: L’entreprise accélère sa transformation Data & IA et structure son organisation Data autour d’un modèle opérationnel à deux squads : Data Product Squad (orientée métier et création de valeur) Data Engineering Squad (mise à disposition de la plateforme, exploitation et enablement) L’entreprise recherche un(e) Data Engineering Manager expérimenté(e) pour piloter la Data Engineering Squad durant une phase de transition critique. La mission couvre trois objectifs menés en parallèle : Lancer et structurer la future plateforme Data cible , dont le socle technologique est en cours de validation et devrait s’appuyer sur Databricks ou Snowflake sur Microsoft Azure Migrer progressivement les environnements data historiques vers la nouvelle plateforme Assurer la livraison des projets métiers et clients en cours , à la fois sur les stacks existantes et sur la nouvelle plateforme, sans perturber les opérations Ce rôle requiert un fort leadership et une excellente capacité d’exécution . Responsabilités principales Piloter et manager la Data Engineering Squad (équipes internes et partenaires externes) Être responsable de la delivery , de la capacité et de la performance opérationnelle sur les plateformes legacy et cible Garantir la fiabilité , la performance , la scalabilité et l’ optimisation des coûts Structurer et piloter le bootstrap de la plateforme Data cible Planifier et exécuter la migration progressive des stacks legacy vers la plateforme cible Sécuriser la livraison des projets métiers et clients en cours sur les deux environnements Définir et faire respecter les standards Data Engineering et les modes de fonctionnement Agir comme point de contact principal avec les équipes Data Product, Architecture et IT Accompagner et faire monter en compétence les équipes Data locales sur les stacks technologiques Data Compétences & Expérience requises Expérience avérée en tant que Data Engineering Manager / Lead dans des environnements complexes et en transformation Solide expertise en plateformes Data et en Data Engineering Expérience confirmée avec Databricks et/ou Snowflake , idéalement sur Azure Expérience du management d’équipes mixtes (internes, consultants, offshore / AMS) Bonne maîtrise des enjeux de run , de gestion des incidents et de pilotage des coûts Expérience de migration de plateformes legacy vers une plateforme cible Excellentes capacités de leadership et de gestion des parties prenantes Profil senior requis (autonome, pragmatique, orienté delivery) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Freelance

Mission freelance
Data Engineering Manager (Bordeaux)

Publiée le
AWS Cloud

6 mois
400-750 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Libourne près de Bordeaux, je suis à la recherche d'un Expert Data Engineering Manager. Contexte et mission : Le client accélère sa transformation en matière de données et d'IA et structure son organisation autour d'un modèle opérationnel à deux équipes : • Équipe Produits de données (orientée vers les activités, axée sur la valeur). • Équipe Ingénierie des données (fourniture, exploitation et mise en œuvre de la plateforme). Il recherche donc un responsable Ingénierie des données expérimenté pour diriger l'équipe Ingénierie des données pendant une phase de transition critique. La mission couvre trois objectifs parallèles : • Mettre en place la future plateforme de données cible, dont la pile est actuellement en cours de validation et devrait être basée sur Databricks ou Snowflake sur Microsoft Azure. • Migrer progressivement les piles de données existantes vers la nouvelle plateforme. • Réaliser les projets commerciaux et clients en cours, à la fois sur les piles existantes et sur la nouvelle plateforme, sans perturber les opérations Ce poste exige un leadership fort et une grande discipline d'exécution. Responsabilités principales : • Diriger et gérer l'équipe d'ingénierie des données (équipe interne et partenaires externes). • Être responsable de la livraison, de la capacité et des performances opérationnelles sur les plateformes existantes et cibles. • Garantir la fiabilité, les performances, l'évolutivité et l'optimisation des coûts • Structurer et piloter le démarrage de la plateforme de données cible. • Planifier et exécuter la migration progressive de la pile existante vers la pile cible. • Assurer la livraison des projets commerciaux et clients en cours sur les deux piles. • Définir et appliquer les normes et les méthodes de travail en matière d'ingénierie des données. • Servir d'interface principale avec les parties prenantes des produits de données, de l'architecture et de l'informatique. • Soutenir et habiliter les équipes locales client Data sur les piles technologiques de données.
CDI

Offre d'emploi
Développeur Java Back-end Junior / Confirmé (Finance de marché)

Publiée le
CI/CD
Git
Java

1 an
40k-42k €
300-330 €
Paris, France
🎯 Contexte Nous recherchons un Développeur Java Back-End pour rejoindre une équipe dédiée au trading électronique Forex et Fixed Income. Vous intégrerez le pôle Pre-Trade, Sales & Execution, collaborerez avec les développeurs et les analystes métiers pour maintenir et faire évoluer les applications de passage d’ordres électroniques. 🔎 Missions Intégré(e) à l’équipe IT, vous serez en charge de : Participer aux phases analyse, conception, développement et tests des applications de trading électronique. Développer des programmes, interfaces et restitutions en Java. Respecter les normes et standards de développement (Clean Code, PR, tests unitaires). Contribuer à l’intégration et au suivi des développements. Participer à la rédaction des spécifications techniques. Travailler avec l’équipe métier pour formaliser les besoins utilisateurs. Participer à la mise en place et au suivi des pipelines CI/CD (BitBucket, Git, Jenkins, XLDeploy).
Freelance

Mission freelance
Data Engineer Manager

Publiée le
Azure
Databricks
Snowflake

6 mois
420-490 €
Libourne, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer Manager. Secteur d'activité du client final : santé Contexte : le Client recherche un profil senior avec une expérience confirmée de Data Engineer en environnement complexe, connaissant les DataPlateforms, maitrisant Databricks et/ou Snowflake, idéalement sur Azure. Démarrage : immédiatement Autre prérequis : Expérience en migration de plateformes Exépérience en gestion d'équipes mixtes (internes, consultants, offshore/AMS)
3777 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous