L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 574 résultats.
Offre d'emploi
Administrateur Systèmes / DevOps – Plateformes Applicatives (H/F)
Publiée le
Administration linux
Ansible
Apache
1 an
Saint-Herblain, Pays de la Loire
Contexte Dans le cadre de l’accompagnement DevOps des projets clients , la mission vise à renforcer l’exploitation et l’évolution des plateformes applicatives dans un environnement orienté industrialisation, automatisation et amélioration continue . Objectif de la mission Participer aux projets d’évolution du SI tout en assurant le maintien en condition opérationnelle (MCO) des plateformes applicatives, CI/CD et forges logicielles, dans une démarche DevOps. Missions principales Évolution du SI & DevOps Participer aux projets d’évolution du SI : migrations, mise en place de nouveaux outils . Organiser les environnements en mode DevOps . Développer des scripts pour l’ intégration logicielle et système . Contribuer à l’ amélioration continue des outils et plateformes. Maintien en condition opérationnelle Assurer le MCO des plateformes applicatives de production . Exploiter et maintenir les plateformes CI/CD . Administrer les forges logicielles (Jenkins, Git). Contribuer aux analyses et résolutions d’incidents . Support & assistance Support aux développeurs sur les outils et plateformes utilisés en développement et en production. Support aux chefs de projet sur les plateformes de production. Gestion et analyse des incidents utilisateurs. Documentation & veille Rédiger la documentation technique et les procédures d’exploitation. Assurer une veille technologique et proposer des axes d’amélioration. Environnement technique Systèmes : CentOS, Debian, Ubuntu Serveurs applicatifs & bases : Apache, Tomcat, PostgreSQL, Java DevOps & Cloud : Jenkins, Ansible, Docker, OpenStack Gestion de code & artefacts : Git, Nexus Compétences techniques Impératives : Linux (CentOS, Debian, Ubuntu) – Confirmé Apache, Tomcat, PostgreSQL, Java – Confirmé Jenkins, Ansible, OpenStack, Docker, Git, Nexus – Confirmé
Mission freelance
Chef de Projet Technique DATA
Publiée le
BigQuery
Cloud
Comité de pilotage (COPIL)
6 mois
Paris, France
Télétravail partiel
Dans le cadre de la modernisation de son écosystème Data et de la montée en charge de projets stratégiques Cloud, nous recherchons un Chef de Projet Technique confirmé spécialisé GCP. Vous interviendrez au sein d’une DSI Assurance mobilisée autour de l’industrialisation de ses usages Data et de l’accélération des livraisons sur la plateforme Cloud. Votre rôle Vous jouez un rôle clé dans la coordination technique, la structuration des travaux DATA sur GCP et le pilotage global de l’avancement du programme. Vos responsabilités • Piloter les projets Data hébergés sur Google Cloud Platform. • Coordonner les équipes techniques (Data, IT, Cloud, Transverse). • Assurer le suivi planning, risques, charges et dépendances. • Organiser et animer les comités projet / comités techniques. • Consolider les besoins techniques et suivre l’avancement des actions. • Garantir la qualité des livrables, la cohérence technique et la bonne circulation de l’information. • Veiller au respect des normes internes, bonnes pratiques Cloud et exigences de sécurité.
Mission freelance
Expert CyberSécurité Cloud & GenAI
Publiée le
Azure Active Directory
Microsoft Fabric
Python
1 an
550-600 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Sécurité et Architecture, vous interviendrez comme expert sécurité sur des plateformes Cloud, Data et GenAI , avec une forte dimension gouvernance et conseil. Vos principales responsabilités : Concevoir et déployer des contrôles de sécurité sur Azure et M365 Sécuriser les tenants Azure , souscriptions et identités Implémenter des pratiques DevSecOps Réaliser des analyses de risques liées aux usages IA et LLM Auditer les architectures et formuler des recommandations sécurité Participer aux revues de code et à l’assistance sécurité des équipes 🛠️ Gouvernance & DevSecOps Définition de blueprints sécurité Mise en conformité des environnements Cloud & IA Automatisation des contrôles et supervision sécurité
Mission freelance
TECH LEAD DATA / LEAD DATA ENGINEER
Publiée le
AWS Cloud
DBT
Snowflake
8 mois
600-700 €
Paris, France
Télétravail partiel
Tech Lead Data / Lead Data Engineer – Périmètre Finance Mission principale Piloter techniquement une Feature Team Data orientée Finance, garantir la qualité, la fiabilité et la livraison des produits Data/Analytics, tout en assurant le leadership technique et humain de l’équipe. Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner STACKS OBLIGATOIRES : AWS / SNOWFLAKE / DBT / AIRFLOW
Mission freelance
Ingénieur Data / BI
Publiée le
Azure Data Factory
Databricks
Scala
12 ans
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB est le datamart TV qui vise à centraliser et fiabiliser les données nécessaires au pilotage et à l’analyse de l’activité publicitaire TV linéaire. Le datamart se source principalement d’OptiPub, base de référence regroupant les informations issues des différentes applications métiers de la régie publicitaire. Côté restitution, Ouranos fonctionne principalement avec une logique de self-BI : nous mettons à disposition des métiers un univers BusinessObjects et/ou un dataset Power BI standardisé, que les utilisateurs exploitent pour construire leurs propres tableaux de bord et analyses. La finalité est de fournir un socle de données unique et cohérent permettant aux équipes métier d’accéder rapidement à des informations fiables sur l’activité pub TV et de gagner en autonomie dans le reporting. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Ingenieur Data 5-8 ans Définition du profil Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
Architecte Technique Data Expert Technique - Architecture Data & Cloud (H/F)
Publiée le
Gitlab
18 mois
40k-45k €
110-600 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Cloud, Infrastructure & Cloud, Devops, Gouvernance des données, IAM Compétences Technologies et Outils AWS CI/CD Spark Terraform Python Docker Kinesis Amazon Kubernetes Gitlab Description et livrables de la prestation Le poste d'Architecte Technique Data Expert Technique, également de niveau Expérimenté ou Sénior, a pour mission d'assurer la validité technique et l'alignement des architectures Data avec les standards définis dans le cadre du Programme Vision 2035. En tant que référent technique, vous interviendrez en amont au sein des équipes CAPVISION (méthodologies Capvision, Découverte, Zoom) pour définir les architectures cibles et garantir leur cohérence au sein de l'écosystème SI existant. Vos responsabilités englobent la définition des architectures Cloud (performance, résilience), la mise en œuvre de la gouvernance des données (Dataviz, Datamesh), et la sécurisation des données. Compétences et Technologies (Focus Technique) : Ce rôle requiert une expertise en architecture Data et Cloud (Niveau 4). La maîtrise des outils de gouvernance de la donnée tels que Dataviz et Datamesh est primordiale (Niveau 4). Une expertise est demandée sur la gestion de la sécurité du SI, notamment la gestion des accès (IAM) et les mécanismes de protection des données (Niveau 4). De solides connaissances en intégration et déploiement continus (CI/CD) sont requises (Niveau 4). Techniquement, vous utiliserez Python et Spark. Les services Cloud spécifiques comprennent AWS IAM, Amazon Kinesis, AWS Lake Formation, AWS S3, ainsi que les outils d'industrialisation AWS, Gitlab CI, Docker, Kubernetes et Terraform. Expertise souhaitée Architecte Technique Data Expert Technique
Mission freelance
Architecte Data
Publiée le
Amazon S3
AWS Glue
DBT
6 ans
680-700 €
Paris, France
Télétravail partiel
Dans le cadre de l’accélération de sa stratégie data & omnicanale , un acteur majeur du retail / e-commerce renforce sa Data Platform afin de mieux exploiter ses données clients, ventes, logistique et marketing. Nous recherchons un Architecte Data pour accompagner les équipes et garantir une architecture performante, scalable et sécurisée, capable de soutenir de forts volumes et des usages analytiques avancés. Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists, équipes Marketing & Supply), vous interviendrez de manière transverse sur la conception et l’évolution de l’architecture Data de la plateforme. Vos principales responsabilités Définir et garantir la cohérence de la stack Data (ingestion, traitement, exposition) Assurer le respect des normes et standards d’architecture Data & Cloud Mettre en place et sécuriser les contrats d’interface entre les différentes équipes (data, applicatif, BI) Auditer l’architecture existante et proposer des axes d’optimisation (performance, coûts, scalabilité) Accompagner les équipes sur les bonnes pratiques data (qualité, gouvernance, sécurité) Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions data Participer aux phases de tests et d’intégration de nouvelles briques techniques 🛠️ Developer Experience & FinOps Contribution à l’écriture et à l’industrialisation de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et les pipelines CI/CD Définition des standards de développement, de déploiement et d’exploitation Mise en place du suivi budgétaire par équipe et par usage (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification, priorisation et pilotage des optimisations de coûts Cloud
Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
Azure DevOps
Databricks
1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, BI, Sécurité, Infrastructure), vous interviendrez sur la conception, le développement et l’industrialisation des pipelines data dans un environnement Azure. Vos principales responsabilités : Concevoir des pipelines d’ ingestion et de transformation (batch et near-real-time) Développer et maintenir des flux sous Azure Data Factory Implémenter des traitements Spark via Databricks Mettre en place la qualité des données , le monitoring et la reprise sur erreur Versionner, packager et livrer via des pipelines CI/CD Collaborer avec les équipes BI, sécurité et infra 🛠️ Industrialisation & DataOps Respect des standards de développement et de nommage Mise en œuvre de pipelines CI/CD Documentation et maintien des bonnes pratiques Data Contribution à la performance et à la robustesse des traitements
Mission freelance
Data Engineering Manager (Bordeaux)
Publiée le
AWS Cloud
6 mois
400-750 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Libourne près de Bordeaux, je suis à la recherche d'un Expert Data Engineering Manager. Contexte et mission : Le client accélère sa transformation en matière de données et d'IA et structure son organisation autour d'un modèle opérationnel à deux équipes : • Équipe Produits de données (orientée vers les activités, axée sur la valeur). • Équipe Ingénierie des données (fourniture, exploitation et mise en œuvre de la plateforme). Il recherche donc un responsable Ingénierie des données expérimenté pour diriger l'équipe Ingénierie des données pendant une phase de transition critique. La mission couvre trois objectifs parallèles : • Mettre en place la future plateforme de données cible, dont la pile est actuellement en cours de validation et devrait être basée sur Databricks ou Snowflake sur Microsoft Azure. • Migrer progressivement les piles de données existantes vers la nouvelle plateforme. • Réaliser les projets commerciaux et clients en cours, à la fois sur les piles existantes et sur la nouvelle plateforme, sans perturber les opérations Ce poste exige un leadership fort et une grande discipline d'exécution. Responsabilités principales : • Diriger et gérer l'équipe d'ingénierie des données (équipe interne et partenaires externes). • Être responsable de la livraison, de la capacité et des performances opérationnelles sur les plateformes existantes et cibles. • Garantir la fiabilité, les performances, l'évolutivité et l'optimisation des coûts • Structurer et piloter le démarrage de la plateforme de données cible. • Planifier et exécuter la migration progressive de la pile existante vers la pile cible. • Assurer la livraison des projets commerciaux et clients en cours sur les deux piles. • Définir et appliquer les normes et les méthodes de travail en matière d'ingénierie des données. • Servir d'interface principale avec les parties prenantes des produits de données, de l'architecture et de l'informatique. • Soutenir et habiliter les équipes locales client Data sur les piles technologiques de données.
Offre d'emploi
Data Engineer H/F
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer pour rejoindre une équipe Data moderne et orientée traitement de données volumétriques. Vous participerez au design, à la mise en place et à l’optimisation des pipelines de données. Missions : Développement de pipelines ETL / ELT Modélisation et structuration de data warehouses / data lakes Optimisation des performances et qualité des données Participation à la mise en place de frameworks DataOps Collaboration étroite avec Data Analysts / Data Scientists
Mission freelance
Data Analyst Senior
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
SQL
6 mois
540 €
Paris, France
Télétravail partiel
Data Analyst Senior (Power BI / SSAS) – Mon client bancaire assurance Nous recherchons un Data Analyst Senior (+5 ans d'expérience) pour rejoindre les équipes de Paris, dans le cadre d'un projet d'envergure mêlant maintenance de l'existant et innovation Cloud. Le Contexte de la Mission Au sein du pôle Assurance, vous intégrerez la plateforme Data responsable du Build et du Run d'un parc applicatif décisionnel complexe. Votre rôle sera double : Gestion des cubes SSAS : Création et maintenance des cubes via Visual Studio . Reporting Power BI : Développement de rapports avancés et participation active à la transition vers une plateforme Power BI Cloud . Profil Recherché Expertise technique : Maîtrise confirmée de Power BI et SSAS (Tabular/Multidimensional). Compétences annexes : Très bon niveau en SQL et aisance sur l'IDE Visual Studio. Une expérience sur Power BI Cloud est un plus majeur. Soft Skills : Capacité à animer des ateliers de cadrage avec les métiers, esprit de synthèse et autonomie. Modalités Pratiques Lieu : Paris (Rythme : 3 jours/semaine sur site). Démarrage : Février 2026. Durée : 6 mois + (visibilité longue). Tarif : Maximum 540 € HT/jour.
Mission freelance
Data Platform Enablement Engineer
Publiée le
AWS Cloud
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Platform Enablement Engineer" pour un client dans le secteur Bancaire Description 🏢 Le Contexte : La Tech au service de la Recherche Votre mission est au cœur de notre réacteur technologique. Vous ne construisez pas seulement des outils ; vous donnez le pouvoir à notre communauté de plus de 50 Data Engineers et Data Scientists. En tant que trait d’union entre les équipes "Platform" et les équipes "Métier", vous garantissez que notre plateforme Data est non seulement adoptée, mais qu'elle évolue selon les besoins réels du terrain. 🎯 Vos Missions : Support, Évangélisation et Transmission Votre rôle est pivot : vous êtes à la fois un expert technique "hands-on" et un ambassadeur de la culture Data. 1. Support Technique & Tooling (Expertise Opérationnelle) : Accompagner quotidiennement les Data Engineers/Scientists sur leurs défis techniques complexes. Identifier et gérer la dette technique par des plans d’actions concrets. Développer l'outillage nécessaire pour faciliter la vie des utilisateurs (automatisation, agents IA, frameworks de tests). Collaborer avec les équipes d'infrastructure pour résoudre les incidents de pipelines et améliorer l'expérience développeur (DevEx). 2. Évangélisation & Animation de Communauté : Promouvoir l’adoption de la plateforme par l'exemple et l'usage quotidien. Partager les tendances du marché et les nouveaux outils pertinents auprès des équipes internes. Animer une Communauté de Pratique : organiser des webinaires, des ateliers et des retours d'expérience. 3. Montée en Compétences (Upskilling) : Évaluer le niveau des équipes et concevoir des parcours de formation (exercices, cas réels). Créer du contenu technique de haute qualité : tutoriels, documentation, projets modèles et articles de blog interne. 4. Feedback Loop & Stratégie Produit : Recueillir les retours des utilisateurs pour influencer la roadmap de la Platform Engineering . Être l'avocat des Data Scientists et Engineers au sein de l'organisation pour s'assurer que leurs besoins sont compris et adressés.
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Télétravail partiel
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre d'emploi
EXPERT DATA GOUVERNANCE
Publiée le
Azure
Collibra
3 ans
40k-65k €
400-630 €
Paris, France
Télétravail partiel
Bonjour 😊, Pour le compte de notre client, nous recherchons un Expert Data gouvernance senior. Mission : • D’accompagner les clients dans la formalisation de leurs besoins • De rédiger des livrables SOA (Demandes de Service) nécessaires en entrée du processus de production des WebServices • D’assister les Référents Data du Département dans les missions qui leur sont confiées et s’assurer le cas échéant de leur montée en compétence sur les principes et bonne pratique SOA. • De suivre l’avancement de l’ensemble des demandes de Data adressées au Département • De suivre et rapporter l’avancement de ses chantiers au Chef de projet DATA de la Division Étant donné sa position transverse, au cœur de l’organisation des demandes data, d’autres activités liées à sa mission. pourront lui être confiées, comme l’animation ou la participation à différents comités (Comité Opérationnel des Services, Comité Editorial des Services), la participation à l’élaboration et au suivi du catalogue de services, la gestion du patrimoine de services, par exemples. 2.2 Description détaillée des tâches qui constituent la mission Business Analyse / Pilotage • Participer à la mise en place et à la gestion du catalogue des services du Département • Animer des réunions/ ateliers de conception des modèles objets avec métiers et urbanisme • Travailler en équipe avec les Architectes et les urbanistes sur les architectures préconisées par les services transverses (performances, optimisation) • Assister les métiers dans la formalisation de leurs besoins • Rédiger les livrables SOA de cadrage du besoin / spécifications fonctionnelles (Demandes de Service SOA) • Approuver les livrables SOA rédigés par les clients • Vérifier de la cohérence entre les demandes de Service (DDS) rédigées et les Spécifications techniques (RDS, ODS) livrées par les projets • Suivre l’avancement de la réalisation des Services avec les équipes connexes • Suivre l’avancement général des demandes de données avec les équipes connexes (client, métier, gouvernance de la donnée) Conseil et Support • Décliner en interne et en externes (clients) les bonnes pratiques/prescriptions pour la(SOA) • Accompagner les projets consommateurs de la donnée et leur faciliter l’assimilation des principes et leur transition vers le mode SOA • Être force de proposition o sur les méthodes mises en place ainsi que la démarche d’accompagnement o sur les processus d’instruction des demandes avec les Département connexes (Transverses SI et Métier) • Forte contribution à la mise en place des Catalogues de Service dans le cadre de la Plateforme Digital Client Communication • Savoir concevoir et adapter des supports de communication et/ou de la documentation en fonction des messages et des cibles • Réaliser des présentations des gisements aux clients de type métier & DSI • Contribuer à la communication pour favoriser l’acculturation : o Des entités métiers ou des autres entités connexes à la construction de la démarche DATA o Des Directions métiers et entités connexes à la gouvernance des données et à la mise en œuvre de référentiels d'entreprise. 2.3 Résultats attendus et/ou livrables avec échéancier si besoin
Mission freelance
Data Engineer Manager
Publiée le
Azure
Databricks
Snowflake
6 mois
420-490 €
Libourne, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer Manager. Secteur d'activité du client final : santé Contexte : le Client recherche un profil senior avec une expérience confirmée de Data Engineer en environnement complexe, connaissant les DataPlateforms, maitrisant Databricks et/ou Snowflake, idéalement sur Azure. Démarrage : immédiatement Autre prérequis : Expérience en migration de plateformes Exépérience en gestion d'équipes mixtes (internes, consultants, offshore/AMS)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
574 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois