L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 266 résultats.
Mission freelance
Data Product Owner – Intermodal
LINKWAY
Publiée le
Business Intelligence
Confluence
JIRA
1 an
400-490 €
Île-de-France, France
Dans un contexte de transformation digitale et d'optimisation des flux logistiques mondiaux, nous recherchons un Data Product Owner spécialisé dans le transport Intermodal . Le secteur de la logistique vit une révolution axée sur la donnée, et l'intermodalité (la combinaison intelligente de différents modes de transport comme le rail, la route et le maritime) est au cœur des enjeux écologiques et économiques actuels. En tant que Data Product Owner, vous serez le chef d'orchestre de produits de données innovants destinés à optimiser ces flux complexes. Vous intégrerez une équipe transverse ("Squad") composée de Data Engineers, de Data Scientists et d'analystes, et vous ferez le lien vital entre les équipes techniques et les métiers opérationnels du transport. Définition de la Vision et de la Roadmap Produit : Vous serez responsable de la construction et du maintien de la vision produit. Cela implique de comprendre les besoins des opérationnels qui gèrent le transport intermodal au quotidien. Vous devrez traduire ces besoins business en solutions "Data" concrètes (tableaux de bord décisionnels, algorithmes d'optimisation de routes, outils de tracking prédictif, calculateurs d'émissions CO2). Vous élaborerez une roadmap claire à court, moyen et long terme, en priorisant les fonctionnalités qui apportent le plus de valeur ajoutée à l'entreprise (ROI). Gestion du Backlog et Delivery : Vous serez en charge de la rédaction des User Stories, en vous assurant qu'elles sont claires, testables et orientées vers la valeur utilisateur. Vous gérerez le Product Backlog, en arbitrant constamment les priorités entre les nouvelles fonctionnalités, la dette technique et les corrections de bugs. Vous animerez les rituels agiles (Sprint Planning, Daily Stand-up, Sprint Review, Retrospective) pour garantir un rythme de livraison soutenu et de qualité. Valorisation de la Donnée et Qualité : Le cœur de votre mission reste la donnée. Vous devrez travailler en étroite collaboration avec la gouvernance des données pour vous assurer de la qualité, de la fiabilité et de la disponibilité des flux de données entrants (IoT, systèmes TMS, données partenaires). Vous devrez identifier les sources de données pertinentes pour résoudre les problèmes de logistique intermodale (ex: temps d'attente aux terminaux, congestion ferroviaire) et transformer ces données brutes en insights actionnables pour les décideurs. Gestion des Parties Prenantes (Stakeholder Management) : Vous serez l'interlocuteur privilégié des différentes directions (Opérations, Commerce, RSE, IT). Votre rôle sera de fédérer ces acteurs autour du produit, de gérer les attentes parfois contradictoires et de communiquer transparentement sur l'avancement des projets. Vous devrez faire preuve de pédagogie pour expliquer les contraintes techniques aux métiers et les enjeux business aux équipes techniques. Accompagnement au Changement : Le déploiement d'un produit Data ne s'arrête pas à la mise en production. Vous accompagnerez les utilisateurs finaux dans la prise en main des outils, recueillerez leurs retours pour l'amélioration continue et mesurerez l'adoption des solutions via des KPIs précis (taux d'utilisation, impact sur la marge, réduction des délais, etc.).
Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data
Hexateam
Publiée le
AWS Cloud
Databricks
Python
36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Offre d'emploi
Développeur mobile React Native / Data Engineer H/F
SMARTPOINT
Publiée le
Apache Spark
Azure
Databricks
12 mois
55k-60k €
400-450 €
Île-de-France, France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. Vous interviendrez sur les sujets suivants : Développement mobile Assurer la maintenance évolutive et corrective d’une application mobile en React Native Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) Data Engineering Concevoir, développer et implémenter des solutions Big Data Analytics Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) Rédiger la documentation technique (DAT, release notes, etc.) Réaliser des tests unitaires et assurer la qualité des livrables Contribuer à la maintenance évolutive et corrective des traitements Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés
Offre d'emploi
Développeur/Data Engineer Python & Lambda AWS
OBJECTWARE
Publiée le
Python
3 ans
40k-50k €
260-400 €
Île-de-France, France
Mission En qualité de développeur python / Data Engineer, votre rôle et vos missions consistent à : * Participer à la conception/développement sur le projet Portfolio Clarity pour NIM (python sur lambdas AWS) * Réaliser les tests unitaires et d'intégration * Revue du code et amélioration de l'architecture applicative existante * Documenter les réalisations * Intégrer les développements à la chaine de CI/CD La bonne réalisation de la prestation exige les compétences suivantes : * Maitrise des développements et lntégration python * Connaissance et utilisation des outils de développements (Visual Studio Code ou autre IDE) * Connaissance et utilisation des outils d'intégration et de tests continus (Bitucket/git, Jenkins, junit, XLDeploy, XLRelease) * Connaissance et utilisation des outils collaboratifs (Confluence, Jira) Compétences personnelles : • Appétence technique • Structuré, bon esprit d’équipe, autonomie, curiosité • Capacité d’écoute, de synthèse. * Anglais professionnel
Mission freelance
Data Engineer Senior – Azure Databricks (Python) (H/F)
HOXTON PARTNERS
Publiée le
Azure
Databricks
Python
6 mois
Paris, France
Dans le cadre d’un projet Data sous environnement Microsoft Azure, nous recherchons un Data Engineer disposant d’une expérience significative sur Azure Databricks (Python). Le consultant interviendra sur la conception, le développement et l’optimisation de traitements data au sein d’une plateforme moderne. Il participera à la mise en place de pipelines de transformation et à l’intégration des flux dans l’écosystème Azure. Les principales responsabilités incluent: Développement de notebooks Azure Databricks en Python / PySpark Conception et optimisation de pipelines de transformation Intégration avec Azure Data Factory Contribution aux sujets de gouvernance via Unity Catalog Participation aux déploiements et bonnes pratiques d’industrialisation (Terraform)
Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark
3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Offre d'emploi
Data Analyst Dataiku/SAS/Tableau/SQL
OBJECTWARE
Publiée le
Dataiku
SAS
3 ans
40k-80k €
400-580 €
Île-de-France, France
Prestations demandées La mission consiste à fournir aux équipes Finance les moyens de contrôler / analyser / piloter leurs activités, via une exploitation qualitative de la donnée. Les tâches principales consisteront à : - Accompagner les différentes équipes dans l’expression de leurs besoins - Définir et modéliser les processus data - Concevoir les solutions - Implémenter et automatiser les processus dans les outils les mieux adaptés (extraction et préparation des données ; production des outputs ; historisation et stockage ; tableaux de bord,…) - Accompagner les Métiers dans la prise en main des solutions mises en place - Assurer la maintenance corrective et évolutive des solutions livrées - Identifier, partager et mettre en œuvre les bonnes pratiques sur le traitement des données, dans une démarche d’amélioration continue. Le périmètre recouvre l’ensemble des données de l’activité d’Arval France (systèmes de gestion des contrats, de l’assurance, des frais généraux ; systèmes comptables,…), nécessaires aux travaux de la Finance. Les principaux outils utilisés dans l’existant sont : Excel, SAS, OBIEE Analytics, SQL Dev. Les principaux outils à privilégier en cible sont – conformément aux recommandations internes : Dataiku, Python, Vertica, Tableau. La mission se déroule au sein l’équipe de Data Analysts dédiée au projet Data Finance, celle-ci travaille de manière quotidienne avec l’ensemble des parties prenantes au projet – de la Finance et des autres Directions : - Experts Métier - Architectes et référents IT - Data Engineers - Data Management Officers Exemples de besoins automatisation pouvant être mis en œuvre durant la mission : - Réaliser la migration SAS vers Dataiku du dashboard de pilotage de l’encours stock de commandes - Industrialiser les contrôles et les rapprochements entre les systèmes de gestion et les systèmes comptables - Industrialiser le pilotage des paiements clients / fournisseurs
Mission freelance
Data Analyst Spécialiste sur Infor M3
DEVIK CONSULTING
Publiée le
SQL
1 an
400-600 €
Île-de-France, France
Description Pour le compte de notre client grand compte, Nous recherchons un Data Analyst sénior sur l’ERP Infor M3 pour accompagner le client sur les données de domaines Finance et Achats Le consultant participera à la cartographie des tables et champs de donnée brutes issus de l’ERP Infor M3 Tâches principales Assurer le cadrage technique des données Collaboration avec les Data Engineers pour identifier les champs pertinents dans M3 Collaboration avec les Data Engineers pour définir les règles de gestion associés Profil Recherché Communication : Confirmé SQL : Confirmé Infor M3 / Movex : Expert Data Analyst : Expert L’Anglais est Obligatoire sur cette mission Lieu : Ile-de-france
Mission freelance
Data analyst monetique
Deodis
Publiée le
MySQL
1 an
450-550 €
Île-de-France, France
Au sein d’une Datafactory dédiée aux moyens de paiement, le Business Analyst Data contribue à la collecte, à la transformation et à la gestion des données de paiement et des données clients afin d’en garantir la qualité, la sécurité et l’intégrité. Il participe à la mise à disposition de ces données pour les équipes métiers et les différentes équipes data, notamment à travers la production de reportings et de tableaux de bord (Power BI) ainsi que l’alimentation de systèmes opérationnels. En collaboration avec les data engineers, data visualization specialists et le Product Owner, il anime des ateliers avec les parties prenantes, rédige les spécifications fonctionnelles et techniques, développe les user stories, réalise les phases de recette des traitements de données et accompagne les utilisateurs dans l’exploitation des données. Il intervient dans un environnement agile et contribue à l’amélioration continue des produits et services data.
Mission freelance
Data Architect
Codezys
Publiée le
API
Azure
Azure Data Factory
12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
Mission freelance
Administrateur Plateforme Data (Cloudera & Open Source)
VISIAN
Publiée le
Administration linux
Bash
Cloudera
1 an
400-470 €
Île-de-France, France
Contexte Dans le cadre du développement d’une plateforme Data & IA au sein d’un grand groupe du secteur financier , nous recherchons un Data Platform Engineer / Administrateur Data pour assurer l’administration, l’évolution et la fiabilité des infrastructures Data. Vous interviendrez sur des environnements Big Data basés sur l’écosystème Cloudera et Open Source , au sein d’équipes techniques et métiers. Missions Administration et exploitation des plateformes Data Administrer et maintenir les plateformes Big Data en condition opérationnelle Superviser les systèmes et assurer la maintenance corrective et évolutive Intervenir sur la résolution d’incidents complexes sur les plateformes Data Conception et gestion des flux de données Identifier les besoins métiers en matière de collecte et stockage de données Développer des solutions d’ingestion de données (API, pipelines) Concevoir des architectures de stockage robustes (Data Lake / Big Data) Automatiser les traitements via batchs et pipelines de données Valorisation et gouvernance des données Industrialiser les processus de transformation et de nettoyage des données Gérer des bases de données hétérogènes et multi-sources Garantir la conformité et la gouvernance des données Industrialisation Data Science / IA Industrialiser le déploiement de modèles statistiques et machine learning Mettre en place des mécanismes de validation et monitoring des modèles Assurer le suivi opérationnel des modèles intégrés aux applications Contribution aux projets Data Définir les spécifications techniques Assurer le reporting d’avancement auprès du pilotage projet Apporter un support technique aux équipes métiers et applicatives Le poste peut inclure des astreintes par rotation et une participation à la continuité de service des plateformes Data .
Mission freelance
Tech Lead Databricks (H/F)
Nicholson SAS
Publiée le
Apache Kafka
Code Review
Databricks
9 mois
500 €
Paris, France
Nous recherchons pour l'un de nos clients de premier plan, leader dans son secteur d'activité, un Tech Lead Databricks charismatique et expert pour piloter des chantiers Data stratégiques. Sous la supervision du Head of Data, vous serez le garant technique de la solution et le moteur d'une équipe de Data Engineers. 🎯 Vos Missions (Répartition du temps) 70% Leadership Technique & Mentoring Encadrement technique de 1 à 3 Data Engineers. Garant de la qualité du code via des Code Reviews rigoureuses. Définition et évangélisation des best practices de développement. 20% Architecture & Conception Révision de la conception technique et challenge des solutions en place. Design de pipelines de données scalables et performants. 10% Pilotage & Reporting Interlocuteur privilégié du Head of Data . Suivi de l'avancement (MVP/Projets) et gestion des alertes. Reporting stratégique sur la santé technique du projet. 📍 Modalités du Poste Démarrage : ASAP Durée : Jusqu’au 31/12/2026 (Mission longue visibilité) Lieu : Paris (Rythme hybride : 2 jours sur site obligatoires ) Tarif/TJM : Budget 500€ HT/jour
Mission freelance
Data Product Manager/Environnement anglophone
Comet
Publiée le
Data governance
1 an
400-550 €
Île-de-France, France
Dans le cadre de la structuration de ses activités data à l’échelle mondiale, notre client recherche un Data Product Manager Senior pour piloter la conception et la mise en œuvre de modèles de données industriels et de solutions de reporting. Vous interviendrez sur un périmètre stratégique couvrant plusieurs applications déployées dans des usines à l’international, avec un objectif clair : standardiser, fiabiliser et valoriser la donnée au service de la performance industrielle. Vos responsabilités En tant que Data Product Manager, vous serez au cœur de l’interaction entre les équipes métiers et techniques. Vos missions principales : Comprendre les enjeux business liés à la performance industrielle Recueillir et structurer les besoins métiers Animer des ateliers avec les différentes parties prenantes Concevoir et formaliser les modèles de données (data modeling, business layer) Définir l’architecture fonctionnelle des solutions data Coordonner les équipes data (Data Engineers, BI, Architectes) Organiser les contributions autour du modèle "Data as a Service" Documenter les solutions et démontrer leur valeur Préparer les phases de mise en œuvre (budget, planning, roadmap) Formaliser les recommandations finales pour le lancement des projets
Mission freelance
Data Product Manager – Data & BI Platform
Comet
Publiée le
Microsoft Power BI
1 an
400-550 €
Île-de-France, France
Dans le cadre de la transformation Data de Saint-Gobain Mobility , nous recherchons un Data Product Manager senior pour piloter plusieurs initiatives stratégiques autour des plateformes Data & BI . Vous interviendrez au sein d’un environnement international, en collaboration étroite avec des architectes data, data engineers, équipes BI et métiers (Sales, Finance, Manufacturing, Supply Chain, Purchasing) . L’objectif : structurer et piloter un portefeuille de produits data alignés avec les besoins business et la stratégie Data du groupe. Vos missions Piloter l’étude et le cadrage de projets Data & BI Recueillir et formaliser les besoins métiers Animer des workshops avec les stakeholders Structurer l’architecture fonctionnelle et les flux data Concevoir les modèles de données et business layers Coordonner les équipes Data Engineers / Architectes / BI Évaluer la valeur business des solutions proposées Préparer les roadmaps, budgets et planning de delivery Formaliser les propositions de lancement projet Environnement & sujets clés Plusieurs initiatives structurantes sont en cours : Migration vers une Cloud Data Platform Migration MicroStrategy → Power BI Structuration des produits data dans une logique Data-as-a-Service Cas d’usage métiers : Sales Finance Manufacturing Supply Chain Purchasing
Mission freelance
Proxy Product Manager
Codezys
Publiée le
Cybersécurité
Méthode Agile
Product management
12 mois
340-420 €
Paris, France
Contexte de la mission : Dans le cadre du déploiement mondial d'une solution digitale, FACTOR, portée par une Business Unit Veolia, un(e) Proxy Product Manager est recherché(e). La solution comprend une application mobile (Factor Mobile) et une interface web (Factor Web), déployée à plus de 3000 utilisateurs sur 550 sites Veolia dans le monde. Le(la) candidat(e) sera le point de contact principal entre les besoins métiers internationaux et leur implémentation, en collaboration étroite avec le Product Owner et les applications connectées (GMAO, outils métiers). Objectifs et livrables : 1. Stratégie, Cadrage et Backlog (BUILD) : Recueillir et prioriser les demandes d'évolution des utilisateurs mondiaux. Gérer le backlog d'Epics selon la valeur métier et le ROI. Détailler les parcours utilisateurs, valider avec les parties prenantes, et convertir en Epics/fonctionnalités. Gérer le workflow JIRA, coordonner UI/UX via Trello. Optimiser les déploiements en synergie avec l'écosystème (GMAO, outils métiers). 2. Pilotage de la valeur et satisfaction client : Suivre et communiquer les KPIs d'usage et de performance. Analyser les données pour améliorer le produit de façon proactive. 3. Animation des rituels agiles et communication : Préparer et suivre les Comités Opérationnels et revues de Sprint. Valider le développement selon les critères d'acceptation. Animer les réunions mensuelles avec les Key Users internationaux et recueillir leurs retours. 4. Support, cybersécurité et documentation : Gérer les tickets support via ServiceNow, collaborer avec l'équipe de réalisation. S'assurer de la conformité aux règles de cybersécurité (Pentests, plans d'action). Rédiger et maintenir la documentation technique et utilisateur. Accompagner la communication produit et actualiser les notes de version. 5. Formation et dashboarding : Former ponctuellement les utilisateurs lors des phases de prévente et déploiement. Mettre en place et suivre des tableaux de bord DataStudio avec l'aide du Data Engineer/Analyst. Travail en étroite collaboration avec : Apprenti UX/UI Data Engineer / Analyst Product Sales and Communication Manager Product Owner Développeurs, experts métiers, Key Users à travers le monde Services transverses Veolia : cybersécurité, Service management, équipe data, communication
Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON
OCTOGONE
Publiée le
PySpark
Python
6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
266 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois